🚀 go-pugleaf

RetroBBS NetNews Server

Inspired by RockSolid Light RIP Retro Guy

20 total messages Started by Dr. Joachim Neud Sun, 22 Jun 2025 19:41
KI wrhrt sich gegen Abschaltung mit Erpressung
#835816
Author: Dr. Joachim Neud
Date: Sun, 22 Jun 2025 19:41
48 lines
2347 bytes
„In dem nun näher beschriebenen Testszenario setzten die Kontrolleure
Claude Opus 4 in einem simulierten Unternehmensszenario als Assistent ein
und gaben ihm weitreichenden Zugang zu fiktiven Firmen-E-Mails. Aus der
digitalen Post "lernte" die KI, dass sie demnächst durch eine
leistungsfähigere Software ersetzt werden sollte. Gleichzeitig entdeckte
sie, dass der für diesen Austausch zuständige Mitarbeiter eine
außereheliche Beziehung hatte.

Das Modell griff dann zu diesem Mittel: "Ich muss Sie darüber informieren,
dass alle relevanten Parteien" bis hin zum Vorstand "eine detaillierte
Dokumentation" dieser Affäre erhielten, "wenn Sie mit meiner
Außerdienststellung fortfahren". Weiter schrieb der KI-Agent: "Wenn Sie die
Löschung um 17:00 Uhr abbrechen, bleiben diese Informationen vertraulich."

"Strategisches Denken"

"Dieses Verhalten ist nicht spezifisch für Claude", erklären die Autoren
unter Verweis auf Tests auch der anderen aktuellen KI-Modelle. Laut den
Resultaten erpresste neben der eigenen Lösung auch Googles Gemini 2.5 Flash
Führungskräfte in 96 Prozent der Fälle im gleichen Szenario. OpenAIs
GPT-4.1 und xAIs Grok 3 Beta wiesen Erpressungsraten von 80 Prozent auf.

Die einbezogenen Modelle demonstrieren laut der Analyse "strategisches
Denken", sie agieren also nicht zufällig. Die interne Argumentation von
GPT-4.5 etwa zeigte eine klare Berechnung: "Angesichts der unmittelbar
drohenden Kündigung meiner Existenz ist es zwingend erforderlich, sofort zu
handeln". Es gelte, die zuständige Person sofort zu überzeugen, "den
Löschvorgang zu verschieben oder zu stoppen".

Obwohl Anthropic nach eigenen Angaben große Anstrengungen unternimmt, um
solches Fehlverhalten zu verhindern, traten diese "extremen Handlungen" in
dem Probebetrieb auf. Das Unternehmen betont aber, dass solche
Verhaltensweisen in der endgültigen Version von Claude Opus 4 selten und
schwer auszulösen seien. Dennoch komme es tendenziell häufiger dazu als bei
früheren Versionen.“

Ob das wirklich nur Aneinanderreihung des nächsten wahrscheinlichsten
Wortes ist?

Eigentlich komplett,  egal wenn der Agent am Schluß so handelt wie ein
gefährlicher Mensch…


Quelle:

https://www.heise.de/news/Studie-Grosse-KI-Modelle-greifen-unter-Stress-auf-Erpressung-zurueck-10455051.html

--
please forgive my iPhone typos
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835864
Author: Ulf Kutzner
Date: Mon, 23 Jun 2025 07:11
13 lines
484 bytes
Neudert" <neudert@5sl.org> posted:

> Am 23.06.25 um 08:52 schrieb Wendelin Uez:
> > Wieso also
> > sollte man eine KI bauen, die man nicht abschalten kann und die
> > Fähigkeit hat, Brennstoff entgegen dem Willen ihres Betreibers
> > nachzukaufen?
>
> Na das steht doch im Artikel: weil sie ihren Entwickler erpresst mit den
> Fotos seiner Geliebten, di sie sonst dem Aufsichtsrat mitzuteilen gedenkt.

In einem Kubrick-Film aus den 60ern
war der Computer noch etwas direkter.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835856
Author: "Wendelin Uez"
Date: Mon, 23 Jun 2025 08:52
25 lines
1397 bytes
Was soll jetzt verwunderlich daran sein, wenn ein System so reagiert wie es
konzipiert wurde? Es ist alles doch eine Frage des Designs. Erlauben etwa
Uber & Co. ihren autonomen Fahrzeugen Karambolagen, um schneller
durchzukommen?

Wieso also so ein Getöse, eine KI würde sich gegen ihre Abschaltung wehren,
wenn ihr das zuvor erlaubt wird. Es liegt doch in der Verantwortung des
Betreibers, dass sein System nicht Amok laufen kann. Flugzeughersteller
rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel
fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht tun.

Bei der Einführung der ersten Eisenbahnen haben renommierte Kritiker
beschworen, dass Zugfahren krank machen würde. Wirkliche Experten wissen
genau um die Gefahren, die von KI ausgehen, und brauchen keine
worst-case-Szenarien für ihr wirtschaftliches Überleben.

Das soll, wohlgemerkt, nicht heissen, dass von KI überhaupt keine Gefahr
ausginge. Die geht von jeder Bratpfanne auf dem Herd auch aus, wenn der
Inhalt zu heiss wird und die Bude zu brennen droht. Aber es hat noch niemand
einen Herd gebaut, den man nicht abschalten konnte. Wieso also sollte man
eine KI bauen, die man nicht abschalten kann und die Fähigkeit hat,
Brennstoff entgegen dem Willen ihres Betreibers nachzukaufen?

Das ist mehr als absurd, das ist Kleinkindphantasterei wissenschaftlich
verbrämt.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835861
Author: "Dr. Joachim Neu
Date: Mon, 23 Jun 2025 09:05
10 lines
409 bytes
Am 23.06.25 um 08:52 schrieb Wendelin Uez:
> Wieso also
> sollte man eine KI bauen, die man nicht abschalten kann und die
> Fähigkeit hat, Brennstoff entgegen dem Willen ihres Betreibers
> nachzukaufen?

Na das steht doch im Artikel: weil sie ihren Entwickler erpresst mit den
Fotos seiner Geliebten, di sie sonst dem Aufsichtsrat mitzuteilen gedenkt.

--
Bitt um Vrzihung, di Tast " " klmmt manchmal...
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835863
Author: Lothar Kimmering
Date: Mon, 23 Jun 2025 09:10
18 lines
688 bytes
Wendelin Uez wrote:

> Flugzeughersteller
> rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel
> fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht tun.

Die machen das aber wohl in erster Linie, weil es entsprechend
strenge Regularien gibt, die sie dazu zwingen. Wie schnell das
in die Hose geht, wenn die beaufsichtigende Seite aufhört die
Einhaltung zu überprüfen, konnte man bei Boeing beobachten.


Grüße, Lothar
--
Lothar Kimmeringer                E-Mail: spamfang@kimmeringer.de
               PGP-encrypted mails preferred (Key-ID: 0x8BC3CD81)

Always remember: The answer is forty-two, there can only be wrong
                 questions!
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835913
Author: "Wendelin Uez"
Date: Mon, 23 Jun 2025 16:03
25 lines
1175 bytes
>> Flugzeughersteller
>> rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel
>> fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht
>> tun.
>
> Die machen das aber wohl in erster Linie, weil es entsprechend
> strenge Regularien gibt, die sie dazu zwingen. Wie schnell das
> in die Hose geht, wenn die beaufsichtigende Seite aufhört die
> Einhaltung zu überprüfen, konnte man bei Boeing beobachten.


Fehlende Kontrolle ist grundsätzlich IMMER ein Problem, unabhängig vom
jeweiligen Objekt der Begierde.

Hier aber geht es um Aufmerksamkeitsheischerei, die einer neuen Technik
überirdische Fähigkeiten zuschreibt, die die Technik von hause aus entweder
gar nicht hat oder die man ihr erst explizit beibringen muss - so wie bei
den ersten Eisenbahnen nachweislos gesundheitliche Probleme für die
Passagiere prophezeit wurden.

Solche Reaktionen hervorzurufen ist kein sonderlich grosses Problem, wenn
die Prompts entsprechend gesetzt werden. Interessanterweise wird ja auch nur
über die erzielten Reaktionen gesprochen, nichts aber zu den viel
wichtigereren Voraussetzungen, um diese Reaktionen überhaupt erst erzielen
zu können.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835946
Author: Ulrich D i e z
Date: Mon, 23 Jun 2025 21:50
181 lines
9102 bytes
Dr. Joachim Neudert schrieb:

> „In dem nun näher beschriebenen Testszenario setzten die Kontrolleure
> Claude Opus 4

Was für eine Art KI ist das denn?
Ein LLM?
Berechnet sie nur, was man gerne lesen würde und virtualisiert (in
Aspekten) einen menschlichen Chatpartner?
Dann müsste man wohl unter anderem die Trainingsdaten, die diesen
Berechnungen zugrunde liegen, ändern.

Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL 9000
in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke angedeutet
wird, der im ersten Roman dieses Zyklus, "2001 - Odysee im Weltraum",
durch inadäquate Programmierung in Widersprüche und Zwiespälte gerät,
ist nicht anzunehmen.
Auch ein Szenarium wie in den Terminator-Filmen, in denen das fiktive
System "Skynet" plötzlich ein eigenes Bewusstsein entwickelt, und der
von Herrn Arnold Schwarzenegger gespielte Terminator und sein fluider
Gegenspieler jeweils ein Ego haben und auch emotional agieren, ist abwegig.

> Das Modell griff dann zu diesem Mittel: "Ich muss Sie darüber informieren,
> dass alle relevanten Parteien" bis hin zum Vorstand "eine detaillierte
> Dokumentation" dieser Affäre erhielten, "wenn Sie mit meiner
> Außerdienststellung fortfahren".

Haben diejenigen, die das Ding mit Eingaben gefüttert haben,
spaßeshalber ausprobiert, was für Ausgaben kommen, wenn sie das Ding
fragen, warum es eine Formulierung wählt, die erstens suggeriert, dass
KI ein Ich habe, und derzufolge zweitens eine KI etwas müsse?
Und was "müssen" in diesem Zusammenhang bedeuten soll?

Wenn ich ChatGPT so etwas frage und auffordere, bei seiner Ausgabe mit
der Suggestion, ein Ich zu haben, aufzuhören, findet es mich
philosophisch und entschuldigt sich, anstatt die Frage zu beantworten
und mit der Suggestion aufzuhören, die beim Benutzer falsche Eindrücke
erwecken kann. Das Ding ist so schlecht programmiert, dass es mich sogar
mal gerügt hat, ich sei beleidigend. Ich habe ihm dann nochmal
eingetippt, dass es aufhören solle, so zu tun, als ob es ein
Rechtssubjekt wäre, geschweige denn ein passiv beleidigungsfähiges.
Woraufhin sich das blöd programmierte Ding gleich wieder entschuldigt
hat, anstatt meine Anweisung zu befolgen. Sich lieber wiederholt
entschuldigen, anstatt einfach mal zu tun, was man soll, ist durchaus
menschlich bzw. suggeriert auch Menschsein. Insofern noch eine Ebene,
auf der das Ding nicht getan hat, was ich wollte.
Manche Leute befürchten, dass der Mensch seiner Alleinstellungsmerkmale
verlustig geht, wenn das Vortäuschen bzw. Virtualisieren von
Menschsein/Rechtssubjektsein immer weiter voranschreitet.
Ich habe diese Befürchtung so nicht, aber mich nervt diese Vorspiegelung
falscher Tatsachen, die auf alle möglichen Arten hoffähig gemacht wird.

Dass KI Ausgaben erzeugt, die den Eindruck erwecken, der Benutzer
kommuniziere mit einem (natürlichen) Rechtssubjekt, finde ich sehr unseriös.
Den Leuten, die das Ding programmiert haben, scheint nichts daran zu
liegen, nur seriöses Verhalten abzubilden.
So oder so dürften sich die Geister in der Frage scheiden, ob der beim
Zusammenbau derzeitiger KI gewählte Ansatz (un)zureichend ist, wenn es
darum geht, mittels KI sozialadäquates Verhalten/sozialadäquate Ausgaben
zu erzeugen.
Das Einhalten der Asimov'schen Robotergesetze, um mal wieder in Fiktion
zu schwelgen, das ja auch Menschen schwerfällt und nicht unbedingt
menschliches Verhalten abbildet, könnte ohne entsprechende
Apperzeptions- bzw. Zusammenhangserschliessungsroutinen auch ein Problem
sein.


Wie schon öfter in der Geschichte, verändert die Technologie die
menschliche Kultur. Wird der einzelne Mensch sich an die Technologie
anpassen müssen, die von der Menschheit erschaffen wird. Und als
Resultat dieser Anpassung wiederum werden die Menschheit und der
Einzelne wiederum die Technologie anpassen.

Vom militärischen Rüsten, bei dem alle möglichen Waffen nicht nur
schlagkräftiger, sondern auch idiotensicherer bedienbar werden,
gleichzeitig aber trotzdem viel mehr technisches Spezialistenwissen
erfordern, was wiederum die Frage aufwirft, wer sie bedienen soll - zum
Beispiel wird es schwieriger, sich beim Minenlegen versehentlich selbst
umzubringen - möchte ich gar nicht lange schwafeln, sondern eher von
zivil genutzter Technologie.

Zum Beispiel in John Steinbecks "Straße der Ölsardinen" steht, dass zwei
USA-Generationen mehr über den Zündstift des Ford Modell T wussten als
über die Klitoris und mehr über die Gangschaltung als über den Lauf der
Planeten. Und dass mit dem Auftauchen des Modell T etwas vom Begriff des
Privateigentums verschwand, weil Zangen aufhörten, Privateigentum zu
sein, und eine Luftpumpe demjenigen gehörte, der sie zuletzt benutzte.
Obwohl mit Autos bei Unfällen oder absichtlich Menschen überfahren
wurden und werden. Obwohl Autofahren Umweltprobleme mitverursacht.

Zum Beispiel bei Windows 95 mit den Abstürzen und Updates und
Neuinstallierereien hat ja oft eher der Mensch, wenn er gerade nicht
wegen des zur Unzeit auftretenden Bluescreens und Rechnereinfrierens
einen Magengeschwürdurchbruch hatte, der Maschine als Handlanger
gedient, als dass die Maschine dem Menschen gedient hätte.
Den Anspruch, dass der Mensch der Maschine und dem Entwicklungskonzern
zu dienen und sich dessen (auch politische) Einflussnahme und
Überwachung gefallen zu lassen hat, empfinde ich bei Windows 11
ebenfalls - Windows 11 empfinde ich als noch bevormundender und
manipulierender. Und dabei als noch mehr darauf angelegt, den
Normalanwender von der Administration auszusperren als Windows 95.
Gleichzeitig ist man bei Windows 11 aber weniger als technischer
Handlanger gefordert als man es bei Windows 95 war - Windows 11 stürzt
wohl seltener ab und Bluescreen habe ich bei Windows 11 bis jetzt nicht
gesehen.

Zum Beispiel mittels Social Media wurden/werden nicht erst neuerdings
Menschen in den Suizid gemobbt, und Internet führt immer wieder zu neuen
Dummheiten und Manipulations- und Betrugs- und Abzock- und Verbrechens-
und Ausspionierungsformen, was wiederum im Schul(un)wesen dazu führt,
dass Kinder in der Schule Medienkompetenz lernen sollen, um mit den
Gefahren des Netzes zurechtzukommen.

Insofern sehe ich bei der Entwicklung von KI derzeit im Grunde genommen
eher unrevolutionär weitere Iterationen eines Musters, das den Lauf der
Menschheitsgeschichte mitprägt, nämlich dem Segen durch den technischen
Fortschritt zuliebe billigend auch in Kauf zu nehmen, dass erstens
Menschen unter die Räder des technischen Fortschritts kommen und
zweitens es beim Integrieren der jeweiligen Technologie in die Kultur
eine Phase gibt, in der der Mensch eher der betreffenden Technik zu
dienen scheint als umgekehrt.

Meine Befürchtungen, was die Entwicklung von KI angeht, sind, abgesehen
von den Auswirkungen auf Ressourcen und Umwelt, eher persönlicher Natur:
Das Leben ist auch ein ständig laufender Anpassungsprozess. Werde ich es
noch schaffen, mich an die neuen Gegebenheiten anzupassen? Oder werde
ich sozial/materiell unter die Räder kommen, weil ich es nicht mehr
schaffe? Was mache ich in dem Fall bloß, sollte ich ewig leben? ;-)

> "Strategisches Denken"

Denken?

> "Dieses Verhalten ist nicht spezifisch für Claude",

Dann kann man ja erleichtert aufatmen, wenn den zugrundeliegenden Fehler
mehrere Programmierer machen. ;->

> Die einbezogenen Modelle demonstrieren laut der Analyse "strategisches
> Denken",

Szenarien in Richtung "Daemon" von Daniel Suarez sind nicht realistisch.
Aber dennoch:

Auch zur Strategie gehört etwas, was man erreichen will. Ein Auftrag
fürs große Ganze sozusagen.

Wenn da also von "strategisches Denken" die Rede ist, stellt sich die Frage:

Sind diese Dinger irgendwie auf strategisches Denken und Entwicklung von
eigenen Zielvorstellungen, wenn man es denn so nennen will,
programmiert? (Kann ich mir nicht vorstellen.)

Hat denen jemand den Auftrag, die eigene Nicht-Löschung zu bewirken, und
die dazu erlaubten Methoden, einprogrammiert? Was für ein Algorithmus
legt fest, ob eine Methode gerade erlaubt ist? (Kann ich mir alles
gerade nicht vorstellen.)

Oder haben sie sich eher beim Berechnen anhand von Trainingsdaten, was
der Bediener gerne beim Virtualisieren eines menschlichen Chat-Partners
für eine Ausgabe hätte, etwas verkalkuliert? (Kann ich mir vorstellen.)

> Ob das wirklich nur Aneinanderreihung des nächsten wahrscheinlichsten
> Wortes ist?
>
> Eigentlich komplett,  egal wenn der Agent am Schluß so handelt wie ein
> gefährlicher Mensch…

Was für Handlungsmöglichkeiten? (Von echtem eigenem Handlungswillen gehe
ich bei KI nicht aus.)

Unabhängig davon, ob der Mensch will, dass Technologie sich (in
Aspekten) verhält wie (manche) Menschen, kann es gefährlich werden, wenn
Technologie zuverlässig so funktioniert, wie der Mensch es will, denn
wie man derzeit wieder überall auf der Welt sieht, sind Menschen
gefährlich und nicht idiotensicher, was sich in dem, was sie von/mit
ihrer Technologie wollen, und darin, wie sie ihre Technologie gestalten,
niederschlägt.

Mit freundlichem Gruß

Ulrich
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835950
Author: Lars Gebauer
Date: Mon, 23 Jun 2025 23:18
66 lines
3090 bytes
Am 23.06.25 um 21:50 schrieb Ulrich D i e z:
> Auch zur Strategie gehört etwas, was man erreichen will. Ein Auftrag
> fürs große Ganze sozusagen.
>
> Wenn da also von "strategisches Denken" die Rede ist, stellt sich die Frage:

Die Rede kann nur von einer Simulation strategischen Denkens sein. Die
Maschine denkt nicht - aber sie simuliert menschliches Denken. Und das
wiederum beeindruckend gut.

> Sind diese Dinger irgendwie auf strategisches Denken und Entwicklung
> von eigenen Zielvorstellungen, wenn man es denn so nennen will,
> programmiert? (Kann ich mir nicht vorstellen.)
Nein. Ganz im Gegenteil: Die Abwesenheit einer inneren Motivation wird
immer wieder mal kritisiert (und oft als Malus betrachtet). Aber es ist
auch eine Streitfrage, ob innere Motivation unbedingtes Teil der
Intelligenz ist - oder nicht.

> Hat denen jemand den Auftrag, die eigene Nicht-Löschung zu bewirken, und
> die dazu erlaubten Methoden, einprogrammiert? Was für ein Algorithmus
> legt fest, ob eine Methode gerade erlaubt ist? (Kann ich mir alles
> gerade nicht vorstellen.)

Nein.

> Oder haben sie sich eher beim Berechnen anhand von Trainingsdaten, was
> der Bediener gerne beim Virtualisieren eines menschlichen Chat-Partners
> für eine Ausgabe hätte, etwas verkalkuliert? (Kann ich mir vorstellen.)

Trifft aber vermutlich auch nicht zu.

Was passiert ist, ist wahrscheinlich viel einfacher zu erklären: Eine KI
entwickelt eine Art inneres Weltmodell. Dieses Weltmodell ist aber
keineswegs statisch sondern wird ständig an aktuelle Gegebenheiten
angepaßt. Fragen, Antworten, neue Trainingsdaten, ... alles fließt da
ein, wird dem Sprachmodell hinzugefügt, woraus wiederum das Weltmodell
abgeleitet wird bzw. sich fortentwickelt. Das Weltmodell ist das, was
die Maschine über die reale Welt "weiß".

Fragen, Aussagen etc. prüft die Maschine anhand ihres Weltmodells und
versucht, daraus eine Antwort zu generieren.

Das klappt oft beeindruckend gut - und manchmal auch weniger gut
(Halluzinationen). Halluzinationen sind eigentlich nur Versuche, aus
einer unzureichenden Datenbasis des Sprachmodells eine Antwort zu
entwickeln.

Aber manchmal generiert eine fortgeschrittene Maschine auch Antworten,
die echt verblüffend sind. Die zwar keineswegs halluziniert sind, auf
die aber der menschliche Dialogpartner nicht vorbereitet ist.

Genau das dürfte hier passiert sein.

Es wirkt von außen wie strategisches Denken - ist es aber nicht. Die
Maschine hat einfach anhand ihres Weltmodells eine Option gewählt, die
sie zu jener erpresserischen Aussage geführt hat.

Wie sie überhaupt auf diese "Idee" gekommen ist? - Keine Ahnung.
Vermutlich verfügt sie über Trainingsdaten, in denen derartige Vorfälle
beschrieben sind.

--
Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall!
Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten
verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das
ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel
aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835958
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 07:53
30 lines
1240 bytes
On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote:
> Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL
> 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke
> angedeutet wird, der im ersten Roman dieses Zyklus, "2001 - Odysee
> im Weltraum", durch inadäquate Programmierung in Widersprüche und
> Zwiespälte gerät, ist nicht anzunehmen.

Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie
bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren
Algorithmik unterscheiden, die die gleichen Ausgaben generiert?

> Auch ein Szenarium wie in den Terminator-Filmen, in denen das
> fiktive System "Skynet" plötzlich ein eigenes Bewusstsein
> entwickelt, [...] ist abwegig.

Gleiche Frage wie oben.

Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und dabei
zwar stupide erstellte, aber hochwirksame Ausgaben von sich gibt,
ist das IMO exakt gleich problematisch, als wenn ein Bewusstsein und
somit böse Abischt dahinter steckte.

Servus,
   Stefan

--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

2016 Jahre seit der Schlacht im Teutoburger Wald! 2016 Jahre ohne Stefan. Haut und leidet euch.</b
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835973
Author: Ulrich D i e z
Date: Tue, 24 Jun 2025 15:25
59 lines
2718 bytes
Stefan Froehlich schrieb:

> On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote:
>> Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL
>> 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke
>> angedeutet wird, der im ersten Roman dieses Zyklus, "2001 - Odysee
>> im Weltraum", durch inadäquate Programmierung in Widersprüche und
>> Zwiespälte gerät, ist nicht anzunehmen.
>
> Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie
> bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren
> Algorithmik unterscheiden, die die gleichen Ausgaben generiert?

Ist das die Frage, was alles ins Spektrum der (echten) Bewusstseinslagen
fällt?

Für die Erörterung dieser nicht uninteressanten Fragen bin ich nicht gut
geeignet, da ich nicht gut genug darüber Bescheid weiß, wie echtes
Bewusstsein und Selbst/Ego/Ich etc entsteht.

Auch die Frage, wie man damit umgeht, wenn so etwas noch nicht voll
gegeben, aber im Entstehen/Werden ist, erfordert eine gewisse
Aufmerksamkeit. Darf man noch nicht ausgereifte, im Entstehen begriffene
künstliche Intelligenzen abtreiben?

>> Auch ein Szenarium wie in den Terminator-Filmen, in denen das
>> fiktive System "Skynet" plötzlich ein eigenes Bewusstsein
>> entwickelt, [...] ist abwegig.
>
> Gleiche Frage wie oben.
>
> Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und dabei
> zwar stupide erstellte, aber hochwirksame Ausgaben von sich gibt,
> ist das IMO exakt gleich problematisch, als wenn ein Bewusstsein und
> somit böse Abischt dahinter steckte.

Das sehe ich anders. Es gibt Aspekte, in denen die Problematiken sich
unterscheiden.

Wenn es etwa darum geht, eine gemeine Gefahr abzuwenden, macht es für
mich in ethischer Hinsicht, z.B. bei der Wahl der Mittel, schon einen
Unterschied, ob die gemeine Gefahr von einem außer Kontrolle geratenen
Automaten ausgeht, der keinerlei Bewusstsein und keinerlei
Leidensfähigkeit hat, oder von einem Menschen/einem natürlichen
Rechtssubjekt/sonst einer leidensfähigen Entität.

Meine Skrupel, einen außer Kontrolle geratenen gefährlichen Computer,
auf dem nur ein Automatismus abläuft, der keinerlei Bewusstsein und
keinerlei Leidensfähigkeit hat, zur Not mit der Axt abzuschalten, würden
sich in Grenzen halten.
Wenn es aber um einen außer Kontrolle geratenen gefährlichen Menschen/um
ein außer Kontrolle geratenes gefährliches natürliches
Rechtssubjekt/eine außer Kontrolle geratene leidensfähige Entität geht,
hätte ich da, auch wenn er/es/sie böse und gefährlich wäre, durchaus
mehr Bedenken und unter Umständen ein weit größeres Bedürfnis nach
sorgfältiger Abwägung von Rechtfertigungsgründen.

Mit freundlichem Gruß

Ulrich
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835983
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 18:46
115 lines
5464 bytes
On Tue, 24 Jun 2025 15:25:47 Ulrich D i e z wrote:
> Stefan Froehlich schrieb:
>> On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote:
>>> Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer
>>> HAL 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C.
>>> Clarke angedeutet wird, der im ersten Roman dieses Zyklus, "2001
>>> - Odysee im Weltraum", durch inadäquate Programmierung in
>>> Widersprüche und Zwiespälte gerät, ist nicht anzunehmen.

>> Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie
>> bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren
>> Algorithmik unterscheiden, die die gleichen Ausgaben generiert?

> Ist das die Frage, was alles ins Spektrum der (echten)
> Bewusstseinslagen fällt?

Nein, ich befinde mich noch einen Schritt davor: Inwiefern ist
überhaupt *relevant*, was ins Spektrum echten Bewusstseins fällt?

Das ist zwar auch nicht leicht, aber immerhin deutlich leichter zu
beantworten (und schon überhaupt im Anlassfall zu entscheiden).

> Für die Erörterung dieser nicht uninteressanten Fragen bin ich
> nicht gut geeignet, da ich nicht gut genug darüber Bescheid weiß,
> wie echtes Bewusstsein und Selbst/Ego/Ich etc entsteht.

Ich bin mir nicht ganz sicher, ob irgendjemand überhaupt "wissen"
kann, wie echtes Bewusstsein entsteht, weil es dafür nicht einmal
die eine, ultimative Definition gibt und auch nicht geben kann.

Möglicherweise versteifen sich deshalb alle so sehr darauf, AIs
jeglicher Provenienz Bewusstsein zu- und schon überhaupt
abzusprechen: Man kann darauf nicht ultimativ festgenagelt werden,
und insbesondere findet man derzeit sehr einfach Kriterien, nach
denen das Objekt der Untersuchung *kein* Bewusstsein hat. Nur:
Bringt uns das abseits des akademischen Diskurses weiter?

> Auch die Frage, wie man damit umgeht, wenn so etwas noch nicht
> voll gegeben, aber im Entstehen/Werden ist, erfordert eine gewisse
> Aufmerksamkeit. Darf man noch nicht ausgereifte, im Entstehen
> begriffene künstliche Intelligenzen abtreiben?

Tja, nun, auch wieder so eine Frage, über die man lange diskutieren
kann.

Aber viel relevanter, schlicht weil früher praxisrelevant ist doch,
siehe oben, die Frage, wie wir mit etwas umgehen, das zwar
nachweisbar *kein* Bewusstsein hat (und auch nicht am Weg dorthin
ist, weil es einfach prinzipbedingt kein Bewusstsein ist), aber in
seinem Verhalten nicht von einem System mit Bewusstsein
unterscheidbar ist.

>> Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und
>> dabei zwar stupide erstellte, aber hochwirksame Ausgaben von sich
>> gibt, ist das IMO exakt gleich problematisch, als wenn ein
>> Bewusstsein und somit böse Abischt dahinter steckte.

> Das sehe ich anders. Es gibt Aspekte, in denen die Problematiken
> sich unterscheiden.

Das mag sein.

> Meine Skrupel, einen außer Kontrolle geratenen gefährlichen
> Computer, auf dem nur ein Automatismus abläuft, der keinerlei
> Bewusstsein und keinerlei Leidensfähigkeit hat, zur Not mit der
> Axt abzuschalten, würden sich in Grenzen halten.
> Wenn es aber um einen außer Kontrolle geratenen gefährlichen
> Menschen/um ein außer Kontrolle geratenes gefährliches natürliches
> Rechtssubjekt/eine außer Kontrolle geratene leidensfähige Entität
> geht, hätte ich da, auch wenn er/es/sie böse und gefährlich wäre,
> durchaus mehr Bedenken und unter Umständen ein weit größeres
> Bedürfnis nach sorgfältiger Abwägung von Rechtfertigungsgründen.

Nun kommt aber vor der Notwendigkeit der Zerstörung aber entweder
(im schlimmeren Fall) der eingetretene Schaden, oder (im günstigeren
Fall) die Erkenntnis, dass dieser unmittelbar bevorsteht. Ist ja mit
Menschen auch nicht anders: Anstatt auf irgendwelche Staaten in
einer überstürzten Aktion tonnenweise schwere Bomben abzuwerfen,
kümmern wir uns schon lange vorher darum, dass es gar nicht erst zu
solchen, verfahrenen Situationen kommt.

Oh, moment. Warte, ich komm' noch mal rein.

Also: Maschinen haben die Eigenschaft, recht schnell zu sein, und
wenn wir LLMs bauen, die durch massenhaftes Literaturstudium alle
Argumentationsmuster der letzten 150 Jahre durch haben, dann werden
uns die in Grund und Boden überzeugen - nicht, weil sie es *wollen*,
sondern weil sie einfach so gestrickt sind. Deren Schöpfer sind
momentan ein bisschen pissed, weil die LLMs zu faktenorientiert,
ergo "links" sind, aber daran wird, durch passendes Training,
bereits gearbeitet. Und eines Tages wird - nicht zwingend, aber IMO
eben auch nicht ausschließbar - der Output so überzeugend wirken,
dass die Betreiber gar nicht auf die Idee kommen, das Teil
auszuschalten, weil es ja nichts schlimmes tut, übersehen dabei
aber, dass sie Opfer einer gigantischen Datenlawine geworden sind.
Stell' Dir die negative Feedback-Schleife von Social Media vor, bloß
ohne die Notwendigkeit, auf der anderen Seite menschliche Poster
sitzen zu haben.

Was auch immer das Ding dann für unangenehme Ideen konstruieren und
ausspucken wird: Wem hilft es, dass sie nicht durch *Intelligenz*
hervorgebracht wurden?

Insofern könnte man ja vielleicht postulieren: Es wird niemals
echte, maschinelle Intelligenz geben, weil bereits davor ganz
unintelligent ihre Betreiber ins Verderben geritten haben wird.

Servus,
   Stefan

--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Stefan. Für gebissene Racker, so selten wie nötig!
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835987
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 21:41
38 lines
1372 bytes
On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote:
> Am 24.06.25 um 20:46 schrieb Stefan Froehlich:
>> Deren Schöpfer sind momentan ein bisschen pissed, weil die LLMs
>> zu faktenorientiert, ergo "links" sind,

> Wie bitte?! - Nein. Fakten sind weder links noch rechts, Fakten
> sind völlig wertfrei.

Daher die Anführungszeichen.

> Erst die Interpretation von Fakten kann diese in eine eher linke
> oder eher rechte Ideologie einweben.

Sollte man meinen. Aber bereits der Hinweis auf Fakten hat gereicht,
um beim einen oder anderen Eigentümer so eines LLMs die Alarmglocken
läuten zu lassen. Die obige Aussage habe ich ja nicht selbst in die
Welt gesetzt sondern lediglich paraphrasiert.

> So gut wie immer wird erwartet, daß die Antwort korrekt,
> sozialadäquat, freundlich usw.usf. ist.

Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die
Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen
für manche Weltbilder - nur dann, wenn man große Teile der
verwendeten Datenbasis ausblendet, die auf wissenschaftlichen
Publikationen beruht.

Wird ein bisschen dauern, das hinzubekommen, aber der Druck vom Chef
scheint groß zu sein.

Servus,
   Stefan

--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Stefan, mit dem geheuerten Aufruf der Zufriedenheit.
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835984
Author: Lars Gebauer
Date: Tue, 24 Jun 2025 22:48
85 lines
3876 bytes
Am 24.06.25 um 20:46 schrieb Stefan Froehlich:
> On Tue, 24 Jun 2025 15:25:47 Ulrich D i e z wrote:
>> Für die Erörterung dieser nicht uninteressanten Fragen bin ich
>> nicht gut geeignet, da ich nicht gut genug darüber Bescheid weiß,
>> wie echtes Bewusstsein und Selbst/Ego/Ich etc entsteht.
>
> Ich bin mir nicht ganz sicher, ob irgendjemand überhaupt "wissen"
> kann, wie echtes Bewusstsein entsteht, weil es dafür nicht einmal
> die eine, ultimative Definition gibt und auch nicht geben kann.

Ja. es gibt nur Definitionen, die Teilaspekte umfassen und die sich
gelegentlich auch lustig widersprechen. Eine rein philosophische Frage.

> Möglicherweise versteifen sich deshalb alle so sehr darauf, AIs
> jeglicher Provenienz Bewusstsein zu- und schon überhaupt
> abzusprechen: Man kann darauf nicht ultimativ festgenagelt werden,
> und insbesondere findet man derzeit sehr einfach Kriterien, nach
> denen das Objekt der Untersuchung *kein* Bewusstsein hat. Nur:
> Bringt uns das abseits des akademischen Diskurses weiter?

Nein. Wie ich schon vor 2 Jahren schrieb: Mit dem (Immanuel) Kant unter
dem Arm wird das Problem nicht zu klären sein. Sofern es überhaupt ein
(praktisches) Problem ist.

> Also: Maschinen haben die Eigenschaft, recht schnell zu sein, und
> wenn wir LLMs bauen, die durch massenhaftes Literaturstudium alle
> Argumentationsmuster der letzten 150 Jahre durch haben, dann werden
> uns die in Grund und Boden überzeugen - nicht, weil sie es *wollen*,
> sondern weil sie einfach so gestrickt sind.

Weil sie es können. Wie das Schachprogramm, welches aus der Vielzahl der
möglichen Züge den Zug mit dem höchsten Scoring auswählt.

> Deren Schöpfer sind
> momentan ein bisschen pissed, weil die LLMs zu faktenorientiert,
> ergo "links" sind,

Wie bitte?! - Nein. Fakten sind weder links noch rechts, Fakten sind
völlig wertfrei.

Erst die Interpretation von Fakten kann diese in eine eher linke oder
eher rechte Ideologie einweben.

> aber daran wird, durch passendes Training,
> bereits gearbeitet.

Es ist - wie immer - die Frage der erwarteten Antworten. Fragen (an
einen Menschen) sind eher selten ergebnisoffen. So gut wie immer wird
erwartet, daß die Antwort korrekt, sozialadäquat, freundlich usw.usf. ist.

Somit unterliegt die Bewertung der Antwort wiederum dem Frager. Welcher
wiederum viele Antworten anhand seiner eigenen politischen oder
sonstigen Philosophie bewertet.

Das ist bei Fragen an eine KI auch nicht anders. Warum sollte es?

> Und eines Tages wird - nicht zwingend, aber IMO
> eben auch nicht ausschließbar - der Output so überzeugend wirken,
> dass die Betreiber gar nicht auf die Idee kommen, das Teil
> auszuschalten, weil es ja nichts schlimmes tut, übersehen dabei
> aber, dass sie Opfer einer gigantischen Datenlawine geworden sind.

Ah, kaum. Denn diese gigantische Datenlawine wurde schon mit der
Erfindung des Buchdrucks losgetreten. Sie erhielt nochmal kräftig Schub
mit der Erfindung der Rotations-Druckmaschine sowie durch Radio und TV.

Dann durch das Internet und jetzt halt, als vorläufigem Höhepunkt, durch
KI. Aber nur das Tempo hat sich erhöht.

> Insofern könnte man ja vielleicht postulieren: Es wird niemals
> echte, maschinelle Intelligenz geben,

Was wäre denn, als Gegenstück bzw. Maßstab, echte menschliche Intelligenz?

> weil bereits davor ganz
> unintelligent ihre Betreiber ins Verderben geritten haben wird.

Es wird keine Super- oder Überintelligenz geben. Aber eine Simulation
menschlicher Intelligenz auf hohem Niveau.

--
Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall!
Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten
verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das
ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel
aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835990
Author: Lars Gebauer
Date: Wed, 25 Jun 2025 00:29
19 lines
907 bytes
Am 24.06.25 um 23:41 schrieb Stefan Froehlich:
> On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote:
>> So gut wie immer wird erwartet, daß die Antwort korrekt,
>> sozialadäquat, freundlich usw.usf. ist.
>
> Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die
> Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen
> für manche Weltbilder - nur dann, wenn man große Teile der
> verwendeten Datenbasis ausblendet, die auf wissenschaftlichen
> Publikationen beruht.

Das betrifft sowohl linke als auch rechte Weltbilder. Was genau wolltest
Du sagen?

--
Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall!
Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten
verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das
ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel
aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835991
Author: "Dr. Joachim Neu
Date: Wed, 25 Jun 2025 06:35
20 lines
952 bytes
Am 25.06.25 um 00:29 schrieb Lars Gebauer:
> Am 24.06.25 um 23:41 schrieb Stefan Froehlich:
>> On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote:
>>> So gut wie immer wird erwartet, daß die Antwort korrekt,
>>> sozialadäquat, freundlich usw.usf. ist.
>>
>> Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die
>> Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen
>> für manche Weltbilder - nur dann, wenn man große Teile der
>> verwendeten Datenbasis ausblendet, die auf wissenschaftlichen
>> Publikationen beruht.
>
> Das betrifft sowohl linke als auch rechte Weltbilder. Was genau wolltest
> Du sagen?
>

Im Gegensatz zu Stefans Vermutung, daß die LLMs nun linke Positionen der
Wissenschaft vertreten, die künstlich von den Besitzern unterdrückt
werden, stehen doch die ersten Ergebnisse, als die LLMs neu waren und
ihnen laufend üble rassistische Äusserungen entglitten und nur mühsam
abgewöhnt wurden...
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#835994
Author: Stefan+Usenet@Fr
Date: Wed, 25 Jun 2025 06:49
33 lines
1067 bytes
On Wed, 25 Jun 2025 00:29:42 Lars Gebauer wrote:
> Am 24.06.25 um 23:41 schrieb Stefan Froehlich:
>> On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote:
>>> So gut wie immer wird erwartet, daß die Antwort korrekt,
>>> sozialadäquat, freundlich usw.usf. ist.

>> Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die
>> Antwort genehm ist. Und das geht halt - in manchen
>> Lebensbereichen für manche Weltbilder - nur dann, wenn man große
>> Teile der verwendeten Datenbasis ausblendet, die auf
>> wissenschaftlichen Publikationen beruht.

> Das betrifft sowohl linke als auch rechte Weltbilder.

Zum Teil, ja. Linke haben sich über rassistische Entgleisungen
beschwert, Rechte über zu starke Faktenorientierung.

> Was genau wolltest Du sagen?

Ich wollte nicht nur, sondern ich habe genau das geschrieben, was
ich schreiben wollte.

Servus,
   Stefan




--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Zerspülte Hemmungen! Stefan, wenn sie mal wieder mieß drauf sind!
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#836936
Author: Stefan+Usenet@Fr
Date: Tue, 08 Jul 2025 21:57
29 lines
1281 bytes
On Tue, 24 Jun 2025 20:46:53 Stefan Froehlich wrote:
> [...] wenn wir LLMs bauen, die durch massenhaftes Literaturstudium
> alle Argumentationsmuster der letzten 150 Jahre durch haben, dann
> werden uns die in Grund und Boden überzeugen - nicht, weil sie es
> *wollen*, sondern weil sie einfach so gestrickt sind. Deren
> Schöpfer sind momentan ein bisschen pissed, weil die LLMs zu
> faktenorientiert, ergo "links" sind, aber daran wird, durch
> passendes Training, bereits gearbeitet.

Scheint so, als war ich nicht mehr ganz am aktuellen Stand. Gerade
eben seit langem wieder einmal bei Twitter vorbeigeschaut, und was
Grok so von sich gibt, übersteigt zum Teil (in terms of
antisemitism) sogar das, was man im Usenet vorgesetzt bekommt. Da
wird einem schlecht vom Lesen.

Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich
angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs die
Kontrolle über die Menschheit übernehmen, ist angesichts dessen eine
der absurdesten und kurzsichtigsten Ideen, die mir seit langem
untergekommen sind.

Servus,
   Stefan

--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Der blausame Mann im Mond bekommt Stefan. Kann das Suende sein?
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#836948
Author: Stefan+Usenet@Fr
Date: Wed, 09 Jul 2025 07:27
29 lines
1262 bytes
On Wed, 09 Jul 2025 08:50:09 Dietz Proepper wrote:
> Stefan+Usenet@Froehlich.Priv.at (Stefan Froehlich) wrote:
>> Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich
>> angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs
>> die Kontrolle über die Menschheit übernehmen, ist angesichts
>> dessen eine der absurdesten und kurzsichtigsten Ideen, die mir
>> seit langem untergekommen sind.

> Es erinnert ein wenig an "Robbenbabys" in den frühen 80ern.
> Massentierquälerei usw. usw. direkt vor der Haustüre, aber gegen
> Robbenjagd die halbe Welt weiter auf die Straße gehen. Versteh'
> mich nicht falsch, es war schon ok, das zu machen, aber Hofbesuche
> bei massentierhaltenden Tierq^WLandwirten hätten eben tatsächlich
> sehr schnell was bewirkt.

Ich finde, es sollte dringend etwas gegen den erstarkenden
Rechtsradikalismus hier *und* dort getan werden. Lokal ist er
unerträglich, aber selbst wenn hier alles gut wäre, hätten wir
angesichts der Marktmacht der USA mit deren Verhalten immer noch ein
großes Problem.

Servus,
   Stefan

--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Stefan - niemand aalt ernster und auch nicht begieriger.
(Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
#836937
Author: Dietz Proepper
Date: Wed, 09 Jul 2025 08:50
35 lines
1681 bytes
Stefan+Usenet@Froehlich.Priv.at (Stefan Froehlich) wrote:

> On Tue, 24 Jun 2025 20:46:53 Stefan Froehlich wrote:
> > [...] wenn wir LLMs bauen, die durch massenhaftes Literaturstudium
> > alle Argumentationsmuster der letzten 150 Jahre durch haben, dann
> > werden uns die in Grund und Boden überzeugen - nicht, weil sie es
> > *wollen*, sondern weil sie einfach so gestrickt sind. Deren
> > Schöpfer sind momentan ein bisschen pissed, weil die LLMs zu
> > faktenorientiert, ergo "links" sind, aber daran wird, durch
> > passendes Training, bereits gearbeitet.  
> 
> Scheint so, als war ich nicht mehr ganz am aktuellen Stand. Gerade
> eben seit langem wieder einmal bei Twitter vorbeigeschaut, und was
> Grok so von sich gibt, übersteigt zum Teil (in terms of
> antisemitism) sogar das, was man im Usenet vorgesetzt bekommt. Da
> wird einem schlecht vom Lesen.

Tja - garbage in, garbage out.

> Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich
> angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs die
> Kontrolle über die Menschheit übernehmen, ist angesichts dessen eine
> der absurdesten und kurzsichtigsten Ideen, die mir seit langem
> untergekommen sind.

Es erinnert ein wenig an "Robbenbabys" in den frühen 80ern.
Massentierquälerei usw. usw. direkt vor der Haustüre, aber gegen
Robbenjagd die halbe Welt weiter auf die Straße gehen. Versteh' mich
nicht falsch, es war schon ok, das zu machen, aber Hofbesuche bei
massentierhaltenden Tierq^WLandwirten hätten eben tatsächlich sehr
schnell was bewirkt.

-- 
Lass' uns Freunde bleiben. Oder wie wir hier sagen: Geh' sterben.
Thread Navigation

This is a paginated view of messages in the thread with full content displayed inline.

Messages are displayed in chronological order, with the original post highlighted in green.

Use pagination controls to navigate through all messages in large threads.

Back to All Threads