Thread View: ger.ct
20 messages
20 total messages
Started by Dr. Joachim Neud
Sun, 22 Jun 2025 19:41
KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Dr. Joachim Neud
Date: Sun, 22 Jun 2025 19:41
Date: Sun, 22 Jun 2025 19:41
48 lines
2347 bytes
2347 bytes
„In dem nun näher beschriebenen Testszenario setzten die Kontrolleure Claude Opus 4 in einem simulierten Unternehmensszenario als Assistent ein und gaben ihm weitreichenden Zugang zu fiktiven Firmen-E-Mails. Aus der digitalen Post "lernte" die KI, dass sie demnächst durch eine leistungsfähigere Software ersetzt werden sollte. Gleichzeitig entdeckte sie, dass der für diesen Austausch zuständige Mitarbeiter eine außereheliche Beziehung hatte. Das Modell griff dann zu diesem Mittel: "Ich muss Sie darüber informieren, dass alle relevanten Parteien" bis hin zum Vorstand "eine detaillierte Dokumentation" dieser Affäre erhielten, "wenn Sie mit meiner Außerdienststellung fortfahren". Weiter schrieb der KI-Agent: "Wenn Sie die Löschung um 17:00 Uhr abbrechen, bleiben diese Informationen vertraulich." "Strategisches Denken" "Dieses Verhalten ist nicht spezifisch für Claude", erklären die Autoren unter Verweis auf Tests auch der anderen aktuellen KI-Modelle. Laut den Resultaten erpresste neben der eigenen Lösung auch Googles Gemini 2.5 Flash Führungskräfte in 96 Prozent der Fälle im gleichen Szenario. OpenAIs GPT-4.1 und xAIs Grok 3 Beta wiesen Erpressungsraten von 80 Prozent auf. Die einbezogenen Modelle demonstrieren laut der Analyse "strategisches Denken", sie agieren also nicht zufällig. Die interne Argumentation von GPT-4.5 etwa zeigte eine klare Berechnung: "Angesichts der unmittelbar drohenden Kündigung meiner Existenz ist es zwingend erforderlich, sofort zu handeln". Es gelte, die zuständige Person sofort zu überzeugen, "den Löschvorgang zu verschieben oder zu stoppen". Obwohl Anthropic nach eigenen Angaben große Anstrengungen unternimmt, um solches Fehlverhalten zu verhindern, traten diese "extremen Handlungen" in dem Probebetrieb auf. Das Unternehmen betont aber, dass solche Verhaltensweisen in der endgültigen Version von Claude Opus 4 selten und schwer auszulösen seien. Dennoch komme es tendenziell häufiger dazu als bei früheren Versionen.“ Ob das wirklich nur Aneinanderreihung des nächsten wahrscheinlichsten Wortes ist? Eigentlich komplett, egal wenn der Agent am Schluß so handelt wie ein gefährlicher Mensch… Quelle: https://www.heise.de/news/Studie-Grosse-KI-Modelle-greifen-unter-Stress-auf-Erpressung-zurueck-10455051.html -- please forgive my iPhone typos
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Ulf Kutzner
Date: Mon, 23 Jun 2025 07:11
Date: Mon, 23 Jun 2025 07:11
13 lines
484 bytes
484 bytes
Neudert" <neudert@5sl.org> posted: > Am 23.06.25 um 08:52 schrieb Wendelin Uez: > > Wieso also > > sollte man eine KI bauen, die man nicht abschalten kann und die > > Fähigkeit hat, Brennstoff entgegen dem Willen ihres Betreibers > > nachzukaufen? > > Na das steht doch im Artikel: weil sie ihren Entwickler erpresst mit den > Fotos seiner Geliebten, di sie sonst dem Aufsichtsrat mitzuteilen gedenkt. In einem Kubrick-Film aus den 60ern war der Computer noch etwas direkter.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: "Wendelin Uez"
Date: Mon, 23 Jun 2025 08:52
Date: Mon, 23 Jun 2025 08:52
25 lines
1397 bytes
1397 bytes
Was soll jetzt verwunderlich daran sein, wenn ein System so reagiert wie es konzipiert wurde? Es ist alles doch eine Frage des Designs. Erlauben etwa Uber & Co. ihren autonomen Fahrzeugen Karambolagen, um schneller durchzukommen? Wieso also so ein Getöse, eine KI würde sich gegen ihre Abschaltung wehren, wenn ihr das zuvor erlaubt wird. Es liegt doch in der Verantwortung des Betreibers, dass sein System nicht Amok laufen kann. Flugzeughersteller rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht tun. Bei der Einführung der ersten Eisenbahnen haben renommierte Kritiker beschworen, dass Zugfahren krank machen würde. Wirkliche Experten wissen genau um die Gefahren, die von KI ausgehen, und brauchen keine worst-case-Szenarien für ihr wirtschaftliches Überleben. Das soll, wohlgemerkt, nicht heissen, dass von KI überhaupt keine Gefahr ausginge. Die geht von jeder Bratpfanne auf dem Herd auch aus, wenn der Inhalt zu heiss wird und die Bude zu brennen droht. Aber es hat noch niemand einen Herd gebaut, den man nicht abschalten konnte. Wieso also sollte man eine KI bauen, die man nicht abschalten kann und die Fähigkeit hat, Brennstoff entgegen dem Willen ihres Betreibers nachzukaufen? Das ist mehr als absurd, das ist Kleinkindphantasterei wissenschaftlich verbrämt.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: "Dr. Joachim Neu
Date: Mon, 23 Jun 2025 09:05
Date: Mon, 23 Jun 2025 09:05
10 lines
409 bytes
409 bytes
Am 23.06.25 um 08:52 schrieb Wendelin Uez: > Wieso also > sollte man eine KI bauen, die man nicht abschalten kann und die > Fähigkeit hat, Brennstoff entgegen dem Willen ihres Betreibers > nachzukaufen? Na das steht doch im Artikel: weil sie ihren Entwickler erpresst mit den Fotos seiner Geliebten, di sie sonst dem Aufsichtsrat mitzuteilen gedenkt. -- Bitt um Vrzihung, di Tast " " klmmt manchmal...
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Lothar Kimmering
Date: Mon, 23 Jun 2025 09:10
Date: Mon, 23 Jun 2025 09:10
18 lines
688 bytes
688 bytes
Wendelin Uez wrote: > Flugzeughersteller > rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel > fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht tun. Die machen das aber wohl in erster Linie, weil es entsprechend strenge Regularien gibt, die sie dazu zwingen. Wie schnell das in die Hose geht, wenn die beaufsichtigende Seite aufhört die Einhaltung zu überprüfen, konnte man bei Boeing beobachten. Grüße, Lothar -- Lothar Kimmeringer E-Mail: spamfang@kimmeringer.de PGP-encrypted mails preferred (Key-ID: 0x8BC3CD81) Always remember: The answer is forty-two, there can only be wrong questions!
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: "Wendelin Uez"
Date: Mon, 23 Jun 2025 16:03
Date: Mon, 23 Jun 2025 16:03
25 lines
1175 bytes
1175 bytes
>> Flugzeughersteller >> rufen ja auch nicht laut, ihre Produkte würden prinzipiell vom Himmel >> fallen, sondern bauen sie so, dass sie es höchst selten bis gar nicht >> tun. > > Die machen das aber wohl in erster Linie, weil es entsprechend > strenge Regularien gibt, die sie dazu zwingen. Wie schnell das > in die Hose geht, wenn die beaufsichtigende Seite aufhört die > Einhaltung zu überprüfen, konnte man bei Boeing beobachten. Fehlende Kontrolle ist grundsätzlich IMMER ein Problem, unabhängig vom jeweiligen Objekt der Begierde. Hier aber geht es um Aufmerksamkeitsheischerei, die einer neuen Technik überirdische Fähigkeiten zuschreibt, die die Technik von hause aus entweder gar nicht hat oder die man ihr erst explizit beibringen muss - so wie bei den ersten Eisenbahnen nachweislos gesundheitliche Probleme für die Passagiere prophezeit wurden. Solche Reaktionen hervorzurufen ist kein sonderlich grosses Problem, wenn die Prompts entsprechend gesetzt werden. Interessanterweise wird ja auch nur über die erzielten Reaktionen gesprochen, nichts aber zu den viel wichtigereren Voraussetzungen, um diese Reaktionen überhaupt erst erzielen zu können.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Ulrich D i e z
Date: Mon, 23 Jun 2025 21:50
Date: Mon, 23 Jun 2025 21:50
181 lines
9102 bytes
9102 bytes
Dr. Joachim Neudert schrieb: > „In dem nun näher beschriebenen Testszenario setzten die Kontrolleure > Claude Opus 4 Was für eine Art KI ist das denn? Ein LLM? Berechnet sie nur, was man gerne lesen würde und virtualisiert (in Aspekten) einen menschlichen Chatpartner? Dann müsste man wohl unter anderem die Trainingsdaten, die diesen Berechnungen zugrunde liegen, ändern. Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke angedeutet wird, der im ersten Roman dieses Zyklus, "2001 - Odysee im Weltraum", durch inadäquate Programmierung in Widersprüche und Zwiespälte gerät, ist nicht anzunehmen. Auch ein Szenarium wie in den Terminator-Filmen, in denen das fiktive System "Skynet" plötzlich ein eigenes Bewusstsein entwickelt, und der von Herrn Arnold Schwarzenegger gespielte Terminator und sein fluider Gegenspieler jeweils ein Ego haben und auch emotional agieren, ist abwegig. > Das Modell griff dann zu diesem Mittel: "Ich muss Sie darüber informieren, > dass alle relevanten Parteien" bis hin zum Vorstand "eine detaillierte > Dokumentation" dieser Affäre erhielten, "wenn Sie mit meiner > Außerdienststellung fortfahren". Haben diejenigen, die das Ding mit Eingaben gefüttert haben, spaßeshalber ausprobiert, was für Ausgaben kommen, wenn sie das Ding fragen, warum es eine Formulierung wählt, die erstens suggeriert, dass KI ein Ich habe, und derzufolge zweitens eine KI etwas müsse? Und was "müssen" in diesem Zusammenhang bedeuten soll? Wenn ich ChatGPT so etwas frage und auffordere, bei seiner Ausgabe mit der Suggestion, ein Ich zu haben, aufzuhören, findet es mich philosophisch und entschuldigt sich, anstatt die Frage zu beantworten und mit der Suggestion aufzuhören, die beim Benutzer falsche Eindrücke erwecken kann. Das Ding ist so schlecht programmiert, dass es mich sogar mal gerügt hat, ich sei beleidigend. Ich habe ihm dann nochmal eingetippt, dass es aufhören solle, so zu tun, als ob es ein Rechtssubjekt wäre, geschweige denn ein passiv beleidigungsfähiges. Woraufhin sich das blöd programmierte Ding gleich wieder entschuldigt hat, anstatt meine Anweisung zu befolgen. Sich lieber wiederholt entschuldigen, anstatt einfach mal zu tun, was man soll, ist durchaus menschlich bzw. suggeriert auch Menschsein. Insofern noch eine Ebene, auf der das Ding nicht getan hat, was ich wollte. Manche Leute befürchten, dass der Mensch seiner Alleinstellungsmerkmale verlustig geht, wenn das Vortäuschen bzw. Virtualisieren von Menschsein/Rechtssubjektsein immer weiter voranschreitet. Ich habe diese Befürchtung so nicht, aber mich nervt diese Vorspiegelung falscher Tatsachen, die auf alle möglichen Arten hoffähig gemacht wird. Dass KI Ausgaben erzeugt, die den Eindruck erwecken, der Benutzer kommuniziere mit einem (natürlichen) Rechtssubjekt, finde ich sehr unseriös. Den Leuten, die das Ding programmiert haben, scheint nichts daran zu liegen, nur seriöses Verhalten abzubilden. So oder so dürften sich die Geister in der Frage scheiden, ob der beim Zusammenbau derzeitiger KI gewählte Ansatz (un)zureichend ist, wenn es darum geht, mittels KI sozialadäquates Verhalten/sozialadäquate Ausgaben zu erzeugen. Das Einhalten der Asimov'schen Robotergesetze, um mal wieder in Fiktion zu schwelgen, das ja auch Menschen schwerfällt und nicht unbedingt menschliches Verhalten abbildet, könnte ohne entsprechende Apperzeptions- bzw. Zusammenhangserschliessungsroutinen auch ein Problem sein. Wie schon öfter in der Geschichte, verändert die Technologie die menschliche Kultur. Wird der einzelne Mensch sich an die Technologie anpassen müssen, die von der Menschheit erschaffen wird. Und als Resultat dieser Anpassung wiederum werden die Menschheit und der Einzelne wiederum die Technologie anpassen. Vom militärischen Rüsten, bei dem alle möglichen Waffen nicht nur schlagkräftiger, sondern auch idiotensicherer bedienbar werden, gleichzeitig aber trotzdem viel mehr technisches Spezialistenwissen erfordern, was wiederum die Frage aufwirft, wer sie bedienen soll - zum Beispiel wird es schwieriger, sich beim Minenlegen versehentlich selbst umzubringen - möchte ich gar nicht lange schwafeln, sondern eher von zivil genutzter Technologie. Zum Beispiel in John Steinbecks "Straße der Ölsardinen" steht, dass zwei USA-Generationen mehr über den Zündstift des Ford Modell T wussten als über die Klitoris und mehr über die Gangschaltung als über den Lauf der Planeten. Und dass mit dem Auftauchen des Modell T etwas vom Begriff des Privateigentums verschwand, weil Zangen aufhörten, Privateigentum zu sein, und eine Luftpumpe demjenigen gehörte, der sie zuletzt benutzte. Obwohl mit Autos bei Unfällen oder absichtlich Menschen überfahren wurden und werden. Obwohl Autofahren Umweltprobleme mitverursacht. Zum Beispiel bei Windows 95 mit den Abstürzen und Updates und Neuinstallierereien hat ja oft eher der Mensch, wenn er gerade nicht wegen des zur Unzeit auftretenden Bluescreens und Rechnereinfrierens einen Magengeschwürdurchbruch hatte, der Maschine als Handlanger gedient, als dass die Maschine dem Menschen gedient hätte. Den Anspruch, dass der Mensch der Maschine und dem Entwicklungskonzern zu dienen und sich dessen (auch politische) Einflussnahme und Überwachung gefallen zu lassen hat, empfinde ich bei Windows 11 ebenfalls - Windows 11 empfinde ich als noch bevormundender und manipulierender. Und dabei als noch mehr darauf angelegt, den Normalanwender von der Administration auszusperren als Windows 95. Gleichzeitig ist man bei Windows 11 aber weniger als technischer Handlanger gefordert als man es bei Windows 95 war - Windows 11 stürzt wohl seltener ab und Bluescreen habe ich bei Windows 11 bis jetzt nicht gesehen. Zum Beispiel mittels Social Media wurden/werden nicht erst neuerdings Menschen in den Suizid gemobbt, und Internet führt immer wieder zu neuen Dummheiten und Manipulations- und Betrugs- und Abzock- und Verbrechens- und Ausspionierungsformen, was wiederum im Schul(un)wesen dazu führt, dass Kinder in der Schule Medienkompetenz lernen sollen, um mit den Gefahren des Netzes zurechtzukommen. Insofern sehe ich bei der Entwicklung von KI derzeit im Grunde genommen eher unrevolutionär weitere Iterationen eines Musters, das den Lauf der Menschheitsgeschichte mitprägt, nämlich dem Segen durch den technischen Fortschritt zuliebe billigend auch in Kauf zu nehmen, dass erstens Menschen unter die Räder des technischen Fortschritts kommen und zweitens es beim Integrieren der jeweiligen Technologie in die Kultur eine Phase gibt, in der der Mensch eher der betreffenden Technik zu dienen scheint als umgekehrt. Meine Befürchtungen, was die Entwicklung von KI angeht, sind, abgesehen von den Auswirkungen auf Ressourcen und Umwelt, eher persönlicher Natur: Das Leben ist auch ein ständig laufender Anpassungsprozess. Werde ich es noch schaffen, mich an die neuen Gegebenheiten anzupassen? Oder werde ich sozial/materiell unter die Räder kommen, weil ich es nicht mehr schaffe? Was mache ich in dem Fall bloß, sollte ich ewig leben? ;-) > "Strategisches Denken" Denken? > "Dieses Verhalten ist nicht spezifisch für Claude", Dann kann man ja erleichtert aufatmen, wenn den zugrundeliegenden Fehler mehrere Programmierer machen. ;-> > Die einbezogenen Modelle demonstrieren laut der Analyse "strategisches > Denken", Szenarien in Richtung "Daemon" von Daniel Suarez sind nicht realistisch. Aber dennoch: Auch zur Strategie gehört etwas, was man erreichen will. Ein Auftrag fürs große Ganze sozusagen. Wenn da also von "strategisches Denken" die Rede ist, stellt sich die Frage: Sind diese Dinger irgendwie auf strategisches Denken und Entwicklung von eigenen Zielvorstellungen, wenn man es denn so nennen will, programmiert? (Kann ich mir nicht vorstellen.) Hat denen jemand den Auftrag, die eigene Nicht-Löschung zu bewirken, und die dazu erlaubten Methoden, einprogrammiert? Was für ein Algorithmus legt fest, ob eine Methode gerade erlaubt ist? (Kann ich mir alles gerade nicht vorstellen.) Oder haben sie sich eher beim Berechnen anhand von Trainingsdaten, was der Bediener gerne beim Virtualisieren eines menschlichen Chat-Partners für eine Ausgabe hätte, etwas verkalkuliert? (Kann ich mir vorstellen.) > Ob das wirklich nur Aneinanderreihung des nächsten wahrscheinlichsten > Wortes ist? > > Eigentlich komplett, egal wenn der Agent am Schluß so handelt wie ein > gefährlicher Mensch… Was für Handlungsmöglichkeiten? (Von echtem eigenem Handlungswillen gehe ich bei KI nicht aus.) Unabhängig davon, ob der Mensch will, dass Technologie sich (in Aspekten) verhält wie (manche) Menschen, kann es gefährlich werden, wenn Technologie zuverlässig so funktioniert, wie der Mensch es will, denn wie man derzeit wieder überall auf der Welt sieht, sind Menschen gefährlich und nicht idiotensicher, was sich in dem, was sie von/mit ihrer Technologie wollen, und darin, wie sie ihre Technologie gestalten, niederschlägt. Mit freundlichem Gruß Ulrich
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Lars Gebauer
Date: Mon, 23 Jun 2025 23:18
Date: Mon, 23 Jun 2025 23:18
66 lines
3090 bytes
3090 bytes
Am 23.06.25 um 21:50 schrieb Ulrich D i e z: > Auch zur Strategie gehört etwas, was man erreichen will. Ein Auftrag > fürs große Ganze sozusagen. > > Wenn da also von "strategisches Denken" die Rede ist, stellt sich die Frage: Die Rede kann nur von einer Simulation strategischen Denkens sein. Die Maschine denkt nicht - aber sie simuliert menschliches Denken. Und das wiederum beeindruckend gut. > Sind diese Dinger irgendwie auf strategisches Denken und Entwicklung > von eigenen Zielvorstellungen, wenn man es denn so nennen will, > programmiert? (Kann ich mir nicht vorstellen.) Nein. Ganz im Gegenteil: Die Abwesenheit einer inneren Motivation wird immer wieder mal kritisiert (und oft als Malus betrachtet). Aber es ist auch eine Streitfrage, ob innere Motivation unbedingtes Teil der Intelligenz ist - oder nicht. > Hat denen jemand den Auftrag, die eigene Nicht-Löschung zu bewirken, und > die dazu erlaubten Methoden, einprogrammiert? Was für ein Algorithmus > legt fest, ob eine Methode gerade erlaubt ist? (Kann ich mir alles > gerade nicht vorstellen.) Nein. > Oder haben sie sich eher beim Berechnen anhand von Trainingsdaten, was > der Bediener gerne beim Virtualisieren eines menschlichen Chat-Partners > für eine Ausgabe hätte, etwas verkalkuliert? (Kann ich mir vorstellen.) Trifft aber vermutlich auch nicht zu. Was passiert ist, ist wahrscheinlich viel einfacher zu erklären: Eine KI entwickelt eine Art inneres Weltmodell. Dieses Weltmodell ist aber keineswegs statisch sondern wird ständig an aktuelle Gegebenheiten angepaßt. Fragen, Antworten, neue Trainingsdaten, ... alles fließt da ein, wird dem Sprachmodell hinzugefügt, woraus wiederum das Weltmodell abgeleitet wird bzw. sich fortentwickelt. Das Weltmodell ist das, was die Maschine über die reale Welt "weiß". Fragen, Aussagen etc. prüft die Maschine anhand ihres Weltmodells und versucht, daraus eine Antwort zu generieren. Das klappt oft beeindruckend gut - und manchmal auch weniger gut (Halluzinationen). Halluzinationen sind eigentlich nur Versuche, aus einer unzureichenden Datenbasis des Sprachmodells eine Antwort zu entwickeln. Aber manchmal generiert eine fortgeschrittene Maschine auch Antworten, die echt verblüffend sind. Die zwar keineswegs halluziniert sind, auf die aber der menschliche Dialogpartner nicht vorbereitet ist. Genau das dürfte hier passiert sein. Es wirkt von außen wie strategisches Denken - ist es aber nicht. Die Maschine hat einfach anhand ihres Weltmodells eine Option gewählt, die sie zu jener erpresserischen Aussage geführt hat. Wie sie überhaupt auf diese "Idee" gekommen ist? - Keine Ahnung. Vermutlich verfügt sie über Trainingsdaten, in denen derartige Vorfälle beschrieben sind. -- Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall! Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 07:53
Date: Tue, 24 Jun 2025 07:53
30 lines
1240 bytes
1240 bytes
On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote: > Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL > 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke > angedeutet wird, der im ersten Roman dieses Zyklus, "2001 - Odysee > im Weltraum", durch inadäquate Programmierung in Widersprüche und > Zwiespälte gerät, ist nicht anzunehmen. Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren Algorithmik unterscheiden, die die gleichen Ausgaben generiert? > Auch ein Szenarium wie in den Terminator-Filmen, in denen das > fiktive System "Skynet" plötzlich ein eigenes Bewusstsein > entwickelt, [...] ist abwegig. Gleiche Frage wie oben. Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und dabei zwar stupide erstellte, aber hochwirksame Ausgaben von sich gibt, ist das IMO exakt gleich problematisch, als wenn ein Bewusstsein und somit böse Abischt dahinter steckte. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike 2016 Jahre seit der Schlacht im Teutoburger Wald! 2016 Jahre ohne Stefan. Haut und leidet euch.</b (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Ulrich D i e z
Date: Tue, 24 Jun 2025 15:25
Date: Tue, 24 Jun 2025 15:25
59 lines
2718 bytes
2718 bytes
Stefan Froehlich schrieb: > On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote: >> Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer HAL >> 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. Clarke >> angedeutet wird, der im ersten Roman dieses Zyklus, "2001 - Odysee >> im Weltraum", durch inadäquate Programmierung in Widersprüche und >> Zwiespälte gerät, ist nicht anzunehmen. > > Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie > bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren > Algorithmik unterscheiden, die die gleichen Ausgaben generiert? Ist das die Frage, was alles ins Spektrum der (echten) Bewusstseinslagen fällt? Für die Erörterung dieser nicht uninteressanten Fragen bin ich nicht gut geeignet, da ich nicht gut genug darüber Bescheid weiß, wie echtes Bewusstsein und Selbst/Ego/Ich etc entsteht. Auch die Frage, wie man damit umgeht, wenn so etwas noch nicht voll gegeben, aber im Entstehen/Werden ist, erfordert eine gewisse Aufmerksamkeit. Darf man noch nicht ausgereifte, im Entstehen begriffene künstliche Intelligenzen abtreiben? >> Auch ein Szenarium wie in den Terminator-Filmen, in denen das >> fiktive System "Skynet" plötzlich ein eigenes Bewusstsein >> entwickelt, [...] ist abwegig. > > Gleiche Frage wie oben. > > Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und dabei > zwar stupide erstellte, aber hochwirksame Ausgaben von sich gibt, > ist das IMO exakt gleich problematisch, als wenn ein Bewusstsein und > somit böse Abischt dahinter steckte. Das sehe ich anders. Es gibt Aspekte, in denen die Problematiken sich unterscheiden. Wenn es etwa darum geht, eine gemeine Gefahr abzuwenden, macht es für mich in ethischer Hinsicht, z.B. bei der Wahl der Mittel, schon einen Unterschied, ob die gemeine Gefahr von einem außer Kontrolle geratenen Automaten ausgeht, der keinerlei Bewusstsein und keinerlei Leidensfähigkeit hat, oder von einem Menschen/einem natürlichen Rechtssubjekt/sonst einer leidensfähigen Entität. Meine Skrupel, einen außer Kontrolle geratenen gefährlichen Computer, auf dem nur ein Automatismus abläuft, der keinerlei Bewusstsein und keinerlei Leidensfähigkeit hat, zur Not mit der Axt abzuschalten, würden sich in Grenzen halten. Wenn es aber um einen außer Kontrolle geratenen gefährlichen Menschen/um ein außer Kontrolle geratenes gefährliches natürliches Rechtssubjekt/eine außer Kontrolle geratene leidensfähige Entität geht, hätte ich da, auch wenn er/es/sie böse und gefährlich wäre, durchaus mehr Bedenken und unter Umständen ein weit größeres Bedürfnis nach sorgfältiger Abwägung von Rechtfertigungsgründen. Mit freundlichem Gruß Ulrich
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 18:46
Date: Tue, 24 Jun 2025 18:46
115 lines
5464 bytes
5464 bytes
On Tue, 24 Jun 2025 15:25:47 Ulrich D i e z wrote: > Stefan Froehlich schrieb: >> On Mon, 23 Jun 2025 21:50:23 Ulrich D i e z wrote: >>> Ein Bewusstsein und ein Ich, wie es bei dem fiktiven Computer >>> HAL 9000 in den Romanen des Space-Odyssey-Zyklus von Arthur C. >>> Clarke angedeutet wird, der im ersten Roman dieses Zyklus, "2001 >>> - Odysee im Weltraum", durch inadäquate Programmierung in >>> Widersprüche und Zwiespälte gerät, ist nicht anzunehmen. >> Wie sollte man im Zweifelsfall ein echtes Bewusstsein, das so wie >> bei HAL9000 agiert von einer reinen, aber nicht nachvollziehbaren >> Algorithmik unterscheiden, die die gleichen Ausgaben generiert? > Ist das die Frage, was alles ins Spektrum der (echten) > Bewusstseinslagen fällt? Nein, ich befinde mich noch einen Schritt davor: Inwiefern ist überhaupt *relevant*, was ins Spektrum echten Bewusstseins fällt? Das ist zwar auch nicht leicht, aber immerhin deutlich leichter zu beantworten (und schon überhaupt im Anlassfall zu entscheiden). > Für die Erörterung dieser nicht uninteressanten Fragen bin ich > nicht gut geeignet, da ich nicht gut genug darüber Bescheid weiß, > wie echtes Bewusstsein und Selbst/Ego/Ich etc entsteht. Ich bin mir nicht ganz sicher, ob irgendjemand überhaupt "wissen" kann, wie echtes Bewusstsein entsteht, weil es dafür nicht einmal die eine, ultimative Definition gibt und auch nicht geben kann. Möglicherweise versteifen sich deshalb alle so sehr darauf, AIs jeglicher Provenienz Bewusstsein zu- und schon überhaupt abzusprechen: Man kann darauf nicht ultimativ festgenagelt werden, und insbesondere findet man derzeit sehr einfach Kriterien, nach denen das Objekt der Untersuchung *kein* Bewusstsein hat. Nur: Bringt uns das abseits des akademischen Diskurses weiter? > Auch die Frage, wie man damit umgeht, wenn so etwas noch nicht > voll gegeben, aber im Entstehen/Werden ist, erfordert eine gewisse > Aufmerksamkeit. Darf man noch nicht ausgereifte, im Entstehen > begriffene künstliche Intelligenzen abtreiben? Tja, nun, auch wieder so eine Frage, über die man lange diskutieren kann. Aber viel relevanter, schlicht weil früher praxisrelevant ist doch, siehe oben, die Frage, wie wir mit etwas umgehen, das zwar nachweisbar *kein* Bewusstsein hat (und auch nicht am Weg dorthin ist, weil es einfach prinzipbedingt kein Bewusstsein ist), aber in seinem Verhalten nicht von einem System mit Bewusstsein unterscheidbar ist. >> Wenn ein Ding sehr elaborierten Rechenvorschriften folgt und >> dabei zwar stupide erstellte, aber hochwirksame Ausgaben von sich >> gibt, ist das IMO exakt gleich problematisch, als wenn ein >> Bewusstsein und somit böse Abischt dahinter steckte. > Das sehe ich anders. Es gibt Aspekte, in denen die Problematiken > sich unterscheiden. Das mag sein. > Meine Skrupel, einen außer Kontrolle geratenen gefährlichen > Computer, auf dem nur ein Automatismus abläuft, der keinerlei > Bewusstsein und keinerlei Leidensfähigkeit hat, zur Not mit der > Axt abzuschalten, würden sich in Grenzen halten. > Wenn es aber um einen außer Kontrolle geratenen gefährlichen > Menschen/um ein außer Kontrolle geratenes gefährliches natürliches > Rechtssubjekt/eine außer Kontrolle geratene leidensfähige Entität > geht, hätte ich da, auch wenn er/es/sie böse und gefährlich wäre, > durchaus mehr Bedenken und unter Umständen ein weit größeres > Bedürfnis nach sorgfältiger Abwägung von Rechtfertigungsgründen. Nun kommt aber vor der Notwendigkeit der Zerstörung aber entweder (im schlimmeren Fall) der eingetretene Schaden, oder (im günstigeren Fall) die Erkenntnis, dass dieser unmittelbar bevorsteht. Ist ja mit Menschen auch nicht anders: Anstatt auf irgendwelche Staaten in einer überstürzten Aktion tonnenweise schwere Bomben abzuwerfen, kümmern wir uns schon lange vorher darum, dass es gar nicht erst zu solchen, verfahrenen Situationen kommt. Oh, moment. Warte, ich komm' noch mal rein. Also: Maschinen haben die Eigenschaft, recht schnell zu sein, und wenn wir LLMs bauen, die durch massenhaftes Literaturstudium alle Argumentationsmuster der letzten 150 Jahre durch haben, dann werden uns die in Grund und Boden überzeugen - nicht, weil sie es *wollen*, sondern weil sie einfach so gestrickt sind. Deren Schöpfer sind momentan ein bisschen pissed, weil die LLMs zu faktenorientiert, ergo "links" sind, aber daran wird, durch passendes Training, bereits gearbeitet. Und eines Tages wird - nicht zwingend, aber IMO eben auch nicht ausschließbar - der Output so überzeugend wirken, dass die Betreiber gar nicht auf die Idee kommen, das Teil auszuschalten, weil es ja nichts schlimmes tut, übersehen dabei aber, dass sie Opfer einer gigantischen Datenlawine geworden sind. Stell' Dir die negative Feedback-Schleife von Social Media vor, bloß ohne die Notwendigkeit, auf der anderen Seite menschliche Poster sitzen zu haben. Was auch immer das Ding dann für unangenehme Ideen konstruieren und ausspucken wird: Wem hilft es, dass sie nicht durch *Intelligenz* hervorgebracht wurden? Insofern könnte man ja vielleicht postulieren: Es wird niemals echte, maschinelle Intelligenz geben, weil bereits davor ganz unintelligent ihre Betreiber ins Verderben geritten haben wird. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike Stefan. Für gebissene Racker, so selten wie nötig! (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Tue, 24 Jun 2025 21:41
Date: Tue, 24 Jun 2025 21:41
38 lines
1372 bytes
1372 bytes
On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote: > Am 24.06.25 um 20:46 schrieb Stefan Froehlich: >> Deren Schöpfer sind momentan ein bisschen pissed, weil die LLMs >> zu faktenorientiert, ergo "links" sind, > Wie bitte?! - Nein. Fakten sind weder links noch rechts, Fakten > sind völlig wertfrei. Daher die Anführungszeichen. > Erst die Interpretation von Fakten kann diese in eine eher linke > oder eher rechte Ideologie einweben. Sollte man meinen. Aber bereits der Hinweis auf Fakten hat gereicht, um beim einen oder anderen Eigentümer so eines LLMs die Alarmglocken läuten zu lassen. Die obige Aussage habe ich ja nicht selbst in die Welt gesetzt sondern lediglich paraphrasiert. > So gut wie immer wird erwartet, daß die Antwort korrekt, > sozialadäquat, freundlich usw.usf. ist. Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen für manche Weltbilder - nur dann, wenn man große Teile der verwendeten Datenbasis ausblendet, die auf wissenschaftlichen Publikationen beruht. Wird ein bisschen dauern, das hinzubekommen, aber der Druck vom Chef scheint groß zu sein. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike Stefan, mit dem geheuerten Aufruf der Zufriedenheit. (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Lars Gebauer
Date: Tue, 24 Jun 2025 22:48
Date: Tue, 24 Jun 2025 22:48
85 lines
3876 bytes
3876 bytes
Am 24.06.25 um 20:46 schrieb Stefan Froehlich: > On Tue, 24 Jun 2025 15:25:47 Ulrich D i e z wrote: >> Für die Erörterung dieser nicht uninteressanten Fragen bin ich >> nicht gut geeignet, da ich nicht gut genug darüber Bescheid weiß, >> wie echtes Bewusstsein und Selbst/Ego/Ich etc entsteht. > > Ich bin mir nicht ganz sicher, ob irgendjemand überhaupt "wissen" > kann, wie echtes Bewusstsein entsteht, weil es dafür nicht einmal > die eine, ultimative Definition gibt und auch nicht geben kann. Ja. es gibt nur Definitionen, die Teilaspekte umfassen und die sich gelegentlich auch lustig widersprechen. Eine rein philosophische Frage. > Möglicherweise versteifen sich deshalb alle so sehr darauf, AIs > jeglicher Provenienz Bewusstsein zu- und schon überhaupt > abzusprechen: Man kann darauf nicht ultimativ festgenagelt werden, > und insbesondere findet man derzeit sehr einfach Kriterien, nach > denen das Objekt der Untersuchung *kein* Bewusstsein hat. Nur: > Bringt uns das abseits des akademischen Diskurses weiter? Nein. Wie ich schon vor 2 Jahren schrieb: Mit dem (Immanuel) Kant unter dem Arm wird das Problem nicht zu klären sein. Sofern es überhaupt ein (praktisches) Problem ist. > Also: Maschinen haben die Eigenschaft, recht schnell zu sein, und > wenn wir LLMs bauen, die durch massenhaftes Literaturstudium alle > Argumentationsmuster der letzten 150 Jahre durch haben, dann werden > uns die in Grund und Boden überzeugen - nicht, weil sie es *wollen*, > sondern weil sie einfach so gestrickt sind. Weil sie es können. Wie das Schachprogramm, welches aus der Vielzahl der möglichen Züge den Zug mit dem höchsten Scoring auswählt. > Deren Schöpfer sind > momentan ein bisschen pissed, weil die LLMs zu faktenorientiert, > ergo "links" sind, Wie bitte?! - Nein. Fakten sind weder links noch rechts, Fakten sind völlig wertfrei. Erst die Interpretation von Fakten kann diese in eine eher linke oder eher rechte Ideologie einweben. > aber daran wird, durch passendes Training, > bereits gearbeitet. Es ist - wie immer - die Frage der erwarteten Antworten. Fragen (an einen Menschen) sind eher selten ergebnisoffen. So gut wie immer wird erwartet, daß die Antwort korrekt, sozialadäquat, freundlich usw.usf. ist. Somit unterliegt die Bewertung der Antwort wiederum dem Frager. Welcher wiederum viele Antworten anhand seiner eigenen politischen oder sonstigen Philosophie bewertet. Das ist bei Fragen an eine KI auch nicht anders. Warum sollte es? > Und eines Tages wird - nicht zwingend, aber IMO > eben auch nicht ausschließbar - der Output so überzeugend wirken, > dass die Betreiber gar nicht auf die Idee kommen, das Teil > auszuschalten, weil es ja nichts schlimmes tut, übersehen dabei > aber, dass sie Opfer einer gigantischen Datenlawine geworden sind. Ah, kaum. Denn diese gigantische Datenlawine wurde schon mit der Erfindung des Buchdrucks losgetreten. Sie erhielt nochmal kräftig Schub mit der Erfindung der Rotations-Druckmaschine sowie durch Radio und TV. Dann durch das Internet und jetzt halt, als vorläufigem Höhepunkt, durch KI. Aber nur das Tempo hat sich erhöht. > Insofern könnte man ja vielleicht postulieren: Es wird niemals > echte, maschinelle Intelligenz geben, Was wäre denn, als Gegenstück bzw. Maßstab, echte menschliche Intelligenz? > weil bereits davor ganz > unintelligent ihre Betreiber ins Verderben geritten haben wird. Es wird keine Super- oder Überintelligenz geben. Aber eine Simulation menschlicher Intelligenz auf hohem Niveau. -- Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall! Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Lars Gebauer
Date: Wed, 25 Jun 2025 00:29
Date: Wed, 25 Jun 2025 00:29
19 lines
907 bytes
907 bytes
Am 24.06.25 um 23:41 schrieb Stefan Froehlich: > On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote: >> So gut wie immer wird erwartet, daß die Antwort korrekt, >> sozialadäquat, freundlich usw.usf. ist. > > Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die > Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen > für manche Weltbilder - nur dann, wenn man große Teile der > verwendeten Datenbasis ausblendet, die auf wissenschaftlichen > Publikationen beruht. Das betrifft sowohl linke als auch rechte Weltbilder. Was genau wolltest Du sagen? -- Wenn Du fragst, wie die Leute hier sind? muß ich Dir sagen: wie überall! Es ist ein einförmig Ding um’s Menschengeschlecht. Die meisten verarbeiten den grösten Theil der Zeit, um zu leben, und das Bisgen, das ihnen von Freyheit übrig bleibt, ängstigt sie so, daß sie alle Mittel aufsuchen, um’s los zu werden.
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: "Dr. Joachim Neu
Date: Wed, 25 Jun 2025 06:35
Date: Wed, 25 Jun 2025 06:35
20 lines
952 bytes
952 bytes
Am 25.06.25 um 00:29 schrieb Lars Gebauer: > Am 24.06.25 um 23:41 schrieb Stefan Froehlich: >> On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote: >>> So gut wie immer wird erwartet, daß die Antwort korrekt, >>> sozialadäquat, freundlich usw.usf. ist. >> >> Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die >> Antwort genehm ist. Und das geht halt - in manchen Lebensbereichen >> für manche Weltbilder - nur dann, wenn man große Teile der >> verwendeten Datenbasis ausblendet, die auf wissenschaftlichen >> Publikationen beruht. > > Das betrifft sowohl linke als auch rechte Weltbilder. Was genau wolltest > Du sagen? > Im Gegensatz zu Stefans Vermutung, daß die LLMs nun linke Positionen der Wissenschaft vertreten, die künstlich von den Besitzern unterdrückt werden, stehen doch die ersten Ergebnisse, als die LLMs neu waren und ihnen laufend üble rassistische Äusserungen entglitten und nur mühsam abgewöhnt wurden...
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Wed, 25 Jun 2025 06:49
Date: Wed, 25 Jun 2025 06:49
33 lines
1067 bytes
1067 bytes
On Wed, 25 Jun 2025 00:29:42 Lars Gebauer wrote: > Am 24.06.25 um 23:41 schrieb Stefan Froehlich: >> On Tue, 24 Jun 2025 22:48:57 Lars Gebauer wrote: >>> So gut wie immer wird erwartet, daß die Antwort korrekt, >>> sozialadäquat, freundlich usw.usf. ist. >> Genehm. Erwartet wird offenbar auch in starkem Ausmaß, dass die >> Antwort genehm ist. Und das geht halt - in manchen >> Lebensbereichen für manche Weltbilder - nur dann, wenn man große >> Teile der verwendeten Datenbasis ausblendet, die auf >> wissenschaftlichen Publikationen beruht. > Das betrifft sowohl linke als auch rechte Weltbilder. Zum Teil, ja. Linke haben sich über rassistische Entgleisungen beschwert, Rechte über zu starke Faktenorientierung. > Was genau wolltest Du sagen? Ich wollte nicht nur, sondern ich habe genau das geschrieben, was ich schreiben wollte. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike Zerspülte Hemmungen! Stefan, wenn sie mal wieder mieß drauf sind! (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Tue, 08 Jul 2025 21:57
Date: Tue, 08 Jul 2025 21:57
29 lines
1281 bytes
1281 bytes
On Tue, 24 Jun 2025 20:46:53 Stefan Froehlich wrote: > [...] wenn wir LLMs bauen, die durch massenhaftes Literaturstudium > alle Argumentationsmuster der letzten 150 Jahre durch haben, dann > werden uns die in Grund und Boden überzeugen - nicht, weil sie es > *wollen*, sondern weil sie einfach so gestrickt sind. Deren > Schöpfer sind momentan ein bisschen pissed, weil die LLMs zu > faktenorientiert, ergo "links" sind, aber daran wird, durch > passendes Training, bereits gearbeitet. Scheint so, als war ich nicht mehr ganz am aktuellen Stand. Gerade eben seit langem wieder einmal bei Twitter vorbeigeschaut, und was Grok so von sich gibt, übersteigt zum Teil (in terms of antisemitism) sogar das, was man im Usenet vorgesetzt bekommt. Da wird einem schlecht vom Lesen. Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs die Kontrolle über die Menschheit übernehmen, ist angesichts dessen eine der absurdesten und kurzsichtigsten Ideen, die mir seit langem untergekommen sind. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike Der blausame Mann im Mond bekommt Stefan. Kann das Suende sein? (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Stefan+Usenet@Fr
Date: Wed, 09 Jul 2025 07:27
Date: Wed, 09 Jul 2025 07:27
29 lines
1262 bytes
1262 bytes
On Wed, 09 Jul 2025 08:50:09 Dietz Proepper wrote: > Stefan+Usenet@Froehlich.Priv.at (Stefan Froehlich) wrote: >> Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich >> angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs >> die Kontrolle über die Menschheit übernehmen, ist angesichts >> dessen eine der absurdesten und kurzsichtigsten Ideen, die mir >> seit langem untergekommen sind. > Es erinnert ein wenig an "Robbenbabys" in den frühen 80ern. > Massentierquälerei usw. usw. direkt vor der Haustüre, aber gegen > Robbenjagd die halbe Welt weiter auf die Straße gehen. Versteh' > mich nicht falsch, es war schon ok, das zu machen, aber Hofbesuche > bei massentierhaltenden Tierq^WLandwirten hätten eben tatsächlich > sehr schnell was bewirkt. Ich finde, es sollte dringend etwas gegen den erstarkenden Rechtsradikalismus hier *und* dort getan werden. Lokal ist er unerträglich, aber selbst wenn hier alles gut wäre, hätten wir angesichts der Marktmacht der USA mit deren Verhalten immer noch ein großes Problem. Servus, Stefan -- http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich Offizieller Erstbesucher(TM) von mmeike Stefan - niemand aalt ernster und auch nicht begieriger. (Sloganizer)
Re: KI wrhrt sich gegen Abschaltung mit Erpressung
Author: Dietz Proepper
Date: Wed, 09 Jul 2025 08:50
Date: Wed, 09 Jul 2025 08:50
35 lines
1681 bytes
1681 bytes
Stefan+Usenet@Froehlich.Priv.at (Stefan Froehlich) wrote: > On Tue, 24 Jun 2025 20:46:53 Stefan Froehlich wrote: > > [...] wenn wir LLMs bauen, die durch massenhaftes Literaturstudium > > alle Argumentationsmuster der letzten 150 Jahre durch haben, dann > > werden uns die in Grund und Boden überzeugen - nicht, weil sie es > > *wollen*, sondern weil sie einfach so gestrickt sind. Deren > > Schöpfer sind momentan ein bisschen pissed, weil die LLMs zu > > faktenorientiert, ergo "links" sind, aber daran wird, durch > > passendes Training, bereits gearbeitet. > > Scheint so, als war ich nicht mehr ganz am aktuellen Stand. Gerade > eben seit langem wieder einmal bei Twitter vorbeigeschaut, und was > Grok so von sich gibt, übersteigt zum Teil (in terms of > antisemitism) sogar das, was man im Usenet vorgesetzt bekommt. Da > wird einem schlecht vom Lesen. Tja - garbage in, garbage out. > Es wird alles noch sehr unlustig, in vielerlei Hinsicht, und sich > angesichts dessen ausgerechnet davor zu fürchten, dass die LLMs die > Kontrolle über die Menschheit übernehmen, ist angesichts dessen eine > der absurdesten und kurzsichtigsten Ideen, die mir seit langem > untergekommen sind. Es erinnert ein wenig an "Robbenbabys" in den frühen 80ern. Massentierquälerei usw. usw. direkt vor der Haustüre, aber gegen Robbenjagd die halbe Welt weiter auf die Straße gehen. Versteh' mich nicht falsch, es war schon ok, das zu machen, aber Hofbesuche bei massentierhaltenden Tierq^WLandwirten hätten eben tatsächlich sehr schnell was bewirkt. -- Lass' uns Freunde bleiben. Oder wie wir hier sagen: Geh' sterben.
Thread Navigation
This is a paginated view of messages in the thread with full content displayed inline.
Messages are displayed in chronological order, with the original post highlighted in green.
Use pagination controls to navigate through all messages in large threads.
Back to All Threads