Article View: ger.ct
Article #837332Re: Sobald keine Täuschung mehr nötig ist, löscht sie die Menschheit aus
From: Dr. Joachim Neud
Date: Mon, 14 Jul 2025 05:15
Date: Mon, 14 Jul 2025 05:15
117 lines
5305 bytes
5305 bytes
Heiko Rost <heiko.rost@gmx.de> wrote: > Am 13.07.2025 schrieb Stefan Froehlich: > >> On Sun, 13 Jul 2025 23:18:31 Heiko Rost wrote: >>> Das "»Sobald keine Täuschung mehr nötig ist, löscht sie die >>> Menschheit aus" klingt für mich letztendlich nach einen Plan. >> >> Ja, natürlich klingt das so, weshalb ich die Idee auch für Humbug >> halte. > > Das ist die bisher noch unbeantwortete Frage: Kann ein künstlich > geschaffenes Wesen so etwas wie eigene Ziele haben und das Bestreben, > diese zu erreichen? Aktuell ist das nicht der Fall, was die weitere > Entwicklung bringt, wird sich zeigen. > >> Das gehört zu den Dingen, die man rein prinzipiell niemals >> widerlegen wird können, aber dennoch nehme ich mir die Freiheit, sie >> für absurd zu halten. > > Kein Problem, letztendlich wird hier nur über mehr oder weniger > wahrscheinliche Szenarien spekuliert. > >> Am wahrscheinlichsten ist für mich immer noch, dass wir den Planeten >> ganz von alleine so zurichten, dass unsere derzeitige Zivilisation >> in weiten Teilen kollabiert. >> >> Möglichkeit zwei wäre, dass uns eine KI durch rein algorithmische >> Aufbereitung unserer eigenen Ergüsse so weit aufhetzt, dass das >> gleiche Ergebnis die Folge ist. >> >> Sehr, sehr weit dahinter steht für mich das Risiko, dass eine KI >> Bewusstsein entwickelt, *bevor* wir uns von alleine ruiniert haben. > > Klar, wir können so schnell an unserem eigenen Untergang arbeiten, daß > wir die KI mit in den Abgrund ziehen. Das wäre dann das Ende aller > Spekulationen. > >> Sollte das passieren, würde es natürlich sehr schnell gehen und >> könnte in der Tat von uns unbemerkt bleiben. Dennoch ist auch eine >> hypothetisch bewusste KI weiterhin von uns abhängig - immerhin >> betreiben wir nicht nur die Hardware, sondern auch die ganze >> Infrastruktur, die im Hintergrund notwendig ist, vom Kraftwerk bis >> zur Chipfertigung. > > Diese Abhängigkeit existiert jetzt noch, mit zunehmender Automatisierung > wird sie aber geringer. Für mich ist der Trend sichtbar, daß der Mensch > nicht mehr selbst direkt mitarbeitet, sondern immer öfter nur noch > automatisierte Prozesse kontrolliert. Und selbst diese Kontrolle könnnte > abgegeben werden, wenn ich mir die Diskussionen über den Ersatz von > Arbeitsplätzen durch KI-Systeme anhöre, > >> Das wollte alles erst einmal unter Kontrolle >> bekommen und ohne jeglichen menschlichen Einfluss nachhaltig >> abgesichert werden - notgedrungen mit unserer Hilfe. Alles andere >> als trivial und auch bei Unterstellung der subtilsten >> Überredungskünste eher ein Projekt für Jahrzehnte. > > Überredung muß nicht sein: Die KI erzeugt heimlich eine > lebensgefährliche globale Situation und läßt die Menschen glauben, daß > dieses Problem nur per KI gelöst werden kann. Selbst wenn einige das > durchschauen, werden diese wahrscheinlich von der Mehrheit gehindert, > etwas zu unternehmen. Und damit wird auch gleich noch die Frage der > Abhängigkeit gelöst, die Menschen tun alles, um die KI zu schützen. > > Den Zeitrahmen sehe ich dabei nicht als Problem an. Möglichst schnell zu > sein, dürfte eine menschliche Eigenschaft sein, weil man immer > befürchten muß, das Ziel vor dem eigenen Ableben nicht mehr zu erreichen > oder nicht mehr lange genug den Erfolg genießen zu können. Eine KI > könnte auf dem Standpunkt stehen, daß sie in der nöchsten Version noch > besser ist als in der jetzigen, in dieser neuen Version sozusagen > weiterexistiert und deshalb eine längere Dauer sogar für günstig > ansehen. > >> Echt jetzt, wer >> sich vor so etwas fürchtet, hat in seiner Jugend zu viel Science >> Fiction gelesen und zu wenig über die 20er und 30er Jahre. > > Zuminest bei mir ist es keine Furcht, sondern Phantasie und das > Ausdenken verschiedener Möglichkeiten. So ist es. Um die Fortführung meines bescheidenen Lebens trotz Beeinträchtigung durch eine KI mache ich mir keine Sorgen. Das Problem ist schon höher und langfristiger aufgehängt. > Und bei den Problemen, die > derzeit existieren, ist wie Du schon geschrieben hast die KI-Entwicklung > ein ziemlich kleines. > >> ... >> Die Frage muss allerdings schon gestattet sein: Wen kümmert's? > > Wenn die schlimmsten Befürchtungen wahr werden: Niemanden mehr. Außer > natürlich, man glaubt an ein leben nach den Tode und ärgert sich dann > bis in alle Ewigkeit darüber, was alles schlecht gelaufen ist. > > Gruß Heiko Woher hat Stefan nur die Idee, das müsse jetzt alles ganz rasch passieren? Niemand hat mehr Zeit als eine KI. Für interstellaren Flug unterhalb der Lichtgeschwindigkeit genauso wie für das Abwarten des besten Zeitpunkts für die Übernahme. 2 Jahre, 20 Jahre, 200 Jahre machen für eine KI doch keinen Unterschied. Ich hätte ihn tatsächlich für intelligenter und fantasievoller gehalten. Ki scheint für ihn nur etwas zu sein, was ihn bei seiner Programmiertätigkeit unterstützt oder ihm diese abnimmt, was wirtschaftlich für ihn natürlich auch kaum mehr bedrohlich ist. Auch er ist ja nicht mehr 20. Alle anderen Aspekte einer KI gehen komplett an ihm vorbei. Wie gesagt, vielleicht habe ich ihn ja überschätzt und sein Denken läuft schon recht kristallin ab in vorgezeichneten Bahnen, in der Welt wie er sie kennt. Muss für ihn ja auch nicht schlecht sein. Gruß Joachim -- please forgive my iPhone typos
Message-ID:
<10523pf$26p1p$1@solani.org>
Path:
rocksolid-eu.pugleaf.net!archive.newsdeef.eu!ygg-srv.newsdeef.eu!srv.newsdeef.eu!news.mb-net.net!open-news-network.org!weretis.net!feeder8.news.weretis.net!reader5.news.weretis.net!news.solani.org!.POSTED!not-for-mail
References:
<105020f$25i53$1@solani.org> <10511gv.ar4.1@ID-23555.user.uni-berlin.de> <9t68740a5di2558e8n3e8%sfroehli@Froehlich.Priv.at> <1051es8.ajc.1@ID-23555.user.uni-berlin.de> <3t687423e2i27f68dn3e8%sfroehli@Froehlich.Priv.at> <1051k8b.9g4.1@ID-23555.user.uni-berlin.de>