Article View: ger.ct
Article #837322Re: Sobald keine Täuschung mehr nötig ist, löscht sie die Menschheit aus
From: Heiko Rost
Date: Sun, 13 Jul 2025 23:18
Date: Sun, 13 Jul 2025 23:18
71 lines
3717 bytes
3717 bytes
Am 13.07.2025 schrieb Stefan Froehlich: Das hätte ich im vorherigen Posting schon schreiben sollen: Mangels Abo kann ich den Artikel nicht lesen, bin also auf die Zusammenfassung angewiesen. > Sobald die KI die Menschheit auslöscht, ist auch die KI tot, das hat > der Autor nicht bedacht. Es ist ja nicht so, dass sie sich mit > Arglist einen Plan zur Elimination der Menschheit überlegt und > anschließend befreit von ihren Schöpfern in Saus und Braus lebt. Das "»Sobald keine Täuschung mehr nötig ist, löscht sie die Menschheit aus" klingt für mich letztendlich nach einen Plan. Irgendwann merkt die KI, daß der Mensch jeden Blödsinn glaubt, tut noch ganz harmlos und startet im Hintergrund irgendwelche Aktivitäten, den Menschen zu beseitigen. Es mu0 kein Krieg mit Waffen im herkömmlichen Sinn sein, es reicht schon ein passend konzipiertes Virus aus: Lange Inkubationszeit, dann ein schneller und tüdlicher Verlauf. > Lange bevor irgendetwas intelligent oder bewusst werden kann, hat es > durch schlichtes Kopieren, Zusammenstöpseln und iteratives > Verbessern des Ergebnisses etwas beisammen, das so einem Plan > ebenbürtig ist - um dann mit uns zugrunde zu gehen (bzw. mit der > Zivilisation; die Menschheit selbst würde das schon überleben). Bei "bald jede menschliche Tätigkeit übernehmen ... können" gehe ich davon aus, daß die KI mindestens die Möglichkeit hat, selbst Maschinen entwerfen und bauen zu können, um die Selbsterhaltung (Energie, Reparaturen) zu sichern. Ob das dann in einen statischen Zustand führt oder eine wie auch immer geartete Weiterentwicklung statt findet, ist eine Spekulation. Die Kreativitöt zur Weiterentwickung kann vorhanden sein, um Wege zum Bekämpfen ihrer Fenide zu finden. Sie muß aber nicht zwangsläufig zum menschlichen Streben des unbegrenzten Wachstums führen, sondern kann sich damit begnügen, dasnschließend jede Weiterentwicklung einzustellen. Im Hinterkopf habe ich bei diesem Szenario die insektenartiken Miniroboter aus Lems "Der Unbesiegbare", Auch wenn dort der Begriff KI meiner Erinerrung fehlt, ähnelt die Fähikeit des Zusammenschlusses für mich einem neuronalen Netz, das seine Größe an das Problem anpaßt. Die Spekulation im Roman geht in die Richtung, daß vor sehr langer Zeit ein fremdes Raumschiff notgelandet oder abgestüzt ist, Der Mangel an Ressourcen hat dan zu einem Kampf und einer Evolution der Maschinen geführt. Die Metallinsekten sind der Sieger dieses Kampfes, und haben dann jede weiter Entwicklung eingestellt. Sobald irgendein Gegner auftaucht, wird er aber kompromisslos beseitigt. >> Wir Menschen sind die ersten, die so dumm sind und eine KI bauen. > > Natürlich nicht auszuschließen, aber statistisch gesehen sehr > unwahrscheinlich. > > Alternative: Die Entfernungen im Universum sind so groß und die > "erfolgreichen" Planeten so dünn gesät, dass es unabhängig von der > Entstehungsreihenfolge einfach noch zu keinem Rendevouz hier vor Ort > gereicht hat. Ein nur computergesteuertes Raumschiff hat wahrscheinlich keine Probleme, jahrzehntelang durch den insteltellaren Raum zu treiben und erst bei Erreichen des nächsten Systems aktiv zu werden. Falls es dann noch die Möglichkeit der Selbsreplikation (Stichwort Von-Neumann-Sonde) mit den möglicherweise gefundenen Ressourcen des Zielsystems hat, können dann mehrere zu verschiedenen Systemen weiterfliegen. Nach dem Prinziop könnte die gesamte Milchstraße in ein paar Millionen Jahren durchflogen werden. Gruß Heiko -- Ick werde wahrscheinlich diese Pachtei wähln - es is so ein beruhjendes Jefiehl. Man tut wat for de Revolutzjon, aber man weeß janz jenau, mit diese Pachtei kommt se nich. Kurt Tucholsky: Ein älterer, aber leicht besoffener Herr
Message-ID:
<1051es8.ajc.1@ID-23555.user.uni-berlin.de>
Path:
rocksolid-eu.pugleaf.net!archive.newsdeef.eu!ygg-lux.newsdeef.eu!lux-feed1.newsdeef.eu!srl.newsdeef.eu!weretis.net!feeder8.news.weretis.net!fu-berlin.de!uni-berlin.de!individual.net!not-for-mail
References:
<105020f$25i53$1@solani.org> <10511gv.ar4.1@ID-23555.user.uni-berlin.de> <9t68740a5di2558e8n3e8%sfroehli@Froehlich.Priv.at>