🚀 go-pugleaf

RetroBBS NetNews Server

Inspired by RockSolid Light RIP Retro Guy

Article View: de.sci.electronics
Article #622009

Re: Ein Ryckschlag nach dem anderen beim Autonomen Fahren

#622009
From: Helmut Schellong
Date: Sat, 03 May 2025 18:35
509 lines
29844 bytes
Helmut Schellong wrote on 15.03.2024 20:16:
> Carla Schneider wrote:
>> Helmut Schellong wrote:
>>>
>>> Carla Schneider wrote:
>>>> Helmut Schellong wrote:
>>>>>
>>>>> Handelsblatt:
>>>>> |Abschied nach einem Jahrzehnt ? Apple beerdigt Autopläne
>>>>> |
>>>>> |Definitiv bekannt war nur, dass Apple zu selbstfahrenden Fahrzeugen umgebaute Testwagen
>>>>> |im Silicon Valley auf die Straße schickte.
>>>>> |
>>>>> |Zum Verhängnis geworden sind dem Projekt laut Bloomberg zwei Probleme:
>>>>> }o  Das angestrebte vollautonome Fahren auf Level vier (dabei kann das Fahrzeug auf bestimmten Strecken
>>>>> |   ganz ohne Fahrer unterwegs sein) habe sich nicht wie geplant umsetzen lassen.
>>>>> |o  Bei einem angepeilten Verkaufspreis von unter 100.000 Euro erschien dem Management
>>>>> |   die Marge im Vergleich zu anderen Apple-Produkten als zu gering.
>>>>>
>>>>> Man beachte: Bereits Level 4 ließ sich nicht umsetzen.
>>>>
>>>> Es hat sich nicht wie geplant umsetzen lassen.
>>>
>>> Ja, ich hatte schließlich auf den Satzteil "... wie geplant ..." hingewiesen.
>>
>> Fakt ist ja dass solche Level 4 Fahrzeuge seit Jahren unterwegs sind, in
>> ihren begrenzten Gebieten. Waymo weitet das dieses Jahr aus:
>> https://www.siliconrepublic.com/machines/waymo-robotaxi-self-driving-la-los-angeles-austin
> 
> Ja, wir hatten uns ziemlich intensiv mit Werte-Tabellen beschäftigt.
> 
> Was genau Apple bewogen hat auszusteigen, ist unbekannt.
> Bekannt sind nur Spekulationen.
> 
> Fakten sind allerdings:
> Daß Bosch sich zurückgezogen hat, und daß später vom CEO zu hören war,
> daß das E-Auto noch Jahrzehnte (!) benötigen würde.
> Daß Mercedes das E-Auto weit in die Zukunft geschoben hat.
> Daß das wichtigste deutsche KI-StartUp kürzlich zerbrochen ist.
> Etc.
> 
>>>> Tatsaechlich sind die Autos ja Level 4 gefahren in San Francisco.
>>>> Aber offenbar hatten sie mehr geplant in der Zeit.
>>>> Wesentlicher scheint mir der zweite Grund zu sein, sie glauben dass es sich
>>>> fuer sie oekonomisch nicht rechnet, weil sich ihre Investitionen anderswo
>>>> besser rentieren.
>>>> Das war vorhersehbar, Autos sind was anderes als Computer.
>>>> Apples Vorteil waere gewesen dass sie Geld ohne Ende haben,
>>>> und damit die Moeglichkeit bei denen zu sein die am Ende uebrig bleiben
>>>> beim Rennen ums autonome Fahrzeug.
>>>
>>> Die letzten vier Zeilen habe ich auch so im Kopf.
>>> Scheiß Marge - egal.
>>> Wer als der Erste Level 4 uneingeschränkt erreicht, hat einen fetten Meilenstein erreicht.
>>> Einfach mit Geld aussitzen.
>>>
>>> Als Putin die Ukraine angriff, sagte ich spontan: Der Westen hat 100-mal mehr Geld.
>>> Also einfach aussitzen...
>>
>> Da hat man sich aber bei der Laenge des Aussitzens etwas verschaetzt. Die Vorraete an Waffen
>> und Munition des Westens waren eben doch begrenzt und Geld ist zwar notwenig aber man muss
>> es auch ausgeben fuer die richtigen Dinge.
> 
> Ja, genau das ist es, was Erfolge hindert.
> Ich habe das Gefühl, daß es sein könnte, daß man die Ukraine absichtlich
> nur soweit unterstützt, daß sie sich gerade so halten kann.
> 
> Will man die westlichen Waffen einem realen Langzeittest unterziehen?
> Es kristallisiert sich allmählich heraus, daß Deutschland als einziger signifikanter
> Waffenunterstützer verbleibt.
> 
> Zum D-Day hatten die USA und UK 6000 Kriegsschiffe aufgeboten!
> Die hatten in Windeseile auf Kriegswirtschaft umgestellt.
> 
> Als ich bei der BW war, waren 520000 Soldaten dort und etwa 500000 Beschäftigte
> in der Rüstungsindustrie.
> Heute sind 180000 Soldaten dort und etwa 50000 Beschäftigte in der Rüstungsindustrie.
> 
> CEO Papperger hatte vor etwa einem Jahr vorgeschlagen, in der Ukraine eine Panzerfabrik
> für den überlegenen Panther zu errichten, um dort pro Jahr 600 Panther zu bauen.
> Den Schutz der Fabrik wollte Rheinmetall selbst übernehmen.
> Warum ist davon nichts zu hören?
> Warum kauft DE keinerlei Panther?
> 
> Deutschland meldete, das NATO-Ziel 2% erreicht zu haben.
> Von Stoltenberg las ich vorgestern, daß DE mitnichten 2% erreicht hat, sondern 1,6%.
> 
> Das Sondervermögen der Bundeswehr soll die BW ausrüsten.
> Das 2%-Ziel sollte _gar nicht_ aus diesem Sondervermögen besorgt, sondern dem
> normalen Wehretat entnommen werden, so hatte es der Kanzler versprochen.
> Irgendwie scheint mir, diese Zusage ist bereits zerbrochen.
> 
>> Was die Autos betrifft ist hier die Frage ob die Autohersteller das selbstfahrende Auto entwickeln
>> sollen, oder ob sie wenn die Technik mal so weit ist bei Google einkaufen sollen...
> 
> Ich habe keinerlei Wissen aus den beteiligten Unternehmen, so daß ich keinen Ausblick geben kann.
> Es wäre allerdings schlimm, falls es später nur _eine_ zentrale Lösung geben sollte.
> Das widerspräche total dem Kartell-Schutz.
> 
>>>>> Ich sagte all dies bereits vor Jahren voraus.
>>>>> Realistisch bleiben nach wie vor einzig die Einschätzungen des MIT, die ich
>>>>> vor Jahren mitteilte, die jedoch hier eher nur von mir geteilt wurden.
>>>>>
>>>>> Ich hatte damals erkannt, wie extrem komplex die Angelegenheit ist.
>>>>> Gleiches gilt auch für KI - weshalb es bisher auch keine wirkliche KI gibt.
>>>>
>>>> Schon moeglich, aber die unwirkliche KI kann man bereits fuer allerlei
>>>> nuetzliches verwenden und das wird in den naechsten Jahren viel veraendern.
>>>
>>> Ja, meine Benutzung von ChatGPT als alternative Suchmaschine (mehr Komfort) hatte ich hier geschildert.
>>> Wurde hier allerdings heftig attackiert (Google pur sei viel besser).
>>
>> Das ging ja nur wenn man nichts akutelles sucht.
> 
> Aktuell wurde ja ChatGPT benutzt, um zu demonstrieren, daß ChatGPT versagt (hat).
> Es hat allerdings nicht versagt, sondern ChatGPT hat durch seine Antwort demonstriert, daß
> es stockdoof ist und nicht den kleinsten Funken an Intelligenz besitzt.
> 
> Wenn ChatGPT irgendwo auf der Welt eine Aussage in Verbindung mit einem Objekt findet, generiert
> ChatGPT eine Antwort, die suggeriert, als ob dieser Zusammenhang weltweit bei jedem existierenden
> Objekt dieser Art zutrifft.
> ChatGPT ist folglich vollkommen inkompetent, eine korrekte Einschätzung abzugeben, weil
> es total stumpf nach Pattern-Matching vorgeht.
> 
>>> Im Film 'Ghost in the Shell' gab es ein menschliches Gehirn in einem Roboterkörper, um
>>> eine übermenschliche Kämpferin zu erschaffen.
>>> Man fragt sich unwillkürlich, warum kein Robotergehirn in einem Roboterkörper?
>>> Ist die gezeigte Kombination vielleicht haushoch überlegen?
>>
>> Die Geschichte ist von 1989, da konnte man sich ein
>> vernuenftiges Robotergehirn noch nicht vorstellen.
>>
>>>
>>> Vielleicht hat sogar das MIT den Zeitbedarf unterschätzt?
> 
> Ich meine damit, daß ich es für möglich halte, daß das Ziel
> frühestens z.B. 2070 erreicht werden kann.

Ich habe Nachschau gehalten zu den Themen Level5-Auto und KI.
In diesem Zusammenhang drängte sich mir ein Artikel von Prof. Dr. Ralf Otte auf.
Er schreibt z.B., daß ein Level5-Auto überhaupt nicht machbar ist!  (s.u.)
Er begründet auch alle seine Meinungen, die er aussagt.

--- Dr. Ralf Otte ist Professor für Industrieauto­matisierung und Künstliche Intelligenz
--- an der Technischen Hochschule Ulm.

Ich stimme mit ihm ziemlich umfangreich überein.
So sehe ich viele von meinen Gedanken zu den beiden Themen in seinem nachfolgenden Artikel.
Auch die realen Fakten zu diesen Themen stehen dazu passend im Raum.

========================================================================================================
Das Ende der KI-Illusion
Artikel von Ralf Otte

Nein, soweit wie das Gehirn sind die Computer noch lange nicht. ©dpa

Nach ungefähr zwei Jahren eines regelrechten KI-Hypes stellt sich beginnende
Ernüchterung ein.
Sowohl Entscheider als auch das Publikum bemerken, dass viele der versprochenen KI-Produkte
doch nicht so schnell auf den Markt gelangen.
Der Autor wird an dieser Stelle noch weitergehen und die These aufstellen, dass fast
keine der hochfliegenden Ankündigungen jemals umgesetzt werden.
In den nächsten Jahren werden wir zwar weiterhin von zahlreichen erfolgreichen
Fallbeispielen (Use Cases) hören und von KI-Heilsversprechungen aller Art, wie
zum Beispiel, dass die KI helfen könnte, den Kampf gegen Krebs zu gewinnen, den Welthunger
zu besiegen oder die Anzahl der Verkehrstoten drastisch zu senken.
Aber keines dieser Versprechen wird wahrscheinlich wahr werden.
Doch trotz der zahlreichen Unzulänglichkeiten der Künstlichen Intelligenz
ist sie riskanter denn je, denn die KI wird das Leben aller Menschen stark beeinflussen.

Um KI besser zu verstehen, hilft eine mögliche Taxonomie von Intelligenzstufen, die
folgendermaßen definiert sein könnten:
           Deduktion (Stufe 1),
           Induktion (Stufe 2),
           Kognition (Stufe 3),
           Wahrnehmung und Bewusstsein (Stufe 4),
           Selbstwahrnehmungsintelligenz (Stufe 5),
           Gefühlsintelligenz (Stufe 6),
           Willensintelligenz (Stufe 7),
           menschliche Intelligenz der Selbstreflexion (Stufe 8).
Anhand dieser Aufstellung wird deutlich, dass sich die heutige KI – trotz ihrer hohen
„rationalen“ Intelligenz – auf einer recht geringen Intelligenzstufe befindet
(Stufe 2 bis 3), jedenfalls verglichen mit der Intelligenz des Menschen.
Der Grund dafür hat es in sich: Heutige KI ist eine rein mathematische KI, die als
Softwarealgorithmus auf einem Computer implementiert wird.
Das schafft zwar große Vorteile, da die Implementierung meist recht einfach ist.
Aber eine rein mathematische Umsetzung von Intelligenz hat eben auch gravierende Nachteile.
Denn die Grenzen der Mathematik selbst sind damit zwangsläufig auch die Grenzen
jedweder KI.
Im menschlichen Gehirn laufen keinerlei mathematische Prozesse ab, dort existieren
neuronale Netze, mit ihren physikalischen, chemischen und biologischen Eigenschaften, und
genau dieser Unterschied ist entscheidend für die riesigen Intelligenzunterschiede
zwischen Mensch und Maschine.

Betrachten wir mit dieser Vorabeinschätzung das maschinelle Lernen etwas näher:
Eine wichtige Säule der heutigen KI sind künstliche neuronale Netze (KNN), die man
beispielsweise als einfache sogenannte Backpropagation-Netze oder Deep-Learning-Netze
ausführt.
Damit bezeichnen Fachleute jene auf Computern existierenden mathematischen Simulationen,
von denen Fachleute glauben, dass ungefähr so die Informationsverarbeitung des Gehirns
modelliert werden kann.
Diese Art der Modellierung ist sogar überaus erfolgreich.
Wir besitzen mit den KNN sogenannte universelle Approximatoren, und der Anwendungsnutzen
ist enorm.
Weiß man beispielsweise, dass der zu beschreibende Zusammenhang durch eine stetige Funktion
dargestellt werden kann, wobei man die Funktion gar nicht kennen muss, kann ein KNN
verwendet werden, welches diesen Zusammenhang anhand von Daten beliebig genau approximiert.

Wir haben mit unseren Computern schon universelle Rechenmaschinen, nun besitzen wir auch
noch eine universelle Lernmaschine.
Auch haben wir mit sogenannten neuronalen Faltungsnetzen (CNN) nahezu universelle
Bildverarbeitungsmaschinen und mit den großen Sprachmodellen (LLM-Modelle) nahezu
universelle Sprachverarbeitungsmaschinen.
Es ist daher kein Wunder, dass mit vielen Menschen die Phantasie durchgeht, dass sie
die KI-Technologie bewundern oder fürchten.

Um die KI für die Praktiker realistischer einzuordnen, wollen wir uns nun einer Typisierung
der Machbarkeit zuwenden:
Die erste Gruppe beschreibt Probleme, die mit KI gut lösbar sind, die zweite Gruppe
Probleme, die mittels KI nur schwer lösbar sind, und die dritte Gruppe beinhaltet alle
Aufgabenstellungen, die man mittels KI gar nicht lösen kann – und zwar prinzipiell nicht.
Enorme Summen ließen sich einsparen, wenn zu Beginn aller KI-Projekte klar wäre, zu welcher
Kategorie das zu bearbeitende Problem gehört.
Hier drei Beispiele, um dies zu verdeutlichen: Die KI-Optimierung des Einkaufes
einer Firma durch die Analyse aller bisherigen Einkaufstransaktionen dieser Firma
zählt zur ersten Gruppe.
Die automatisierte KI-Steuerung eines Kraftwerkes zählt zur zweiten Gruppe.
Den Straßenverkehr in Deutschland durch den Einsatz von KI-Autos vollständig vollautonom
durchzuführen gehört in die Gruppe der prinzipiell unlösbaren Aufgaben.

Damit kommen wir abermals zum maschinellen Lernen (ML), der heutigen KI-Königsdisziplin.
Wir zählen alle ML-Verfahren zur induktiven KI (dies entspricht in obiger Taxonomie
der Intelligenzstufe 2).
Maschinelles Lernen bedeutet also Lernen aus Daten – das Analogon beim Menschen wäre
das Lernen aus Erfahrung.
Nun gibt es endlos viele Daten in der Welt, wir sprechen von Zettabyte oder gar Yottabyte.
Haben wir also genug Daten, um alles zu lernen, was wir lernen wollen?
Und wenn wir genug Daten hätten, können wir dann alles lernen, was wir lernen möchten?

Gravierende Anwendungsfehler bei Daten

Die Antwort ist ein klares Nein.
Kein Mensch würde mit KI die Lottozahlen vom nächsten Samstag vorhersagen wollen, obwohl
die Daten der Ziehungen der letzten Jahrzehnte vorliegen.
Warum nicht? Weil jeder (intuitiv) weiß, dass es keinen Zusammenhang zwischen
den Lottoziehungen der Vergangenheit und der Lottoziehung am kommenden Samstag gibt.
Gelernt werden können jedoch nur eindeutige Funktionen, manche Funktionsklassen jedoch
extrem genau, wie das nach dem amerikanischen Wissenschaftler George V.
Cybenko benannte Cybenko-Theorem aussagt.
Cybenko zeigte schon im Jahr 1989, dass mit bestimmten neuronalen Netzen stetige Funktionen
sogar beliebig genau nachbildbar sind.
Stetige Funktion sind dabei Funktionen, die man vereinfacht gesagt mit einem Stift
durchzeichnen kann, ohne diesen abzusetzen, also Funktionen ohne Lücken und Sprünge.

Wenn es um die Lottozahlen geht, dann liegt eine solche Funktion nicht vor.
Darf ein solcher Zusammenhang aus guten Gründen aber vermutet werden – insbesondere
in industriellen Prozessen ist das meist gegeben –, so ist eine Approximation
theoretisch gut möglich.
Allerdings muss nun die vorhandene Datenlandschaft ganz genau überprüft werden.
Denn schließlich müssen die Daten die unbekannte, aber durch die KI zu lernende Funktion
abbilden können. Hier gibt es leider erhebliche Probleme in der Praxis, denn die Daten
für die KI müssen repräsentativ, rückverfolgbar, reproduzierbar und ausreichend vorhanden
sein.  Manchmal liegen solche Daten vor. Oft leider nicht.
Unerfahrene KI-Projektleiter merken häufig erst am Schluss, dass die Daten, auf denen
das gesamte Projekt aufbaut, eben doch nicht repräsentativ waren.
Hier passieren ständig gravierende Anwendungsfehler.

Wurde die KI auf nicht repräsentativen Daten trainiert, können die Ausgaben der KI
im Anwendungsfall natürlich völlig falsch sein.
Lernende KI-Verfahren sollten daher nicht im Extrapolationsraum betrieben werden, also
nicht in Datenräumen, in denen vorab keine Lerndaten vorlagen. Ein Beispiel:
Trainiert man eine KI im Lerndatenbereich von 0 bis 100 darauf, Quadratzahlen
zu addieren, so kann die KI die Addition später im gesamten Lerndatenraum von 0 bis 100
korrekt ausführen, selbstverständlich auch für nicht eintrainierte Beispiele.
Fragt man aber nach der Addition zweier Quadratzahlen im Bereich um die 1000, werden
die Ergebnisse der KI falsch sein; sie wird leider „halluzinieren“. Warum?
Weil der Extrapolationsbereich von 1000 viel zu weit vom vorab gelernten
Interpolationsbereich zwischen 0 und 100 entfernt ist.
Man sollte meinen, solche Fehler passieren nicht.
Doch selbst dort, wo die professionellsten KI-Anwendungen zu erwarten wären, im Militär,
werden solche Fehler gemacht – erwähnt sei der mutmaßliche Einsatz der KI im Gazakrieg
(Operation Lavender).

Fehlende technische Aufklärung

Oder denken wir an das autonome Fahren und die Unfälle, die solche Fahrzeuge erzeugen, weil
sie auf Situationen treffen, die fernab von gelernten Zuständen liegen.
Leider weiß man oft gar nicht, was für Zustände in der Anwendungsphase auftreten
könnten, wodurch KI-Systeme sehr häufig, aber unbekannterweise im Extrapolationsraum
angewendet werden.
Verkehrsunfälle, zerstörte Maschinen, fehlerhafte Börsenvorhersagen können und werden
die Folge sein.
Oder das KI-System „halluziniert“ – eine höfliche Umschreibung für „völlig falsche“
Aussagen.
Kein Ingenieur würde ein Bremssystem auf den Markt bringen, das ab und zu halluziniert.
Wenn es indes um KI geht, scheint man viele einstmals gute ingenieursmäßige Standards
wieder vergessen zu haben.
Zu groß ist die Illusion, die Hollywood und die großen Techkonzerne erzeugen, zu blauäugig
sind Manager oder Politiker.
Das liegt aber nicht an den Entscheidern selbst, sondern an fehlender technischer Aufklärung.

Ein kurzer Zwischenstand: Aufgabenstellungen, die durch eine unbekannte, jedoch implizit
vorhandene Funktion (Abbildung) beschrieben werden können und bei denen die gegebene
Datenlandschaft diese Abbildung repräsentiert, sind sehr gut mit KI zu lösen.
Beispiele sind nahezu alle Prozesse in den Unternehmen, vom Einkauf, Verkauf über die
Produktion, den Service und die Entwicklung.
Schwer (bis gar nicht) zu lösen sind hingegen Probleme, bei denen die spätere Anwendung
im Extrapolationsraum liegen wird.

Allerdings gibt es für diese Probleme Lösungsstrategien.
Eine wichtige liegt darin, dass die KI wenigstens mitteilt, wenn ihr Ergebnis unsicher ist.
Das ist technisch sogar trivial lösbar:
Erstens ist bekannt, wie weit man vom Lerndatenraum entfernt ist – es gibt immer eine Metrik.
Zweitens setzt man bei derartigen Befürchtungen stets mehrere KI-Verfahren
in Konkurrenz zueinander ein.

Warum wird diese Art von Qualitätssicherung dann nicht gemacht?
Weil den Einkäufern in den Unternehmen eine Illusion verkauft wird.
Es wird so getan, als wäre KI eine Art Kunst, die ein zwar undurchschaubares, aber
garantiert sicheres Werkzeug hervorbringt.
Doch so ist es nicht. KI-Projekte müssen deshalb besser umgesetzt beziehungsweise
schon besser eingekauft werden:
Zwingen die Einkäufer die KI-Anbieter endlich dazu, dass jene ihre (im Use Case) zugesagten
Ergebnisse garantieren, was machbar ist, zwingen sie die KI-Anbieter zusätzlich
zu Güteangaben ihrer KI-Modelle und zum Bau einer KI, die jederzeit selbst mitteilt, wenn
ihre Ergebnisse nicht genutzt werden dürfen, dann bekommt man gutes technisches KI-Handwerk
ausgeliefert.
Jedenfalls für den Fall, dass das Problem mit KI überhaupt lösbar ist.

Nun sind aber nicht alle Aufgaben mittels KI lösbar.
Für den Anwender ist es deshalb wichtig, die unlösbaren Problemstellungen zu kennen.
Dafür seien kurz grundsätzliche Restriktionen erläutert.

1. Das Problem der Semantik: KI versteht nicht, was sie tut.
Dieser Punkt ist insbesondere für Anwender der generativen KI wichtig, denn selbst die
ausgeklügelt klingenden Antworten eines Chatbots sind immer nur rein syntaktischer Natur.
Nichts davon wird durch die KI verstanden – heute nicht und morgen auch nicht.

2. Das Problem der Deduktion: KI kann eine gewisse Komplexität
nicht automatisiert bearbeiten.

3. Das Problem der Induktion: KI kann das Lernproblem nicht lösen.
Dies bedeutet, wie oben schon angedeutet, dass es nicht möglich ist, außer
in Trivialfällen, die KI im besagten Extrapolationsraum einzusetzen.

4. Das Problem des Bewusstseins: KI kann die Umgebung nicht wahrnehmen.
Dieser Punkt deutet an, dass alle heutigen Systeme des maschinellen Sehens keine wirklichen
Wahrnehmungen besitzen, sondern immer nur Simulationen von Sehprozessen sind.
Viele Anwender denken, dass es ausreicht, das Sehen digital zu simulieren, da es bisher auch
ausreichte, das menschliche Denken und Lernen digital (mathematisch) zu simulieren – einfach
weil die Ergebnisse der KI dort überzeugend sind.
Aber beim Sehen bemerkt man die Grenzen der Simulation, insbesondere im anlogen Umfeld.

5. Das Problem der Gefühle: KI kann keine Gefühle ausprägen.
6. Das Problem des Willens: KI kann keine Willensprozesse ausprägen.

Die Punkte 5. und 6. sind eigentlich nicht als Mangel einer technischen KI anzusehen, denn
für heutige Anwendungen sind keine Systeme mit Gefühls- oder gar Willensprozessen nötig.

Keine Aussicht auf vollautonomen Straßenverkehr in Deutschland

Diese Bemerkungen sind übrigens nicht rein akademischer Natur.
Die genannten Grenzen führen beispielsweise dazu, dass selbst in zehn oder 20 Jahren
immer noch keine Roboter in unserem (chaotischen) Haushalt einsetzbar sein werden.
Oder salopp formuliert: Den Kaffee müssen wir uns im Jahr 2040 immer noch selbst holen, so
merkwürdig das für viele klingen mag, weil die KI heute scheinbar ständig von einem Erfolg
zum nächsten gelangt – ja, aber eben nur in digitalen Umgebungen, nicht in analogen.
Den Kaffee wird ein Roboter also nur dann holen, wenn wir unseren Haushalt zu einer Art
digitaler Fabrik umbauen und an jeder Ecke digitale Sensoren einbauen.
Doch wer wollte das schon?

Kommen wir zu einem weiteren, wichtigen Sachverhalt für die Praxis.
Die in Punkt 2. angesprochene nicht überwindbare Komplexitätsgrenze der KI hat
großen Einfluss auf das autonome Fahren.
Es kann vorausgesagt werden, dass es niemals möglich sein wird, den gesamten Straßenverkehr
in Deutschland vollautonom abzuwickeln, weil die Komplexität der Interaktionen
im Straßenverkehr der Komplexität der sogenannten Prädikatenlogik entspricht.
Für die Prädikatenlogik – eine von mehreren Logiksystemen – wurde mathematisch
jedoch exakt bewiesen, dass logische Entscheidungsprozesse unendlich lange dauern können
oder gar zu widersprüchlichen Aussagen führen, die innerhalb des Systems
selbst nicht auflösbar sind.

Man braucht solche Versuche daher auch gar nicht zu starten, denn mathematische Beweise
sind für die heutige KI zwingend, da sie eine mathematische KI ist.
Mit demselben Argument ist schon jetzt festgelegt, dass die KI niemals zur automatisierten
Rechtsprechung eingesetzt werden darf, denn auch das Bürgerliche Gesetzbuch entspricht
der Komplexität der Prädikatenlogik.
Zur Einordnung: Jeder (erwachsene) Mensch wendet verschiedene Logiksysteme intuitiv an.
Ein Beispiel: In der Aussagenlogik wird die Aussage „dieser Frosch ist grün“ einfach
durch hinschauen überprüft.
In der mächtigeren Prädikatenlogik lässt sich die universellere Aussage
„alle Frösche sind grün“ nicht mehr so einfach prüfen.
Aber es hilft ein einziger Frosch, der nicht grün ist, um die Aussage durch Gegenbeweis
wenigstens zu falsifizieren.

Für die KI ist der Umgang mit der Prädikatenlogik schwierig.
Insbesondere die sogenannte Prädikatenlogik 2. Ordnung mit Aussagen wie
„Frösche können alle Farben haben“ stellt die mathematische KI vor erhebliche Probleme.
Denn laut dem berühmten Logiker Kurt Gödel gibt es wie oben ausgeführt in allen
hinreichend starken Systemen (und dazu zählt die Prädikatenlogik 2. Ordnung) zwingend
Aussagen, die sich formal weder beweisen noch widerlegen lassen.
Das trifft die KI mit voller Wucht, denn es verhindert prinzipiell zahlreiche
geplante KI-Anwendungen, wie die erwähnten voll automatisierten Gerichtsentscheide.
Recht kann nur ein menschlicher Richter sprechen, für den die obige Komplexitätsgrenze
nämlich nicht gilt, da er auch mit nicht formalen Beweisen arbeiten kann.
Anwälte und Richter könnten KI zur Beweissichtung oder mittels Chatbots zur Argumentation
verwenden, das ist möglich, nicht aber für die automatisierte Rechtsprechung selbst.

KI ist sehr riskant geworden

Es gibt viele weitere Fälle, in denen der Einsatz von KI aus Komplexitätsgründen versagt.
KI kann Code generieren und Code über Code, aber immer nur bis zu einer gewissen Grenze.
Es kann nicht passieren, dass sich eine KI immer weiter selbst optimiert und repariert, denn
sobald diese Aufgabenstellung die Komplexität der Prädikatenlogik erreicht, kommt es
zu inneren Widersprüchen und damit zum Stillstand.
Systeme, die ihre eignen Baupläne enthalten, kommen zwingend in unbeweisbare Zustände, das
ergibt sich abermals aus dem erwähnten Unvollständigkeitssatz des besagten Kurt Gödel.
Daher nochmals: Alle mathematischen Systeme unterliegen derartigen Restriktionen.
Niemals können heutige, mathematikbasierte KI-Maschinen die Menschheit übernehmen, diese
Ängste werden zwar „bewusst“ verbreitet – sie sind aber völlig absurd.

Dennoch ist die KI sehr riskant geworden.
Abschließend soll daher eine Risikoeinschätzung folgen, denn auch hier sollte sich niemand
Illusionen machen.
Der Europäische AI Act soll das Risiko von KI-Anwendungen bewerten und dafür
Sorge tragen, dass bestimmte Anwendungen den Betroffenen nicht zu viele Risiken aufbürden.
Die mehr als 400 Seiten der Verordnung sind ein gutes und nützliches Regelwerk, denn die
KI ist riskant – trotz oder gerade wegen ihrer oben genannten Mängel.
Die KI stellt nämlich ein „perfektes“ Instrumentarium zur Überwachung bereit.
Man kann technische oder kaufmännische Prozesse überwachen oder Krankheiten, aber eben
auch Menschen und ganze Bevölkerungsgruppen.
Der Anwender der KI-Verfahren entscheidet, was er mit der KI machen wird.
Ein Skalpell kann Leben retten. Oder Leben zerstören.

Schauen wir uns ein Beispiel an, um diese Problematik zu verdeutlichen:
Mittels KI-Verfahren lassen sich heutzutage gute Bildklassifikatoren realisieren, die sich
etwa einsetzen lassen, um Produktionsprozesse zu überwachen.
Natürlich wird man diese im Unternehmen nur einsetzen, wenn die Gütemaße der Klassifikatoren
gut genug sind.
Zwei wichtige Gütemaße des Klassifikators sind die Sensitivität und die Spezifität.
Sensitivität bedeutet im Produktionsumfeld, dass dann, wenn ein Endprodukt einen Mangel
aufweist, dieser durch die KI-Bilderkennung auch erkannt wird.
Spezifität bedeutet, dass dann, wenn ein Produkt keinen Mangel aufweist, dieses Produkt
die Gütekontrolle auch unbehelligt passieren darf.
KI ist für solche technischen Anwendungen prädestiniert.

Was aber wäre mit der visuellen Überwachung von Personengruppen?
Stellen wir uns hierzu einen KI-Klassifikator vor, der eine Menschengruppe in
zwei Kategorien einteilen soll.
Die eine Gruppe seien (mutmaßliche) Terroristen, die andere Gruppe unbescholtene Bürger.
Im Beispiel verwenden wir einen KI-Video-Klassifikator mit einer Sensitivität
von 99 Prozent und einer Spezifität von ebenfalls 99 Prozent.
Diese beiden Gütemaßzahlen sind sehr gut, sie werden in der Praxis oft nicht erreicht.
Der AI Act würde einen KI-Einsatz mit dieser Qualität sicherlich erlauben.
Jetzt nehmen wir 300 Studenten, die in einer Großstadt die Terroristen repräsentieren
sollen, um das KI-System zu testen.
Das System installieren wir an einem Bahnhof, den in der Woche
etwa eine Million Menschen passieren.

Was ist nun zu erwarten?
Die Sensitivität besagt, dass wir mit unserem KI-System 99 Prozent der Terroristen erkennen
werden, also von den 300 Terroristen 297 aufspüren können.
Das ist ziemlich gut. Die Spezifität von 99 Prozent besagt nun, dass auch bei den
unbescholtenen Bürgern ein Fehler von ein Prozent (falsch-positive) gemacht werden wird.
Also werden wir von etwa einer Million unbescholtenen Bürgern, die den Bahnhof während
dieser Zeit passieren, ungefähr 10.000 Bürger als (mutmaßliche) Terroristen deklarieren.
Diese 10.000 Menschen müssen später der Polizei beweisen, dass sie
gar keine Terroristen sind.
Das ist gesellschaftlich natürlich unzumutbar.

Selbstverständlich ist es logisch, dass jeder KI-Einsatz aufgrund von Fehlern
einen Preis erfordert, der eben bezahlt werden muss.
Im Industrieeinsatz wird das von vornherein berücksichtigt, denn den Preis zahlt
das einsetzende Unternehmen selbst.
Im Bereich der KI-Überwachung trägt jedoch der Bürger die „Kosten“, denn er muss
beweisen, dass er kein Terrorist ist.
Da die „Kosten“ also ausgelagert werden können (weg vom KI-Anbieter und hin
zum Betroffenen), wird das alles völlig verordnungskonform so eingesetzt werden, natürlich
im Namen der Sicherheit – wir sollten uns hier keine Illusionen machen.

Aktuell geht von der KI eine latente Gefahr aus, denn die riesigen Werbebudgets
von KI-Unternehmen sorgen dafür, dass den Entscheidern viele Vorteile der KI verkauft
werden, die in der Realität so gar nicht existieren.
Wird die KI in den Unternehmen selbst eingesetzt und werden die KI-Verordnung
und der Datenschutz eingehalten, ist der Einsatz sehr häufig von Vorteil und teilweise
sogar extrem gewinnbringend.
Wird die KI jedoch in der Gesellschaft eingesetzt, gehen von ihr erhebliche Risiken aus.
Letztlich kommt es zu einer Allianz von Macht und Technologie.
Selbst eine fehlerhafte und mangelhafte Technologie kann so zu einer großen Gefahr werden.
Während medial oft über eine zukünftige Singularität und Machtübernahme durch eine KI
gesprochen wird, sind die Gefahren viel subtiler und vor allem gegenwärtig.
Man könnte sich eine KI-Maschinenschicht vorstellen, die über die Gesellschaft gestülpt
wird und die trotz ihrer massiven Mängel das Leben und Arbeiten von Million Menschen
überwacht, steuert und regelt.
Besitzer dieser Technologien hätten natürlich den Luxus, davon nicht betroffen zu sein.
Es ist daher zu hoffen, dass der Einsatz der KI in der Gesellschaft kritisch
begleitet werden wird.  Das sollte keine Illusion sein.

Dr. Ralf Otte ist Professor für Industrieauto­matisierung und Künstliche Intelligenz
an der Technischen Hochschule Ulm.
Seit mehr als 30 Jahren setzt er KI-Projekte in Industrie und Gesellschaft um.
Er ist Autor mehrerer Bücher zum Thema, mehr dazu unter ralfotte.com.
========================================================================================================




-- 
Mit freundlichen Grüßen
Helmut Schellong

Message-ID: <vv5gjt$6hgo$1@solani.org>
Path: dorfdsl.pugleaf.net!archive.newsdeef.eu!archive!apf8.newsdeef.eu!nnrp.usenet.blueworldhosting.com!!spool1.usenet.blueworldhosting.com!usenet.blueworldhosting.com!diablo1.usenet.blueworldhosting.com!weretis.net!feeder8.news.weretis.net!reader5.news.weretis.net!news.solani.org!.POSTED!not-for-mail
References: <urnlkr$njtp$1@solani.org> <65E5AA6C.79610C2@proton.me> <us4v18$um25$1@solani.org> <65F4747E.3D428D0D@proton.me> <ut26q4$1dgp7$1@solani.org>