Article View: de.sci.electronics
Article #622009Re: Ein Ryckschlag nach dem anderen beim Autonomen Fahren
From: Helmut Schellong
Date: Sat, 03 May 2025 18:35
Date: Sat, 03 May 2025 18:35
509 lines
29844 bytes
29844 bytes
Helmut Schellong wrote on 15.03.2024 20:16: > Carla Schneider wrote: >> Helmut Schellong wrote: >>> >>> Carla Schneider wrote: >>>> Helmut Schellong wrote: >>>>> >>>>> Handelsblatt: >>>>> |Abschied nach einem Jahrzehnt ? Apple beerdigt Autopläne >>>>> | >>>>> |Definitiv bekannt war nur, dass Apple zu selbstfahrenden Fahrzeugen umgebaute Testwagen >>>>> |im Silicon Valley auf die Straße schickte. >>>>> | >>>>> |Zum Verhängnis geworden sind dem Projekt laut Bloomberg zwei Probleme: >>>>> }o Das angestrebte vollautonome Fahren auf Level vier (dabei kann das Fahrzeug auf bestimmten Strecken >>>>> | ganz ohne Fahrer unterwegs sein) habe sich nicht wie geplant umsetzen lassen. >>>>> |o Bei einem angepeilten Verkaufspreis von unter 100.000 Euro erschien dem Management >>>>> | die Marge im Vergleich zu anderen Apple-Produkten als zu gering. >>>>> >>>>> Man beachte: Bereits Level 4 ließ sich nicht umsetzen. >>>> >>>> Es hat sich nicht wie geplant umsetzen lassen. >>> >>> Ja, ich hatte schließlich auf den Satzteil "... wie geplant ..." hingewiesen. >> >> Fakt ist ja dass solche Level 4 Fahrzeuge seit Jahren unterwegs sind, in >> ihren begrenzten Gebieten. Waymo weitet das dieses Jahr aus: >> https://www.siliconrepublic.com/machines/waymo-robotaxi-self-driving-la-los-angeles-austin > > Ja, wir hatten uns ziemlich intensiv mit Werte-Tabellen beschäftigt. > > Was genau Apple bewogen hat auszusteigen, ist unbekannt. > Bekannt sind nur Spekulationen. > > Fakten sind allerdings: > Daß Bosch sich zurückgezogen hat, und daß später vom CEO zu hören war, > daß das E-Auto noch Jahrzehnte (!) benötigen würde. > Daß Mercedes das E-Auto weit in die Zukunft geschoben hat. > Daß das wichtigste deutsche KI-StartUp kürzlich zerbrochen ist. > Etc. > >>>> Tatsaechlich sind die Autos ja Level 4 gefahren in San Francisco. >>>> Aber offenbar hatten sie mehr geplant in der Zeit. >>>> Wesentlicher scheint mir der zweite Grund zu sein, sie glauben dass es sich >>>> fuer sie oekonomisch nicht rechnet, weil sich ihre Investitionen anderswo >>>> besser rentieren. >>>> Das war vorhersehbar, Autos sind was anderes als Computer. >>>> Apples Vorteil waere gewesen dass sie Geld ohne Ende haben, >>>> und damit die Moeglichkeit bei denen zu sein die am Ende uebrig bleiben >>>> beim Rennen ums autonome Fahrzeug. >>> >>> Die letzten vier Zeilen habe ich auch so im Kopf. >>> Scheiß Marge - egal. >>> Wer als der Erste Level 4 uneingeschränkt erreicht, hat einen fetten Meilenstein erreicht. >>> Einfach mit Geld aussitzen. >>> >>> Als Putin die Ukraine angriff, sagte ich spontan: Der Westen hat 100-mal mehr Geld. >>> Also einfach aussitzen... >> >> Da hat man sich aber bei der Laenge des Aussitzens etwas verschaetzt. Die Vorraete an Waffen >> und Munition des Westens waren eben doch begrenzt und Geld ist zwar notwenig aber man muss >> es auch ausgeben fuer die richtigen Dinge. > > Ja, genau das ist es, was Erfolge hindert. > Ich habe das Gefühl, daß es sein könnte, daß man die Ukraine absichtlich > nur soweit unterstützt, daß sie sich gerade so halten kann. > > Will man die westlichen Waffen einem realen Langzeittest unterziehen? > Es kristallisiert sich allmählich heraus, daß Deutschland als einziger signifikanter > Waffenunterstützer verbleibt. > > Zum D-Day hatten die USA und UK 6000 Kriegsschiffe aufgeboten! > Die hatten in Windeseile auf Kriegswirtschaft umgestellt. > > Als ich bei der BW war, waren 520000 Soldaten dort und etwa 500000 Beschäftigte > in der Rüstungsindustrie. > Heute sind 180000 Soldaten dort und etwa 50000 Beschäftigte in der Rüstungsindustrie. > > CEO Papperger hatte vor etwa einem Jahr vorgeschlagen, in der Ukraine eine Panzerfabrik > für den überlegenen Panther zu errichten, um dort pro Jahr 600 Panther zu bauen. > Den Schutz der Fabrik wollte Rheinmetall selbst übernehmen. > Warum ist davon nichts zu hören? > Warum kauft DE keinerlei Panther? > > Deutschland meldete, das NATO-Ziel 2% erreicht zu haben. > Von Stoltenberg las ich vorgestern, daß DE mitnichten 2% erreicht hat, sondern 1,6%. > > Das Sondervermögen der Bundeswehr soll die BW ausrüsten. > Das 2%-Ziel sollte _gar nicht_ aus diesem Sondervermögen besorgt, sondern dem > normalen Wehretat entnommen werden, so hatte es der Kanzler versprochen. > Irgendwie scheint mir, diese Zusage ist bereits zerbrochen. > >> Was die Autos betrifft ist hier die Frage ob die Autohersteller das selbstfahrende Auto entwickeln >> sollen, oder ob sie wenn die Technik mal so weit ist bei Google einkaufen sollen... > > Ich habe keinerlei Wissen aus den beteiligten Unternehmen, so daß ich keinen Ausblick geben kann. > Es wäre allerdings schlimm, falls es später nur _eine_ zentrale Lösung geben sollte. > Das widerspräche total dem Kartell-Schutz. > >>>>> Ich sagte all dies bereits vor Jahren voraus. >>>>> Realistisch bleiben nach wie vor einzig die Einschätzungen des MIT, die ich >>>>> vor Jahren mitteilte, die jedoch hier eher nur von mir geteilt wurden. >>>>> >>>>> Ich hatte damals erkannt, wie extrem komplex die Angelegenheit ist. >>>>> Gleiches gilt auch für KI - weshalb es bisher auch keine wirkliche KI gibt. >>>> >>>> Schon moeglich, aber die unwirkliche KI kann man bereits fuer allerlei >>>> nuetzliches verwenden und das wird in den naechsten Jahren viel veraendern. >>> >>> Ja, meine Benutzung von ChatGPT als alternative Suchmaschine (mehr Komfort) hatte ich hier geschildert. >>> Wurde hier allerdings heftig attackiert (Google pur sei viel besser). >> >> Das ging ja nur wenn man nichts akutelles sucht. > > Aktuell wurde ja ChatGPT benutzt, um zu demonstrieren, daß ChatGPT versagt (hat). > Es hat allerdings nicht versagt, sondern ChatGPT hat durch seine Antwort demonstriert, daß > es stockdoof ist und nicht den kleinsten Funken an Intelligenz besitzt. > > Wenn ChatGPT irgendwo auf der Welt eine Aussage in Verbindung mit einem Objekt findet, generiert > ChatGPT eine Antwort, die suggeriert, als ob dieser Zusammenhang weltweit bei jedem existierenden > Objekt dieser Art zutrifft. > ChatGPT ist folglich vollkommen inkompetent, eine korrekte Einschätzung abzugeben, weil > es total stumpf nach Pattern-Matching vorgeht. > >>> Im Film 'Ghost in the Shell' gab es ein menschliches Gehirn in einem Roboterkörper, um >>> eine übermenschliche Kämpferin zu erschaffen. >>> Man fragt sich unwillkürlich, warum kein Robotergehirn in einem Roboterkörper? >>> Ist die gezeigte Kombination vielleicht haushoch überlegen? >> >> Die Geschichte ist von 1989, da konnte man sich ein >> vernuenftiges Robotergehirn noch nicht vorstellen. >> >>> >>> Vielleicht hat sogar das MIT den Zeitbedarf unterschätzt? > > Ich meine damit, daß ich es für möglich halte, daß das Ziel > frühestens z.B. 2070 erreicht werden kann. Ich habe Nachschau gehalten zu den Themen Level5-Auto und KI. In diesem Zusammenhang drängte sich mir ein Artikel von Prof. Dr. Ralf Otte auf. Er schreibt z.B., daß ein Level5-Auto überhaupt nicht machbar ist! (s.u.) Er begründet auch alle seine Meinungen, die er aussagt. --- Dr. Ralf Otte ist Professor für Industrieautomatisierung und Künstliche Intelligenz --- an der Technischen Hochschule Ulm. Ich stimme mit ihm ziemlich umfangreich überein. So sehe ich viele von meinen Gedanken zu den beiden Themen in seinem nachfolgenden Artikel. Auch die realen Fakten zu diesen Themen stehen dazu passend im Raum. ======================================================================================================== Das Ende der KI-Illusion Artikel von Ralf Otte Nein, soweit wie das Gehirn sind die Computer noch lange nicht. ©dpa Nach ungefähr zwei Jahren eines regelrechten KI-Hypes stellt sich beginnende Ernüchterung ein. Sowohl Entscheider als auch das Publikum bemerken, dass viele der versprochenen KI-Produkte doch nicht so schnell auf den Markt gelangen. Der Autor wird an dieser Stelle noch weitergehen und die These aufstellen, dass fast keine der hochfliegenden Ankündigungen jemals umgesetzt werden. In den nächsten Jahren werden wir zwar weiterhin von zahlreichen erfolgreichen Fallbeispielen (Use Cases) hören und von KI-Heilsversprechungen aller Art, wie zum Beispiel, dass die KI helfen könnte, den Kampf gegen Krebs zu gewinnen, den Welthunger zu besiegen oder die Anzahl der Verkehrstoten drastisch zu senken. Aber keines dieser Versprechen wird wahrscheinlich wahr werden. Doch trotz der zahlreichen Unzulänglichkeiten der Künstlichen Intelligenz ist sie riskanter denn je, denn die KI wird das Leben aller Menschen stark beeinflussen. Um KI besser zu verstehen, hilft eine mögliche Taxonomie von Intelligenzstufen, die folgendermaßen definiert sein könnten: Deduktion (Stufe 1), Induktion (Stufe 2), Kognition (Stufe 3), Wahrnehmung und Bewusstsein (Stufe 4), Selbstwahrnehmungsintelligenz (Stufe 5), Gefühlsintelligenz (Stufe 6), Willensintelligenz (Stufe 7), menschliche Intelligenz der Selbstreflexion (Stufe 8). Anhand dieser Aufstellung wird deutlich, dass sich die heutige KI – trotz ihrer hohen „rationalen“ Intelligenz – auf einer recht geringen Intelligenzstufe befindet (Stufe 2 bis 3), jedenfalls verglichen mit der Intelligenz des Menschen. Der Grund dafür hat es in sich: Heutige KI ist eine rein mathematische KI, die als Softwarealgorithmus auf einem Computer implementiert wird. Das schafft zwar große Vorteile, da die Implementierung meist recht einfach ist. Aber eine rein mathematische Umsetzung von Intelligenz hat eben auch gravierende Nachteile. Denn die Grenzen der Mathematik selbst sind damit zwangsläufig auch die Grenzen jedweder KI. Im menschlichen Gehirn laufen keinerlei mathematische Prozesse ab, dort existieren neuronale Netze, mit ihren physikalischen, chemischen und biologischen Eigenschaften, und genau dieser Unterschied ist entscheidend für die riesigen Intelligenzunterschiede zwischen Mensch und Maschine. Betrachten wir mit dieser Vorabeinschätzung das maschinelle Lernen etwas näher: Eine wichtige Säule der heutigen KI sind künstliche neuronale Netze (KNN), die man beispielsweise als einfache sogenannte Backpropagation-Netze oder Deep-Learning-Netze ausführt. Damit bezeichnen Fachleute jene auf Computern existierenden mathematischen Simulationen, von denen Fachleute glauben, dass ungefähr so die Informationsverarbeitung des Gehirns modelliert werden kann. Diese Art der Modellierung ist sogar überaus erfolgreich. Wir besitzen mit den KNN sogenannte universelle Approximatoren, und der Anwendungsnutzen ist enorm. Weiß man beispielsweise, dass der zu beschreibende Zusammenhang durch eine stetige Funktion dargestellt werden kann, wobei man die Funktion gar nicht kennen muss, kann ein KNN verwendet werden, welches diesen Zusammenhang anhand von Daten beliebig genau approximiert. Wir haben mit unseren Computern schon universelle Rechenmaschinen, nun besitzen wir auch noch eine universelle Lernmaschine. Auch haben wir mit sogenannten neuronalen Faltungsnetzen (CNN) nahezu universelle Bildverarbeitungsmaschinen und mit den großen Sprachmodellen (LLM-Modelle) nahezu universelle Sprachverarbeitungsmaschinen. Es ist daher kein Wunder, dass mit vielen Menschen die Phantasie durchgeht, dass sie die KI-Technologie bewundern oder fürchten. Um die KI für die Praktiker realistischer einzuordnen, wollen wir uns nun einer Typisierung der Machbarkeit zuwenden: Die erste Gruppe beschreibt Probleme, die mit KI gut lösbar sind, die zweite Gruppe Probleme, die mittels KI nur schwer lösbar sind, und die dritte Gruppe beinhaltet alle Aufgabenstellungen, die man mittels KI gar nicht lösen kann – und zwar prinzipiell nicht. Enorme Summen ließen sich einsparen, wenn zu Beginn aller KI-Projekte klar wäre, zu welcher Kategorie das zu bearbeitende Problem gehört. Hier drei Beispiele, um dies zu verdeutlichen: Die KI-Optimierung des Einkaufes einer Firma durch die Analyse aller bisherigen Einkaufstransaktionen dieser Firma zählt zur ersten Gruppe. Die automatisierte KI-Steuerung eines Kraftwerkes zählt zur zweiten Gruppe. Den Straßenverkehr in Deutschland durch den Einsatz von KI-Autos vollständig vollautonom durchzuführen gehört in die Gruppe der prinzipiell unlösbaren Aufgaben. Damit kommen wir abermals zum maschinellen Lernen (ML), der heutigen KI-Königsdisziplin. Wir zählen alle ML-Verfahren zur induktiven KI (dies entspricht in obiger Taxonomie der Intelligenzstufe 2). Maschinelles Lernen bedeutet also Lernen aus Daten – das Analogon beim Menschen wäre das Lernen aus Erfahrung. Nun gibt es endlos viele Daten in der Welt, wir sprechen von Zettabyte oder gar Yottabyte. Haben wir also genug Daten, um alles zu lernen, was wir lernen wollen? Und wenn wir genug Daten hätten, können wir dann alles lernen, was wir lernen möchten? Gravierende Anwendungsfehler bei Daten Die Antwort ist ein klares Nein. Kein Mensch würde mit KI die Lottozahlen vom nächsten Samstag vorhersagen wollen, obwohl die Daten der Ziehungen der letzten Jahrzehnte vorliegen. Warum nicht? Weil jeder (intuitiv) weiß, dass es keinen Zusammenhang zwischen den Lottoziehungen der Vergangenheit und der Lottoziehung am kommenden Samstag gibt. Gelernt werden können jedoch nur eindeutige Funktionen, manche Funktionsklassen jedoch extrem genau, wie das nach dem amerikanischen Wissenschaftler George V. Cybenko benannte Cybenko-Theorem aussagt. Cybenko zeigte schon im Jahr 1989, dass mit bestimmten neuronalen Netzen stetige Funktionen sogar beliebig genau nachbildbar sind. Stetige Funktion sind dabei Funktionen, die man vereinfacht gesagt mit einem Stift durchzeichnen kann, ohne diesen abzusetzen, also Funktionen ohne Lücken und Sprünge. Wenn es um die Lottozahlen geht, dann liegt eine solche Funktion nicht vor. Darf ein solcher Zusammenhang aus guten Gründen aber vermutet werden – insbesondere in industriellen Prozessen ist das meist gegeben –, so ist eine Approximation theoretisch gut möglich. Allerdings muss nun die vorhandene Datenlandschaft ganz genau überprüft werden. Denn schließlich müssen die Daten die unbekannte, aber durch die KI zu lernende Funktion abbilden können. Hier gibt es leider erhebliche Probleme in der Praxis, denn die Daten für die KI müssen repräsentativ, rückverfolgbar, reproduzierbar und ausreichend vorhanden sein. Manchmal liegen solche Daten vor. Oft leider nicht. Unerfahrene KI-Projektleiter merken häufig erst am Schluss, dass die Daten, auf denen das gesamte Projekt aufbaut, eben doch nicht repräsentativ waren. Hier passieren ständig gravierende Anwendungsfehler. Wurde die KI auf nicht repräsentativen Daten trainiert, können die Ausgaben der KI im Anwendungsfall natürlich völlig falsch sein. Lernende KI-Verfahren sollten daher nicht im Extrapolationsraum betrieben werden, also nicht in Datenräumen, in denen vorab keine Lerndaten vorlagen. Ein Beispiel: Trainiert man eine KI im Lerndatenbereich von 0 bis 100 darauf, Quadratzahlen zu addieren, so kann die KI die Addition später im gesamten Lerndatenraum von 0 bis 100 korrekt ausführen, selbstverständlich auch für nicht eintrainierte Beispiele. Fragt man aber nach der Addition zweier Quadratzahlen im Bereich um die 1000, werden die Ergebnisse der KI falsch sein; sie wird leider „halluzinieren“. Warum? Weil der Extrapolationsbereich von 1000 viel zu weit vom vorab gelernten Interpolationsbereich zwischen 0 und 100 entfernt ist. Man sollte meinen, solche Fehler passieren nicht. Doch selbst dort, wo die professionellsten KI-Anwendungen zu erwarten wären, im Militär, werden solche Fehler gemacht – erwähnt sei der mutmaßliche Einsatz der KI im Gazakrieg (Operation Lavender). Fehlende technische Aufklärung Oder denken wir an das autonome Fahren und die Unfälle, die solche Fahrzeuge erzeugen, weil sie auf Situationen treffen, die fernab von gelernten Zuständen liegen. Leider weiß man oft gar nicht, was für Zustände in der Anwendungsphase auftreten könnten, wodurch KI-Systeme sehr häufig, aber unbekannterweise im Extrapolationsraum angewendet werden. Verkehrsunfälle, zerstörte Maschinen, fehlerhafte Börsenvorhersagen können und werden die Folge sein. Oder das KI-System „halluziniert“ – eine höfliche Umschreibung für „völlig falsche“ Aussagen. Kein Ingenieur würde ein Bremssystem auf den Markt bringen, das ab und zu halluziniert. Wenn es indes um KI geht, scheint man viele einstmals gute ingenieursmäßige Standards wieder vergessen zu haben. Zu groß ist die Illusion, die Hollywood und die großen Techkonzerne erzeugen, zu blauäugig sind Manager oder Politiker. Das liegt aber nicht an den Entscheidern selbst, sondern an fehlender technischer Aufklärung. Ein kurzer Zwischenstand: Aufgabenstellungen, die durch eine unbekannte, jedoch implizit vorhandene Funktion (Abbildung) beschrieben werden können und bei denen die gegebene Datenlandschaft diese Abbildung repräsentiert, sind sehr gut mit KI zu lösen. Beispiele sind nahezu alle Prozesse in den Unternehmen, vom Einkauf, Verkauf über die Produktion, den Service und die Entwicklung. Schwer (bis gar nicht) zu lösen sind hingegen Probleme, bei denen die spätere Anwendung im Extrapolationsraum liegen wird. Allerdings gibt es für diese Probleme Lösungsstrategien. Eine wichtige liegt darin, dass die KI wenigstens mitteilt, wenn ihr Ergebnis unsicher ist. Das ist technisch sogar trivial lösbar: Erstens ist bekannt, wie weit man vom Lerndatenraum entfernt ist – es gibt immer eine Metrik. Zweitens setzt man bei derartigen Befürchtungen stets mehrere KI-Verfahren in Konkurrenz zueinander ein. Warum wird diese Art von Qualitätssicherung dann nicht gemacht? Weil den Einkäufern in den Unternehmen eine Illusion verkauft wird. Es wird so getan, als wäre KI eine Art Kunst, die ein zwar undurchschaubares, aber garantiert sicheres Werkzeug hervorbringt. Doch so ist es nicht. KI-Projekte müssen deshalb besser umgesetzt beziehungsweise schon besser eingekauft werden: Zwingen die Einkäufer die KI-Anbieter endlich dazu, dass jene ihre (im Use Case) zugesagten Ergebnisse garantieren, was machbar ist, zwingen sie die KI-Anbieter zusätzlich zu Güteangaben ihrer KI-Modelle und zum Bau einer KI, die jederzeit selbst mitteilt, wenn ihre Ergebnisse nicht genutzt werden dürfen, dann bekommt man gutes technisches KI-Handwerk ausgeliefert. Jedenfalls für den Fall, dass das Problem mit KI überhaupt lösbar ist. Nun sind aber nicht alle Aufgaben mittels KI lösbar. Für den Anwender ist es deshalb wichtig, die unlösbaren Problemstellungen zu kennen. Dafür seien kurz grundsätzliche Restriktionen erläutert. 1. Das Problem der Semantik: KI versteht nicht, was sie tut. Dieser Punkt ist insbesondere für Anwender der generativen KI wichtig, denn selbst die ausgeklügelt klingenden Antworten eines Chatbots sind immer nur rein syntaktischer Natur. Nichts davon wird durch die KI verstanden – heute nicht und morgen auch nicht. 2. Das Problem der Deduktion: KI kann eine gewisse Komplexität nicht automatisiert bearbeiten. 3. Das Problem der Induktion: KI kann das Lernproblem nicht lösen. Dies bedeutet, wie oben schon angedeutet, dass es nicht möglich ist, außer in Trivialfällen, die KI im besagten Extrapolationsraum einzusetzen. 4. Das Problem des Bewusstseins: KI kann die Umgebung nicht wahrnehmen. Dieser Punkt deutet an, dass alle heutigen Systeme des maschinellen Sehens keine wirklichen Wahrnehmungen besitzen, sondern immer nur Simulationen von Sehprozessen sind. Viele Anwender denken, dass es ausreicht, das Sehen digital zu simulieren, da es bisher auch ausreichte, das menschliche Denken und Lernen digital (mathematisch) zu simulieren – einfach weil die Ergebnisse der KI dort überzeugend sind. Aber beim Sehen bemerkt man die Grenzen der Simulation, insbesondere im anlogen Umfeld. 5. Das Problem der Gefühle: KI kann keine Gefühle ausprägen. 6. Das Problem des Willens: KI kann keine Willensprozesse ausprägen. Die Punkte 5. und 6. sind eigentlich nicht als Mangel einer technischen KI anzusehen, denn für heutige Anwendungen sind keine Systeme mit Gefühls- oder gar Willensprozessen nötig. Keine Aussicht auf vollautonomen Straßenverkehr in Deutschland Diese Bemerkungen sind übrigens nicht rein akademischer Natur. Die genannten Grenzen führen beispielsweise dazu, dass selbst in zehn oder 20 Jahren immer noch keine Roboter in unserem (chaotischen) Haushalt einsetzbar sein werden. Oder salopp formuliert: Den Kaffee müssen wir uns im Jahr 2040 immer noch selbst holen, so merkwürdig das für viele klingen mag, weil die KI heute scheinbar ständig von einem Erfolg zum nächsten gelangt – ja, aber eben nur in digitalen Umgebungen, nicht in analogen. Den Kaffee wird ein Roboter also nur dann holen, wenn wir unseren Haushalt zu einer Art digitaler Fabrik umbauen und an jeder Ecke digitale Sensoren einbauen. Doch wer wollte das schon? Kommen wir zu einem weiteren, wichtigen Sachverhalt für die Praxis. Die in Punkt 2. angesprochene nicht überwindbare Komplexitätsgrenze der KI hat großen Einfluss auf das autonome Fahren. Es kann vorausgesagt werden, dass es niemals möglich sein wird, den gesamten Straßenverkehr in Deutschland vollautonom abzuwickeln, weil die Komplexität der Interaktionen im Straßenverkehr der Komplexität der sogenannten Prädikatenlogik entspricht. Für die Prädikatenlogik – eine von mehreren Logiksystemen – wurde mathematisch jedoch exakt bewiesen, dass logische Entscheidungsprozesse unendlich lange dauern können oder gar zu widersprüchlichen Aussagen führen, die innerhalb des Systems selbst nicht auflösbar sind. Man braucht solche Versuche daher auch gar nicht zu starten, denn mathematische Beweise sind für die heutige KI zwingend, da sie eine mathematische KI ist. Mit demselben Argument ist schon jetzt festgelegt, dass die KI niemals zur automatisierten Rechtsprechung eingesetzt werden darf, denn auch das Bürgerliche Gesetzbuch entspricht der Komplexität der Prädikatenlogik. Zur Einordnung: Jeder (erwachsene) Mensch wendet verschiedene Logiksysteme intuitiv an. Ein Beispiel: In der Aussagenlogik wird die Aussage „dieser Frosch ist grün“ einfach durch hinschauen überprüft. In der mächtigeren Prädikatenlogik lässt sich die universellere Aussage „alle Frösche sind grün“ nicht mehr so einfach prüfen. Aber es hilft ein einziger Frosch, der nicht grün ist, um die Aussage durch Gegenbeweis wenigstens zu falsifizieren. Für die KI ist der Umgang mit der Prädikatenlogik schwierig. Insbesondere die sogenannte Prädikatenlogik 2. Ordnung mit Aussagen wie „Frösche können alle Farben haben“ stellt die mathematische KI vor erhebliche Probleme. Denn laut dem berühmten Logiker Kurt Gödel gibt es wie oben ausgeführt in allen hinreichend starken Systemen (und dazu zählt die Prädikatenlogik 2. Ordnung) zwingend Aussagen, die sich formal weder beweisen noch widerlegen lassen. Das trifft die KI mit voller Wucht, denn es verhindert prinzipiell zahlreiche geplante KI-Anwendungen, wie die erwähnten voll automatisierten Gerichtsentscheide. Recht kann nur ein menschlicher Richter sprechen, für den die obige Komplexitätsgrenze nämlich nicht gilt, da er auch mit nicht formalen Beweisen arbeiten kann. Anwälte und Richter könnten KI zur Beweissichtung oder mittels Chatbots zur Argumentation verwenden, das ist möglich, nicht aber für die automatisierte Rechtsprechung selbst. KI ist sehr riskant geworden Es gibt viele weitere Fälle, in denen der Einsatz von KI aus Komplexitätsgründen versagt. KI kann Code generieren und Code über Code, aber immer nur bis zu einer gewissen Grenze. Es kann nicht passieren, dass sich eine KI immer weiter selbst optimiert und repariert, denn sobald diese Aufgabenstellung die Komplexität der Prädikatenlogik erreicht, kommt es zu inneren Widersprüchen und damit zum Stillstand. Systeme, die ihre eignen Baupläne enthalten, kommen zwingend in unbeweisbare Zustände, das ergibt sich abermals aus dem erwähnten Unvollständigkeitssatz des besagten Kurt Gödel. Daher nochmals: Alle mathematischen Systeme unterliegen derartigen Restriktionen. Niemals können heutige, mathematikbasierte KI-Maschinen die Menschheit übernehmen, diese Ängste werden zwar „bewusst“ verbreitet – sie sind aber völlig absurd. Dennoch ist die KI sehr riskant geworden. Abschließend soll daher eine Risikoeinschätzung folgen, denn auch hier sollte sich niemand Illusionen machen. Der Europäische AI Act soll das Risiko von KI-Anwendungen bewerten und dafür Sorge tragen, dass bestimmte Anwendungen den Betroffenen nicht zu viele Risiken aufbürden. Die mehr als 400 Seiten der Verordnung sind ein gutes und nützliches Regelwerk, denn die KI ist riskant – trotz oder gerade wegen ihrer oben genannten Mängel. Die KI stellt nämlich ein „perfektes“ Instrumentarium zur Überwachung bereit. Man kann technische oder kaufmännische Prozesse überwachen oder Krankheiten, aber eben auch Menschen und ganze Bevölkerungsgruppen. Der Anwender der KI-Verfahren entscheidet, was er mit der KI machen wird. Ein Skalpell kann Leben retten. Oder Leben zerstören. Schauen wir uns ein Beispiel an, um diese Problematik zu verdeutlichen: Mittels KI-Verfahren lassen sich heutzutage gute Bildklassifikatoren realisieren, die sich etwa einsetzen lassen, um Produktionsprozesse zu überwachen. Natürlich wird man diese im Unternehmen nur einsetzen, wenn die Gütemaße der Klassifikatoren gut genug sind. Zwei wichtige Gütemaße des Klassifikators sind die Sensitivität und die Spezifität. Sensitivität bedeutet im Produktionsumfeld, dass dann, wenn ein Endprodukt einen Mangel aufweist, dieser durch die KI-Bilderkennung auch erkannt wird. Spezifität bedeutet, dass dann, wenn ein Produkt keinen Mangel aufweist, dieses Produkt die Gütekontrolle auch unbehelligt passieren darf. KI ist für solche technischen Anwendungen prädestiniert. Was aber wäre mit der visuellen Überwachung von Personengruppen? Stellen wir uns hierzu einen KI-Klassifikator vor, der eine Menschengruppe in zwei Kategorien einteilen soll. Die eine Gruppe seien (mutmaßliche) Terroristen, die andere Gruppe unbescholtene Bürger. Im Beispiel verwenden wir einen KI-Video-Klassifikator mit einer Sensitivität von 99 Prozent und einer Spezifität von ebenfalls 99 Prozent. Diese beiden Gütemaßzahlen sind sehr gut, sie werden in der Praxis oft nicht erreicht. Der AI Act würde einen KI-Einsatz mit dieser Qualität sicherlich erlauben. Jetzt nehmen wir 300 Studenten, die in einer Großstadt die Terroristen repräsentieren sollen, um das KI-System zu testen. Das System installieren wir an einem Bahnhof, den in der Woche etwa eine Million Menschen passieren. Was ist nun zu erwarten? Die Sensitivität besagt, dass wir mit unserem KI-System 99 Prozent der Terroristen erkennen werden, also von den 300 Terroristen 297 aufspüren können. Das ist ziemlich gut. Die Spezifität von 99 Prozent besagt nun, dass auch bei den unbescholtenen Bürgern ein Fehler von ein Prozent (falsch-positive) gemacht werden wird. Also werden wir von etwa einer Million unbescholtenen Bürgern, die den Bahnhof während dieser Zeit passieren, ungefähr 10.000 Bürger als (mutmaßliche) Terroristen deklarieren. Diese 10.000 Menschen müssen später der Polizei beweisen, dass sie gar keine Terroristen sind. Das ist gesellschaftlich natürlich unzumutbar. Selbstverständlich ist es logisch, dass jeder KI-Einsatz aufgrund von Fehlern einen Preis erfordert, der eben bezahlt werden muss. Im Industrieeinsatz wird das von vornherein berücksichtigt, denn den Preis zahlt das einsetzende Unternehmen selbst. Im Bereich der KI-Überwachung trägt jedoch der Bürger die „Kosten“, denn er muss beweisen, dass er kein Terrorist ist. Da die „Kosten“ also ausgelagert werden können (weg vom KI-Anbieter und hin zum Betroffenen), wird das alles völlig verordnungskonform so eingesetzt werden, natürlich im Namen der Sicherheit – wir sollten uns hier keine Illusionen machen. Aktuell geht von der KI eine latente Gefahr aus, denn die riesigen Werbebudgets von KI-Unternehmen sorgen dafür, dass den Entscheidern viele Vorteile der KI verkauft werden, die in der Realität so gar nicht existieren. Wird die KI in den Unternehmen selbst eingesetzt und werden die KI-Verordnung und der Datenschutz eingehalten, ist der Einsatz sehr häufig von Vorteil und teilweise sogar extrem gewinnbringend. Wird die KI jedoch in der Gesellschaft eingesetzt, gehen von ihr erhebliche Risiken aus. Letztlich kommt es zu einer Allianz von Macht und Technologie. Selbst eine fehlerhafte und mangelhafte Technologie kann so zu einer großen Gefahr werden. Während medial oft über eine zukünftige Singularität und Machtübernahme durch eine KI gesprochen wird, sind die Gefahren viel subtiler und vor allem gegenwärtig. Man könnte sich eine KI-Maschinenschicht vorstellen, die über die Gesellschaft gestülpt wird und die trotz ihrer massiven Mängel das Leben und Arbeiten von Million Menschen überwacht, steuert und regelt. Besitzer dieser Technologien hätten natürlich den Luxus, davon nicht betroffen zu sein. Es ist daher zu hoffen, dass der Einsatz der KI in der Gesellschaft kritisch begleitet werden wird. Das sollte keine Illusion sein. Dr. Ralf Otte ist Professor für Industrieautomatisierung und Künstliche Intelligenz an der Technischen Hochschule Ulm. Seit mehr als 30 Jahren setzt er KI-Projekte in Industrie und Gesellschaft um. Er ist Autor mehrerer Bücher zum Thema, mehr dazu unter ralfotte.com. ======================================================================================================== -- Mit freundlichen Grüßen Helmut Schellong
Message-ID:
<vv5gjt$6hgo$1@solani.org>
Path:
dorfdsl.pugleaf.net!archive.newsdeef.eu!archive!apf8.newsdeef.eu!nnrp.usenet.blueworldhosting.com!!spool1.usenet.blueworldhosting.com!usenet.blueworldhosting.com!diablo1.usenet.blueworldhosting.com!weretis.net!feeder8.news.weretis.net!reader5.news.weretis.net!news.solani.org!.POSTED!not-for-mail
References:
<urnlkr$njtp$1@solani.org> <65E5AA6C.79610C2@proton.me> <us4v18$um25$1@solani.org> <65F4747E.3D428D0D@proton.me> <ut26q4$1dgp7$1@solani.org>