KI und neuronale Netzwerke – eine Bedrohung ?

Computer und Roboter übernehmen immer mehr Aufgaben, die bislang nur von Menschen ausgeführt werden konnten und neuerdings liest man immer öfter, daß jetzt auch die künstliche Intelligenz auf dem Vormarsch ist. Droht uns dadurch eine Gefahr ?

artificial-intelligence-3262753_1280

Die Automatisierung mit Computern und Robotern haben in den vergangenen Jahren eine bedeutende Position innerhalb der Produktion erlangt und viel Geld wurde damit verdient, aber auch viele Jobs vernichtet.

Zudem häufen sich in der Medienlandschaft aktuell Berichte, denenzufolge de Wissenschaft im Bereich der Künstlichen Intelligenz (KI, oder englisch AI) gravierende Fortschritte oder gar “Quantensprünge” gemacht hat, so dass nun auch “die letzten Bastionen”, in denen der Mensch noch dem Computer überlegen ist, fallen könnten und durch wahrhaft intelligente Programme “erobert” werden könnten – mit ungeahnten Folgen für den Menschen und die Gesellschaft. Wird der Mensch nun vollends überflüssig ? Droht eventuell gar eine Machtübernahme der Maschinen, wie in manchen Science-Fiction (wie z.B. der “Terminator”-Trilogie) als äusserst beunruhigende Dystopie dargestellt ?

Nun, meiner Einschätzung nach ist es derzeit noch nicht angebracht, in den Panik-Modus zu verfallen und wir können uns einstweilen noch relativ entspannt zurücklehnen.

hand-2692450_1280

Es gab da wohl ein paar Fortschritte wie etwa im Bereich “Deep Learning”, was in Kombination mit dem Umstand, dass sich große Konzernen wie etwa Google sehr stark in diesem Bereich engangieren, zu einem gewissen Medien-Hype geführt hat, der noch zusätzlich durch bedenkliche Kommentare einiger bekannter “Visionäre” wie Elon Musk und anderen eine Verstärkung erfahren hat und dann irgendwann zum Selbstläufer wurde. Man sollte sich aber vor Augen halten, dass wenn die Konzerne schon etliche Milliarden in eine Sache reinstecken, sie quasi zu spektakulären Erfolgsmeldungen verdammt sind, denn schliesslich wollen ja auch ihre Aktionäre bei Laune gehalten werden. :)

Gleichwohl lohnt es sich aber durchaus mal, der Sache nachzugehen und sich zu fragen, was da wirklich dran ist.

Dazu möchte ich auf einen dreiteiligen Blog-Artikel verweisen,

https://hafven.de/magazin-inhalt/2018/5/24/machine-learning-fr-bloody-beginners-teil-1-die-grundlagen

https://hafven.de/magazin-inhalt/2018/7/3/machine-learning-deep-learning-anwendungsfaelle

https://hafven.de/magazin-inhalt/2018/8/29/machine-learning-how-to-get-started

welchen ich sowohl sehr informativ als auch angenehm unaufgeregt empfand und der mich schliesslich dazu anregte, diesen Artikel hier in meinem Blog als ergänzende Reflektion zu schreiben.

Der verlinkte dreiteilige Artikel bietet m.E. eine gute Übersicht über den derzeitigen Stand bei KI und neuronalen Netzen beleuchtet und rückt die Verhältnisse dabei ins rechte Licht.

Das Ausgangs-Problem ist, dass der Begriff “KI” mit mehreren unterschiedlichen Deutungen belegt ist. Der Normaluser denkt dabei zumeist sciencefictionmässig an ein Computerprogramm, welches ein echtes Bewusstsein und eine Persona entwickelt und dabei vielleicht noch ein creatives Potential und Problemlösungsfähigkeiten ähnlich wie ein Mensch aufweist.

So etwas gibt es bislang noch nicht. Bislang hat noch nicht mal ein Programm den Touring-Test bestanden und selbst dann müsste man sich fragen ob es wirklich denkt und fühlt oder einfach nur eine clever gemacht Simulation ist.

Das könnte m.E. damit zu tun haben, dass die die Funktionsweise des Gehirns im Ganzen noch nicht umfassend bekannt und wissenschaftlich begründbar ist, namentlich die Frage, wie dort ein (Selbst-)Bewusstsein entstehen kann. Es ist aber klar, dass (wenn man das religiöse Konzept einer “Seele” göttlichen Ursprungs mal aussenvor lässt) jeder Denkansatz in Richtung einer wieauchimmer gearteten “starken” KI (wie sie in dem Artikel genannt wurden) auf der Grundanahme beruht, dass das Gehirn eine Art Biologischer Computer von zwar sehr hoher, aber doch endlicher Komplexität sei, welcher im Gegensatz zum handelsüblichen Von-Neumann-Computer (seriell) halt massiv parallel verschaltet ist.

neurons-877576_1280

Ausserdem ist die biologische Art der Datenverarbeitung noch durch etwas gekennzeichnet, dass ich persönlich gerne als eine Art “weicher Informationsverarbeitung” bezeichne. D.h., ausser 0 und 1 gibt es da sozusagen noch gewisse “Zwischentöne” und “Schattierungen”, was u.a. daran liegt, dass (Rechen-)Funktionen bis zu einem gewissen prozentualen Grad approximiert werden, aber nicht immer 100%ig eindeutige Werte liefern, was in der Natur auch nicht weiter schlimm bzw. gar nicht nötig ist. Stattdessen resultiert daraus eine hohe Robustheit und Fehlertoleranz, welche für einen biologischen Organismus in einer sich ändernden und potentiell gefährlichen Umgebung überlebenswichtig ist.

neurons-582050_1280

Aber (um wieder auf den Kern zurückzukommen) auch wenn also das große Ganze für uns also weder im biologischen noch im computational Bereich sichtbar ist, so sind einzelne Teilkomponenten des Systems auf der mikroskopischen (bzw. neuronalen) Ebene bereits sehr gut untersucht und lassen sich bereits grundlegende Mechanismen der Informationsprozessierung sowie deren physiologisches Substrat recht gut erkennen, charakterisieren und modellieren, d.h., in Computer-Algorithmen konkret anwenden.

Das ist das, was in dem Artikel als schwache KI bezeichnet wird. Und auch, wenn der Begriff für meinen Geschmack immer noch ziemlich miss-leading ist, so verfügen wir doch bereits über ein größeres Sammelsurium von Algorithmen (Expertensysteme, Artificial Neural Networks) mit denen sich einzelne kognitive Funktionen sehr gut (auf dem Computer) nachbilden lassen, wie z.B.

- Lernen und vergessen / Gedächtnis

- Selbstorganisation (einem biologischen Gehirn wird kein Programm “eingeimpft” sondern letzteres entwickelt sich von selbst während der Ontogenese)

- Klassifizierung und Muster-Erkennung (z.B. Handschrift-, Sprach- und Bilderkennung wie etwa Gesichtserkennung beim “elektronischen Pförtner”)

- Filter, wie zB. Kantendetektion und Objektsegmentierung (Erkennen zusammenhängender Objekte) im Bereich “vision”

- Assoziativ-Speicher-Matrix (Bilder-Gedächtnis)

- Generalisierung (also das man nicht alle möglichen Permutationen des einmaleins auswendig lernt, sondern das Regelwerk dahinter versteht, verinnerlicht und auf neue Aufgabenstellungen anwenden kann)

- Regel und Merkmals-Extraktion, auch aus nicht-periodischen oder chaotischen Zeitreihen von Prozess-Samples oder sensorischem Input

- Steuerungsaufgaben in schnellen rückgekoppelten (“fast feedback loop”) Anwendungen, wie etwa dem Balancieren eines vollen Eimers auf einem Besenstiel oder Segway; auch komplexe Kontrollaufgaben wie Anaesthesie-Überwachung

- Prognosen, zB. von Aktienkursen oder anderen komplexen Prozessdaten

Dazu möchte ich der Vollständigkeit halber noch folgende Eigenschaften erwähnen bei denen es sich allerdings nicht unmittelbar um kognitive Funktionen handelt, nämlich

- Modellierung biologischer Informationsverarbeitungsprozesse

- Mathematische Tools, z.B. prinzipal_component- od. principal_plane- Analyse, lösen nicht-linearer Gleichungssysteme, Approximation n-p-harter Probleme

Aber das nur am Rande. Bezügl. der vorgenannten kognitiven Funktionen ist jedenfalls festzuhalten, dass all dieses Tasks sind, die Computer(-Programme) normalerweise entweder gar nicht oder nur sehr unzureichend können, biologische Systeme aber erstaunlich gut und besser und schneller als jeder Computer (weil sie halt wie schon gesagt massiv parallel arbeiten).

artificial-intelligence-2228610_1280

Bislang kann die Wissenschaft jede dieser kognitiven Funktionen für sich in einzelnen, speziell trainierten Neuronalen Netzen abbilden, aber noch nicht als Ganzes oder so, dass das Ding plötzlich anfängt ein Bewusstsein zu entwickeln. Das liegt meiner Meinung auch unter anderem an einer ungeeigneten Herangehensweise und daran, dass im Rahmen einer gewissen Schachblindheit quasi der Wald vor lauter Bäumen nicht gesehen wird. Das hat auch u.a. etwas damit zu tun, wie unser Wissenschaftsbetrieb auf ökonomischer Ebene funktioniert. Vereinfacht gesagt wäre ein WIssenschaftler ziemlich dumm, sich offiziell etwas als Ziel zu setzen oder vorzunehmen, was er mit ziemlicher Sicherheit nicht hinbekommen wird (ausser er wäre ziemlich vermessen und größenwahnsinnig). Stattdessen such man sich lieber Teilbereiche und klar abgegrenzte Teilaufgaben, bei denen von vorn herein klar ist, dass etwas konkretes dabei rauskommen wird und ein Erfolg auf jedenfall garantiert ist und was sich vor allem auch gut experimentell untersuchen und messen lässt, wie etwa einfache Reiz-Reaktions-Schemata in sensorischen Disziplinen. Ich stimuliere hier einen Rezeptor und messe dort, wo ein Neuron quasi daraufhin klingelt. Deswegen sind auch bereits alle sensorischen, sinnesphysiologischen Bereiche wie Vision, Audio, Somatosensorik und Olfaktorik (sehen, hören, tasten, schmecken und riechen) auf der physiologischen Ebene aber auch teilweise schon auf den nachgeschalteten Hirn-Pathways bereits relativ gut (wenn auch unterschiedlich gut) erforscht und charakterisiert. Aber ein renommierter Wissenschaftler wird eher nicht seinen guten Ruf riskieren, indem er sich die Schaffung eines Bewusstseins bzw. eines Computerprogramms welches echtes Bewusstsein entwickelt, auf die Fahnen schreibt, mit einer hohen Wahrscheinlichkeit spektakulär zu scheitern.

Insofern sind wir also bislang noch relativ sicher und meilenweit davon entfernt dass morgen Skynet die Weltherschafft übernmmt und versucht, die Menschheit auszulöschen oder zu versklaven :)

Es könnte allerdings sein, das sich welche mit einer hinreichend großen Hybris (oder einem sehr guten Budget) dennoch daran versuchen und einer von ihnen durch Glück oder Zufall den richtgen Ansatz findet und die ganzen Puzzleteilchen richtig zusammensetzt. Insofern snd wir m.E. nicht wirklich sicher in dem Sinne, das es auf jedenfall noch einer jahrhundertelangen Forschung und Technologie-Entwicklung bedarf, sondern die Mittel dazu (zB. leistungsfähige Computer und das erwähnte Sammelsurium von kognitiven Algorithmen) sind im Grunde bereits jetzt schon vorhanden vorhanden, man versteht es nur bislang noch nicht, sie in einem sinnvollen Gesamt-Zusammenhang zusammenzusetzen.

brain-1845944_1280

In den 80er Jahren des letzten Jahrhunderts wurde verstärkt dahingehend Kritik geäussert, daß die KI-Forschung nicht halten konnte was sie ursprünglich versprocen hat. Dabei muss man aber etwas differenzieren.

Es gibt im KI-Bereich zwei grundlegende Ansätze bzw. “Schulen” die historisch gesehen miteinander konkurrieren.

1. Der klassische KI-Ansatz bzw. Expertensystem: Diese arbeiten “symbolisch” d.h., die Inhalte und Zustände des Systems sind jederzeit und an allen Stellen für den Menschen und in einer für Menchen verständlichen Art und Weise einsehbar (eben “symbolisch”). Bei diesem Ansatz versucht man die KI in einem für Computer typischen bzw. originären Environment, also in Terms of “Speicher” , “CPU” und “digital” zu etablieren und abzubilden, also sich quasi an die typischen Gegebenheiten des Computers anzupassen.

2. Der “Neural Network”-Ansatz: Hier versucht man, sich an dem physiologischen Substrat bzw. den Gegebenheiten von biologischen Systemen zu orientieren und die dortigen Prozesse in einem mathematischen (vereinfachten) Modell zu erfassen und zu prozessieren, indem zB. die bereits in den 1940er Jahren von Donald Hebb beschriebene sog. “Hebbsche Synapse” in Form einer Formel zur Darstellung und Berechnung von prä- und post-synaptischer Aktivität zum Einsatz kommt und auch die Architektur bzw. die Verschaltung der Neuronen untereinander in modellhafter Form wiedergegeben wird (z.B. topologisch, d.h. in “nachbarschaftserhaltender” Form, was man auch von biologischen Systmen her kennt). Auch das “Lernen” bzw. die selbstorganisierenden Prozesse während der Ontogenese werden hier in vereinfachter Form integriert bzw. modelliert. Die Informationsverarbeitung selbst läuft komplett subsymbolisch, d.h., eine Introspektion einzelner Teilkomponenten des Systems ist zwar möglich indem man sich jederzeit den Aktivierungszustand eines einzelnen Neurons anschauen kann, aber das ist halt nur eine Zahl, die für sich genommen weiter keinen Sinn ergibt.

a-2729794_1280

Die eigentliche Funktion ist auf der Gesamtheit aller Neuronen (bzw. des Netzes) abgebildet und sozusagen gleichmässig über diese verteilt (“distributed”), wobei das Netz aber nicht “weiss” was es da tut, sondern einfach nur vor sich hintickert. Der höhere “Sinn” ergibt sich aus der Interpretation bzw. der Fragestellung durch den Menschen und setzt voraus, dass das Netz entsprechend der zu lösenden Aufgabe (wie etwa “Mustererkennung”) designed und vor allem trainiert wurde und der Mensch die Antwort des Netzes in geeigneter Weise darstellt bzw. mit geeigneten Mitteln (z.B. graphische Visualisierung, Labels) in eine symbolische d.h. für Menschen verständliche (und sinnvolle) Form übersetzt. So könnte etwa ein Netz für Aktienkurs-Prognosen mit Datensamples aus Wirtschaft und Politik trainiert worden sein und genutzt werden um aufgrund von tagesaktuellen Samples eine Antwort zu liefern welche den morgigen Kurs einer bestimmten Aktie vorhersagt. Die Idee dabei ist, dass in den Samples nicht nur die groben wirtschaftspolitischen Tagesereignisse, wie sie auch in den Wirtschaftsnachrichten stehen, enthalten sind, sondern vor allem auch alle jene unendlich feinen, detaillierten und komplexen Einflüsse, die ständig und überall stattfinden und wirken, die aber aufgrund ihrer Feinheit und Komplexität niemals von Menschen aufgedröselt und zurückverfolgt werden könnten, aber dennoch einen relevanten Einfluss auf das Börsengeschehen ausüben.

Etwa, wenn ein bekannter World-Economics-Influencer (nennen wir ihn hier mal “Donald T.” :) ) etwas bestimmtes zu Abend gegessen hat und davon Blähungen bekommt und missgelaunt einen Tweet von sich gibt, der die Börsen erzittern lässt. Wobei dieses Beispiel noch fast zu einfach nachzuvollziehen wäre, es geht eher noch darum, welcher Koch am Donnerstag abend immer Dienst hat im weissen Haus und bevorzugt scharfe Speisen kocht, so das sich dieses Muster durchaus öfters mal wiederholen könnte. Kein Mensch wird jemals auf diesen Zusammenhang kommen oder ihn aufdröseln können, aber trotzdem ist er wirksam und beeinflusst die Kurse, ist also gewissermaßen irgendwie in den Kursen enthalten (vgl. Chart- vs. fundamentale Analsyse von Börsendaten) und bildet ein feines Muster innerhalb der Börsendaten-samples.

Der Punkt ist, neuronale Netze sind quasi mathematische Tools, mit denen man solche Pattern gezielt aufspüren kann, wobei das Netz selbst als auch der Betreiber dabei aber gar nix von Trumps Koch weiss und auch niemals etwas von dessen Befindlichkeiten in diesem Zusammenhang erfahren wird – oder in anderen Worten: es arbeitet völlig subsymbolisch ! Desweiteren ist noch charakteristisch, dass der Zustand des Netzes, genauer gesagt die Aktivierungszustände in den einzelnen synaptischen Verbindungen der Neurone untereinander, SOWOHL den Algorithmus (welcher quasi gelernt wurde) ALS AUCH die zu prozessierenden Daten quasi gleichzeitig beinhaltet. Letzteres klingt zwar zunächst etwas schräg, kann man sich aber damit veranschaulichen, das auch menschliche Gehirne, obwohl strukturell gleich oder ähnlich, völlig unterschiedliche Fähigkeiten oder Regeln (=Algorithmen) gelernt haben könnten und damit Daten prozessieren könnten: Der eine kann zB. ein Musikinstrument spielen, der andere kann chinesisch als Fremdsprache sprechen und verstehen; beides setzt ein umfangreiches Training voraus. Auch die Sache mit der Detektion der feinen subsymbolischen Börsen-Pattern kann man sich vielleicht so veranschaulichen, dass ein alter und mit allen Wassern gewaschener Broker etwa aufgrund seiner langjährigen Erfahrung und Intuition imstande ist auf durch Donald T.s Verdauung resultierende feine Pattern sehr frühzeitig zu reagieren und diese viel eher als der junge und unerfahrene Grünschnabel erkennt, auch wenn er sich nicht konkret bewusst ist, dass das was mit Donald T. zu tun hat.

artificial-intelligence-3382507_1280

Jetzt aber zurück zum eigentlichen Thema: In den späten 1960ern bzw. frühen 1970er Jahren erfuhr die erstere Schule (der klassische KI-Ansatz) einen großen Hype’: Der Computer verbreitete sich erstmalig flächendeckend als Wundermaschine, der Mensch flog zum Mond und es herrschte ein großer Optimismus bezüglich allem Sciencefiction-mässigen. Man wähnte sich quasi unmittelbar kurz davor, dem Computer KI einzuhauchen.

Demgegenüber erfuhr die zweite Schule, also der biologisch orientierte NeuralNetwork-Ansatz einen herben Rückschlag, als Marvin Minsky (*der* KI-Papst vom MIT) in den 60ern einen mathematischen Beweis führte, dass ein damaliger primitiver Vorläufer von neuronalen Netzwerk-Algorithmen (NNs), nämlich das sogenannte einlagige Perzeptron (mit nur einer Zwischenschicht) nicht imstande sei, die X-Oder-Funktion völlig korrekt abzubilden. Das relativierte sich zwar sehr schnell dahingehend, das nachfolgende und insbesondere merhschichtige Netze sher wohl dazu imstande waren, aber der PR-mässige Schaden war bereits angerichtet: Fortan führte die zweite Schule eher eine Art Schattendasein, was sich erst in den 80er Jahren änderte.

Mittlerweile hatte man nämlich gemerkt, dass die erste Schule, also der klassiche KI-Ansatz, nicht mal ansatzweise das liefern konnte, was man sich in den 60ern davon erhofft hatte wie etwa eine echte KI, iow., der Hype war vorbei.

Umgekehrt merkte man aber, dass die Schule der neuronalen Netze, die sich mittlerweile fast unbemerkt bereits in der Finanzwirtschaft etwa für Aktienprognosen (Hecht/Nielsen, Rumelhardt/McClelland Backpropagation) etabliert hatte und zudem Anfang der 80er noch einen neuen Typ von selbstorganisierenden Netzen (Kohonen, den ich übrigens schon mal persönlich getroffen habe) hervorbrachte, zu recht erstaunlichen Leistungen imstande war, namentlich zu solchen, die man normalerweise von biologischen Systemen her kennt, die aber für einen Computer (obwohl dieser wahnsinning schnell rechnen kann) nahezu unmöglich waren. Ich habe das ja schon im vorigen Abschnitt detailliert ausgeführt. Heutzutage bilden sie die Grundlage in allen Bereichen, wo es um eher menschenähnliche Leistungen geht, von Mustererkennung aller Art (HandSchrift, geprochene Sprache, Bilder) bis hin zu selbstfahrenden Autos und dem aktuellen “Deep Learning” – all das basiert auf NNs.

web-3706562_1280

Demgegenüber haben die klassischen KI-Systeme eine Nische gefunden als Expertensystem, wie sie etwa im Bereich der medizinischen Diagnostik eingesetzt werden. Dort sind sie zwar auch recht nützlich, aber niemand macht sich mehr Illusionen darüber das dies etwas mit echten kognitiven Leistungen vergleichbar derer von biologischen Systemen zu tun haben könnte, sondern eher auf computertypischen Fähigkeiten wie schneller und gezielter Zugriff auf bestimmte Daten innerhalb von Datenbanken basiert – jedes Kind könnte sowas programieren oder zumindest die typische Arbeitsweise eines Computers dahinter erkennen und als “schwache KI” identifizieren.

Jedenfalls denke ich, dass das, was Anfang der 80er Jahre kritisiert wurde, sich auf diese historischen Umstände bezieht oder daherrührt, wobei sich allerdings an der Grundaussage, dass wir derzeit von einer echten bzw. “starken” KI noch meilenweit entfernt sind, dadurch nicht viel ändert.

case