Künstliche Intelligenz (KI) im Sinne der Fähigkeit von Informationsverarbeitung kann in unserem Modell analog zum Handlungszyklus des Menschen in den Reichen „RESSOURCEN“ und „REGELN“ modelliert werden1. Die Instanzen haben dabei eine entsprechende technische Ausprägung. Am Beispiel eines autonomen Transportsystems können die Eigenschaften der Instanzen und der Prozessphasen deutlich gemacht werden. Solange wir den Systemen der künstlichen Intelligenz keine Persönlichkeit zubilligen und unsere eigenen Wertevorstellungen implementieren, leitet sich im Unterschied zum Menschen die Bestimmung des Systems als erste Instanz des Regelreiches direkt aus den implementierten Wertehierarchien ab. Die Reiche der EXISTENZ und der PERSÖNLICHKEIT müssen nicht modelliert werden.
Bestimmungsinstanz
Die Bestimmung ist in unserem System die höchste Instanz. Sie speichert die Aufgaben und steuert die Aktivitäten des Systems auf höchster Ebene. Dabei verknüpft sie die vom Menschen implementierten Wertehierarchien mit der Aufgabenliste und ihrer Priorisierung. Sie erkennt die Aufgabenerfüllung und entscheidet über Aktivität und Passivität.
Herausforderungsinstanz
Die Herausforderungsinstanz verwaltet alle anstehenden Transportaufgaben und ihre inneren Bedingungen in Form von Prioritätslisten. Sie organisiert den Regelablauf und die Aktivitäten in Störungs- und Konfliktsituationen. Dazu verwaltet sie eine priorisierte Aufgabenliste wie z.B.:
Energiebedarf decken
Systemdiagnose
Wartungszyklen durchführen
Umweltanalyse
Transportaufgaben durchführen
und eine Wertehierarchieliste:
Management von Störungs- und Konfliktsituationen
Schutz von Menschen
Schutz von Infrastruktur
Selbstbewahrung
Konfliktvermeidung und Sicherheit
Zeit- und Energieoptimierung
Jede Aufgabe und jeder Wert wird in entsprechende Unteraufgaben und Teilwerte zerlegt (Kollosionsschutz, Energiemanagement, Wetteranalyse, Verkehrsaufkommen …)
Im aktiven Pfad dienen diese Bausteine der Pro-Contra-Analyse in Vorbereitung der in der Bedeutungsinstanz zu ermittelnden Handlungsoptionen.
Bedeutungsinstanz
Die
Bedeutungsinstanz verwaltet die Regelsätze, die zur Verknüpfung der
in der Werteinstanz vorhandenen Transport- und Schutzaufgaben mit der
Realität der Umgebung erforderlich sind. Über sie werden
entsprechende Anfragen an die Wissensinstanz formuliert. Die
Erwartung an die Wissensinstanz wird verwaltet, d. h., die Auswahl
der relevanten permanent zu überwachenden Wissensanteile, die die
Voraussetzung der Aktivitäten bilden, wird organisiert.
Auf
Basis der in der Werteinstanz organisierten Prioritäten werden im
aktiven Pfad mögliche Handlungsoptionen entworfen.
Wissen
In der Wissensinstanz wird ein aktuelles Abbild der internen Zustände und der Umgebung des Systems gespeichert. Die Struktur der Wissensinstanz ist auf die Zugriffe von der Bedeutungsinstanz her optimiert. Es werden z. B. die eigene Position und die Positionen der Infrastruktur und anderer bewegter Objekte gespeichert und prognostiziert. Es werden Geschwindigkeiten verwaltet und Prognosen der Veränderung der Umwelt mit Wahrscheinlichkeiten versehen. Der innere Zustand des Systems wird im Sinne der Konsequenzen auf die Bedeutungsinstanz dargestellt. Im aktiven Pfad werden in der Wissensinstanz die in der Bedeutungsinstanz entwickelten Handlungsoptionen auf ihre Realisierbarkeit geprüft und einer Entscheidung zugeführt.
Botschaft
Die Botschaftsinstanz bereitet die Informationen der Sensoren so auf, dass sie von der Wissensinstanz verwendet werden können. Sie prüft Gültigkeit und Plausibilität der Informationen und verwaltet im aktiven Pfad logische und zeitliche Anwendungsregeln der Aktoren zur Umsetzung der Handlungsszenarien.
Fakten
Die Fakteninstanz organisiert die Ansteuerung aller Aktoren und nimmt die Signale der Sensoren entgegen. Elementare Aufgaben wie Lageausrichtung, Geschwindigkeitseinhaltung, Positions- und Richtungssteuerung erfolgen hier.
Die technische Organisation der Instanzen ist jeweils separat, voneinander unabhängig und ggf. redundant ausgeführt. Die eindeutig zugeordneten Aufgaben der Instanzen erlauben eine effiziente und sichere Implementierung auf jeweils entsprechenden Plattformen (Neuronale Netzwerke, State-Machine, Turingmaschine) und die saubere Verwaltung ihrer Schnittstellen. Entsprechend der Zuordnung der Fakteninstanz und der in ihr durchgeführten Handlungen ist es wichtig, auf die Qualität der „6“ als der „3“ des handlungsorientierten Bereiches des Handlungs- und Wahrnehmungszyklus hinzuweisen. Die Handlung wird hier konkretisiert, aber nicht blind durchgeführt, sondern ist Teil eines Feldes von Änderungs- und Abbruchoptionen, die sich auf die Handlungsumgebung beziehen. Technisch bedeutet das die Implementierung von Fehlerroutinen, die Berücksichtigung von Verkehrssituationen, Wetterbedingungen, undefinierten Kommunikationswegen, Verbindungsqualitäten, Virenangriffen usw.
Zusätzlich zur numerologisch vorgegeben Triadenlogik bringt die Organisation in Instanzen den Vorteil, dass die im aktiven Pfad relevanten Elemente in der gleichen Instanz organisiert werden wie die zugehörigen passiven Elemente. Ein Betriebssystem sorgt dafür, dass die Instanzen verknüpft werden und wie im Handlungszyklus des Menschen die 12 Phasen der Handlung, Wahrnehmung, Motivation und Bewertung zyklisch in aufsteigender Reihenfolge an den Instanzen entlang durchgeführt werden. In einem speziellen Inversionsmodus wird erkannt, dass eine geplante Handlung nicht durchgeführt werden kann und abgebrochen werden muss. Das Verfahren der Abarbeitung folgt so eng dem Handlungszyklus des Menschen, dass es hier nicht nochmals dargestellt wird2. Der Unterschied des hier beschriebenen künstlichen Handelns zum menschlichen Handeln besteht darin, dass im Reich der REGELN bei Motivation und Bewertung keine echten Empfindungen zum Einsatz kommen können. Die Aufgabe der symbolischen Verdichtung und energetischen Bewertung von Wissen muss eine mehrwertige Logik übernehmen, die Wissen auf Prioritäten der Aufgaben beziehen kann. Die Komplexität dieses Reiches kann von künstlicher Intelligenz bisher nur für einfache Aufgaben nachgebildet werden. Auf eine vollständige Simulation einer menschlichen Person unter Einbeziehung ihrer Personalität und der Personalität anderer oder gar der Entscheidung über Werte ist bei den meisten Aufgaben der künstlichen Intelligenz nicht erforderlich oder nicht gewollt. Ihre Simulation wäre hochkomplex und nach diesem Modell auch nicht vollständig möglich, weil die Kategorie des formlosen aber bewussten SEINs nicht konstruiert werden kann. Nach diesem Modell werden sich Mensch und Maschine also auch in Zukunft nicht annähernd gleichen können, weil Selbstbewusstsein nicht automatisch durch hochkomplexe Abbildung von inneren und äußeren Formen entsteht. Künstliche Intelligenz kann sich nicht selbst kennen, weil sie sich nicht selbst abbilden und von sich selbst emanzipieren kann. Ihre Idee lebt nicht als „geistiger Leib“ im Reich der RESSOURCEN, sondern nur als Gedanke in unseren Gehirnen. Sie ist keine Person im Sinne eines selbstbezüglichen Flusses des SEINs. Eine technologische Singularität, in der künstliche Intelligenz sich des Menschen bemächtigt, kann es also nach diesem Weltmodell nicht geben – es sei denn der Mensch verfällt seinen selbstgeschaffenen Dämonen und gibt ihnen sein Leben.
1 Selbstlernprozesse der KI können dabei jeweils den Instanzen zugeordnet werden.
2 Siehe Kapitel 19