Keil-Slawik, R..: Das kognitive Schlachtfeld, in: Irrgang, B. /Klawitter, J. (Hrsg.): Künstliche Intelligenz. Wissenschaftliche Verlagsgesellschaft, Stuttgart 1990
Keil-Slawik hat einen Lehrstuhl für Informatik und Gesellschaft in Paderborn. Er hat das Buch von Rolf gelesen und verstanden. Auf die Frage nach Widersprüchen von Keil-Slawik sagt Rolf: "Wenn Keil-Slawik spricht, merke ich, dass er es richtig meint, aber er spricht nicht richtig. Der Widerspruch liegt auf der sprachlichen Ebene".
Die Auseinandersetzung um die Möglichkeiten und Grenzen der künstlichen Intelligenz ist durch die Gegenüberstellung von Mensch und Maschine geprägt. Mit Argumenten, die häufig mit der Phrase 'im Prinzip...' beginnen, wird für und wider die potentiell mögliche Leistungsfähigkeit der Maschinen gestritten. Ein solcher Streit bietet zwar viele nützliche Hinweise und interessante Überlegungen - Vgl. u.a. den Literaturüberblick in Keil-Slawik, R.: Von der Mechanisierung des Kopfes zur Oekologie des Geistes. Ein Literaturüberblick zu anthropologischen Aspekten menschlicher und künstlicher Intelligenz. Erscheint in M. Stöhr/H. Wendt (Hrsg.): Menschliche und künstliche Intelligenz. Frankfurt 1990. - doch ist es letztlich unumgänglich, solche Im-Prinzip-Argumente durch
tatsächliche zu ersetzen (80).
Der Kernpunkt meiner Argumentation ist (...), dass man nicht Mensch und Maschine vergleichen kann, sondern in einer gegebenen Situation immer nur die Möglichkeiten und Fähigkeiten der
Konstrukteure einer Maschine mit denen der Benutzer. (80)
Unterscheidung zwischen herkömmlichen Ingenieurprodukten und Software unter vier Gesichtspunkten: Betriebszustände, Funktionalität, Rückbezüglichkeit und Theoriebildung. (81f)
Betriebszustände:
Ingenieurmässig erstellte Produkte können entweder als diskrete, analoge oder als hybride (...) Systeme klassifiziert werden. Für analoge Systeme (...) gibt es heute ausgereifte Hilfsmittel, wie zum
Beispiel die Mathematik kontinuierlicher Funktionen, mit deren Hilfe es dem Ingenieur möglich ist, sicherzustellen, dass keine unvorhergesehene Zustände auftreten (...). Mit der Entwicklung von
Softwaresystemen jedoch, so argumentiert David Parnas, haben wir zum ersten Mal diskrete System geschaffen, die eine ungeheure Vielzahl von Betriebszuständen aufweisen.
Funktionalität:
Traditionell bestehen ingenieurmässige Probleme darin, neue technische Lösungen für bereits bekannte Funktionen zu entwickeln. (...) Bei der Softwareentwicklung jedoch müssen die funktionellen
Anforderungen überhaupt erst ermittelt werden. Dabei spielen zwei Faktoren eine besondere Rolle: der Mangel an allgemein anerkannten Standards und die Individualität der Akteure. (...) Die
Funktionalität eines Softwaresystems ist weniger das Ergebnis einer technischen Analyse als vielmehr das Resultat von Verhandlungen und Vereinbarungen (81).
Rückbezüglichkeit:
Ausgangspunkt für die Softwareherstellung sind bestehende Regelungen, Verfahren und Arbeitsabläufe. Mit der Einführung eines Softwaresystems ändern sich diese aber grundlegend und damit auch das Verhalten der Menschen. Dadurch werden viele Annahmen, die der Entwicklung zugrunde gelegt worden sind, hinfällig. Die Folgen sind, dass zum einen das der Entwicklung zugrundegelegte Modell nicht mehr im vollen Masse gültig ist und zum anderen, dass durch die
veränderte Situation neue Anforderungen entstehen, die erste jetzt in ihrer Tragweite und mit all ihren Konsequenzen erkannt werden können (81f).
Theoriebildung:
Programmieren kann nach Peter Naur (...) nicht in erster Linie als Produktion von Programmen und zugehörigen Texten betrachtet werden, sondern als Prozess, bei dem die Programmierer im Laufe der
Systementwicklung eine Theorie darüber entwickeln, wie die vorhandenen Probleme durch die Programmausführung gelöst werden können. Diese Theorie ist nur in den Köpfen der Entwickler
vorhanden: 'Das Wiederherstellen der Theorie lediglich aufgrund der Dokumentation ist gänzlich unmöglich'. In tradtionellen Ingenieurbereichen sind aber die theoretischen Grundlagen bereits
vor der Produktentwicklung erarbeitet (82). Das gilt umgekehrt auch für die Benutzer, die sich die
Systemrationalität, also die Theorie der Entwickler erschliessen müssen. Das verlangt nach Ausdrucksmöglichkeiten. Etwa die Hälfte des Codes praktisch eingesetzter Software besteht daher aus Benutzungsschnittstellen, Fehlermeldungen, Ausnahmebehandlungen und Kommentierungen, Aspekten also, die der Verständiung dienen und nicht der algorithmischen Verarbeitung durch den Rechner. Diese Aspekte sind weder aus formalen Qualitätseigenschaften ableitbar noch sind sie formal 'überprüfbar' (83). Grundsätzlich kann man Software auch als eine Ansammlung von
Plänen auffassen, denn die Entwickler legen fest, was zur Laufzeit des Programms wie, in welcher Reihenfolge und unter welchen Umgebungsbedingungen ausgeführt werden soll. Mit dieser Sichtweise
lassen sich (...) viele Anknüpfungspunkte an die traditionelle Ingenieurwissenschaft angeben, denn Planungsprozesse offenbaren auch dort dieselben Probleme, die man aus der Softwareentwicklung kenn:
Kosten werden nicht eingehalten, Termine werden überschritten, das Ergebnis entspricht oft nicht den Vorstellungen der Auftraggeber und der Betroffenen und nicht alle Ergebnisse, die die Ausführung der Pläne und ihr Ineinandergreifen beeinflussen, können vorhergesehen werden (83).
Das Pearl-Harbor-Syndrom: Seit dem Überfall der Japaner auf den Hafen von Pearl Harbor, bei dem die amerikanischen Pazifikflotte fast vollständig zerstört wurde, ist die Angst, dass sich ein
solcher Vorfall auch auf amerikanischem Territorium wiederholen könnte, zu einem treibenden Element der militärtechnologischen Entwicklung in den USA geworden. Pearl-Harbor steht für die Folgen,
die durch ungenügende Information und mangelnde Vorwarnung enstehen können (83f).
Die Gegenmassnahmen erfolgen in fünf Phasen.
Aufbauphase: Enwicklung von computergestätzten Frühwarnsystemen und Radarketten.
Phase II: Integration von Frühwarnsystem und Einsatzplanung.
Phase III: Integration der Frühwarn- und Befehlsysteme mit den Kommunikationssystemen.
Phase IV: Integration der Aufklärungsinformation der Geheimdienste
in die bisherigen Komponenten (Command, Control, Communication and Intelligence).
Phase V: Zentrales, integriertes Schlachtenführungsssytem (SDI, Strategic Defense Initiative).
Dafür sind 'revolutionäre' Techniken nötig => KI. (83ff).
Um die Tauglichkeit von KI-Systemen für militärische Zwecke demonstrieren und die dabei auftretenden Probleme studieren zu können, werden in dem Forschungsprogramm drei Anwendungen
beschrieben (...) ein autonom operierendes Landfahrzeug für das Heer, einen automatischen Co-Piloten für die Luftwaffe und ein Schlachtenführungssystem für die Marine (88). Da wissensbasierte Systeme schwierig zu verstehen und zu überprüfen sind und der Aufwand zur Aufstellung von x-tausend Regeln enorm ist, lautet daher die 'ballistische' Lösung (vgl. Eintrag unter Problemlösung /Anm. ot), den Wissensaquisitionsprozess zu automatisieren, indem Expertensysteme zur Entwicklung von Expertensystemen entwickelt werden (90).
Damit handelt man sich jedoch Probleme ein.
Man weiss in der Softwaretechnik, dass es für die Ingenieure in der Regel nicht möglich ist, grössere Programmteile, die von einer Maschine generiert worden sind, zu verstehen und zu überprüfen. Die
vielen Möglichkeiten den Programmtext informell anzureichern, zum Beispiel durch Kommentare oder eine geignete Namensgebung für Prozeduren, Regeln und Daten, gehen bei der automatischen Erzeugung
verloren. Die Konsequenz lautet hier, bei Änderungen die manuell
erstellten Teile vom Menschen ändern zu lassen und, soweit es die
anderen Teile betrifft, diese grundsätzlich neu zu generieren
(91).
Umgekehrt gibt es kein einziges praktisch eingesetztes
Softwaresystem, das nur unter Bezugnahme auf ein geschriebenes
Dokument entwickelt worden wäre; dies ist praktisch nicht machbar
(ebd.).
Abhilfe erhofft man sich von Expertensystemen, die die natürliche
Sprache verstehen verarbeiten können. Doch der Begriff
'Verarbeitung natürlicher Sprache' ist bei Softwaresystemen
irreführend, denn Computer erfüllen keine der für den Erwerb der
natürlichen Sprache notwendigen biologischen und sozialen
Voraussetzungen. Sie sind Produkte von Enwicklern und Ingenieuren
und können daher immer nur die Kreativität ihrer Schöpfer
widerspiegeln (92).
Da Computer also weder über Lebenserfahrung verfügen noch über
gesunden Menschenverstand, kann die Bedeutung von Sätzen immer nur
vor dem Hintergrund der im Rechner vom Menschen angelegten
Strukturen und Objekte erschlossen werden (ebd.).
Es ist nicht die natürliche Sprache, die für sich allein Bedeutung
hat; es ist die Verknüpfung mit unserem Handeln in der jeweiligen
Situation. Das Wort erlangt Bedeutung, indem es zur Tat wird (93).
Die Stärke des Menschen besteht darin, jeweils situationsbedingt
flexibel und angemessen reagieren zu können und dabei auch - falls
dies erforderlich sein sollte - gezielte Regelverletzungen zu
begehen (...). Seine Schwäche aber besteht darin, dass er komplexe
Zusammenhänge und komplizierte Prozesse mit all ihren
Wechselwirkungen und Nebeneffekten nicht auf Anhieb durchschauen und
vorherbestimmen kann (93). Wer kann es, wenn es der Mensch nicht
kann? Die Maschine kann nichts durchschauen, auch die einfachsten
Zusammenhänge nicht! Das 'nicht auf Anhieb durchschauen' können, ist
keine Schwäche des Menschen, sondern eine Herausforderung für ihn
und nur für ihn!
Akteure sind oft nicht in der Lage, für ihr Verhalten
enstprechende Regeln abzugeben. Das heisst, sie wissen mehr als sie
explizit beschreiben können. Daraus folgt, dass
1. Expertise nicht vollständig in Regeln erfasst und beschrieben
werden kann,
2. komplexe Systeme nur funktionieren, wenn die Benutzer mehr als
nur das Vorgeschriebene tun
3. verantwortliches Handeln meist Regelverstösse beinhaltet.
Verantwortung, Pflicht, Motiviation und Intuition sind Aspekte, die
weder durch Regeln noch durch Vorschriften eigefangen werden können.
Diese Grundsätze haben auch für Organisationen ihre Gültigkeit:
durch Dienst nach Vorschrift können sie an den Rand des
Zusammenbruchs gebracht werden.
Softwaresysteme im allgemeinen wie auch KI-Systeme im besonderen
mach aber grundsätzlich keinen Dienst nach Vorschrift (94).
Der Traum, dass der Mensch etwas hervorbringt, was nicht nur in
Teilbereichen, sondern im Ganzen besser ist als er selbst, ist
nichts anderes als die Suche nach einem kognitiven Perpetuum mobile
(Vgl. dazu die Ausführungen in Keil-Slawik, R.: Das kognitive
Perpetuum mobile. Die Rolle von Computern mit künstlicher
Intelligenz in der militärtechnologischen Enwicklung. In: G.
Bechmann/W. Rammert (Hrsg.): Technik und Gesellschaft. Jahrbuch 5.
Frankfurt 1989).
Maschinen und Softwaresysteme verkörpern immer nur den Kenntnisstand
ihrer menschlichen Schöpfer. Es gibt keine Maschinenevolution;
Maschinen leben nicht und lernen nicht aus Fehlern. Eine Maschine
wird von Menschen für einen bestimmten Zweck entworfen, gebaut und
benutzt. Ihr Wert besteht darin, dass sie sich auf eine
wohldefinierte und voraussagbare Art und Weise gemäss des gesetzten
Zweckes verhält (95).
KI-System können (...) nur dann unsere Sicherheit erhöhen, wenn
wir bezüglich unserer Entscheidungsmöglichkeiten insgesamt weniger
abhängig sind von der Technik (ebd.)
Die Verantwortung trägt der Mensch. Er kann aber nur
verantwortlich handeln, wenn er auch Wahlmöglichkeiten hat, wenn er
entscheiden kann (ebd.) Vgl. von Förster!
Mit der Übernahme von Entscheidungen vertauschen wir die Rolle des
'unbeteiligten Beschreibers' mit der des 'mitfühlenden Beteiligten',
wobei das fühlen hier wörtlich zu nehmen ist. Ängste, Wünsche,
Hoffunungen und Ideale sind ein wesentlicher Bestandteil unserer
Intelligenz, genauso wie Schmerz und Leid; ohne sie wäre sie
sinnlos.
Krieg ist kein kognitives Ereignis; er ist die Zerstörung von Leben.
Wenn wir das mitfühlen, können wir Verantwortung übernehmen (ebd.)
Soziale Systeme sind vertrauensbasierte Systeme, wissen können wir
etwas immer nur im nachhinein. Wir können unsere Verantwortung nicht
als vorgefertigte Entscheidung in Maschinen verlgen - auch nicht in
angeblich intelligente, denn KI-System sind unverantwortlich; sie
sind bestenfalls berechnend (ebd.)
Im-Prinzip-Lösung, Externes Gedächtnis, Funktion, Programmieren, Software, Entscheidung, Modell, Künstliche Intelligenz, Problemlösung, Mensch, Expertensystem, Verantwortung, Kognition,