4.1. Warum es keine perfekten Expertensysteme geben kann
"Expertensysteme sind wissensbasierte Computerprogramme, die die Leistung menschlicher Experten simulieren sollen; dazu gehören Probleme erkennen, Probleme verstehen, Probleme lösen, den Lösungsweg erklären, die eigene Kompetenz einschätzen." ([Pup88])
Daß ein Expertensystem Probleme haben wird, dieser hochgespannten Definition zu entsprechen leuchtet wohl unmittelbar ein.
4.1.1. Softwaretechnische Probleme
Eine kleine Schlußkette:
Heuristische Verfahren gehören per Definitionen zu Expertensystemen
Heuristische Verfahren versagen per Definitionen in manchen Fällen
-> Expertensysteme versagen per Definitionen manchmal.
Es stellt sich die Frage, wie man die Fälle, in denen das System versagt, erkennen kann und so katastrophale Folgen vermeidet.
Die Systeme versagen im allgemeinen abrupt. Sogenannte \"graceful degradation\" beim Übergang in nicht mehr korrekte Bereiche wird zwar angestrebt, ist jedoch noch nicht verwirklichbar.
Typischerweise wird ein Expertensystem schrittweise programmiert. Das heißt, ein Prototyp mit wenig Regeln, der nur die Standardfälle lösen kann wird erstellt und dann wird die Wissensbasis laufend erweitert, um weitere Fälle zu erfassen. Diese Phase kann Jahre dauern.
Auch im laufenden Betrieb wird häufig die Wissensbasis weiter ergänzt. Hier gibt es das Problem von Seiteneffekten und Inkonsistenzen. Spätestens ab 8000 Regeln sagt man sei ein System kaum noch handhabbar.
Ein Expertensystem ist nie ganz fertig und nie ganz fehlerfrei !
,,Der Unterschied zur traditionellen Software-Entwicklung liegt nicht unbedingt in der Tatsache, daß Fehler vorkommen (das ist immer der Fall), sondern in der Tatsache, daß sie als normale Arbeitsbedingungen des Programmes grundsätzlich akzeptiert werden. Aus diesem Grund scheiden Expertensysteme für den Einsatz in kritischen und gefährlichen Umgebungen aus. Ebenso ist die Einbettung von Expertensystemen in autonome Systeme unzulässig, sofern die Entscheidungen des Systems irreversibel sind. Viele Vorschläge der Anwendung von Expertsystemen im CIM und im militärischen Bereich fallen in diese Kategorie ;
Expertensysteme müssen als riskante und gefährliche Systeme betrachtet werden. ([CB89])
4.1.2. Grundsätzliche Probleme
Wissensgewinnung und Wissensrepräsentation
Neben solchen Problemen wie der Zugänglichmachung von (nonverbalem) Handlungswissen, stellt sich die allgemeine Frage der Formalisierbarkeit von Wissen. Es ist durchaus denkbar, daß es nicht formalisierbare Fähigkeiten gibt.
Ein prinzipielles Problem mit formalen Systemen bleibt jedoch die Tatsache, daß die realweltlichen Bedingungen nur soweit erfaßt werden, wie sie formalisierbar sind und formalisiert wurden. Diese Formalisierung kann nicht perfekt und vollständig sein. Daß heißt, es gibt immer einen Verlust bei der Formalisierung eines Realitätsbereiches. Man spricht von einem Wirklichkeitsverlust, der notwendigerweise mit einer Formalisierung verbunden ist.
Das fehlende Erkennen der eigenen Grenzen
Ein menschlicher Experte hat neben seinem Fachwissen noch allgemeines Wissen über die Welt. Er hat dadurch auch die Möglichkeit die Grenzen seines Fachwissens zu erfassen.
Ein Expertensystem hat kein solches allgemeines Alltags- und Weltwisses und nur einen beschränkten Zugang zur Welt. Deswegen kann es kein Wissen über seine Grenzen haben. Das heißt, es kann nie erkennen, daß es jetzt nicht genug weiß und ,,Hilfe" hinzuziehen müßte, oder nachlesen müßte, wie das ein Mensch tun würde. So hat es medizinische Expertensysteme gegeben (MYCIN) die diagnostizieren auch jemanden mit den Symptomen eines Beinbruchs als bakteriell infiziert, weil das eben die Welt ihres Fachwissens ist. Der Einbau von Alltagswissen in Expertensysteme ist zwar Forschungsgegenstand, doch kann man dieses Vorhaben nicht im vollen Sinn von Alltagswissen ernstnehmen. Ein solches Vorhaben wäre unter anderem aus Gründen der Größe und den oben genannten Gründen von ,,Wirklichkeitsverlust" nicht möglich.
Insgesamt haben Expertensysteme also eine Art ,,Stammtischmentalität": Sie reden auch da noch kräftig mit, wo sie schon längst keine Ahnung mehr haben.
Was Expertensysteme nicht können
* sich in einen Menschen hineinversetzen (man denke an Beratungssituationen)
* kreativ neue Probleme erkennen und neue Lösungen finden
* ihre Kompetenz einschätzen
* fehlerfrei sein
* Probleme lösen, für die Welt- und Alltagswissen benötigt wird
4.2. Warum auch perfekte Expertensysteme problematisch wären
4.2.1. Einsatzinteressen
Expertensysteme sollen Probleme lösen, für die man Experten braucht. Diese Probleme sind häufig durch zunehmende - meist technische - Komplexität entstanden. ( Man denke an AKW Steuerungssysteme ! ) Da Expertensysteme jedoch selbst von hoher Komplexität sind, stellt sich die Frage, ob hier nicht versucht wird mit Benzin zu löschen. Das Problem der Potenzierung von Komplexität bleibt auch bei nahezu perfekten Expertensystemen. Man kann mit solchen Mitteln nicht das Ziel einer einfachen transparenten Technik erreichen.
4.2.2. Negative Folgen für die Arbeitswelt
Die negativen Folgen, die eine Einführung von Expertensystemen für die Arbeitswelt haben kann, lassen sich wie folgt gliedern:
Direkt:
Betroffen sind qualifizierte Facharbeiter, Ingenieure und Sachbearbeiter. Da man sich Produktivitätssteigerungen erhofft, ist mit negativen Beschäftigungsauswirkungen zu rechnen. In Wachstumsbranchen wird zwar nicht entlassen, aber dann eben nicht in gleichem Maß neueingestellt.
Indirekt:
Indirekt können Expertensysteme die Diffusion anderer Rationalisierungstechniken beschleunigen und deren Akzeptanz verbessern (wissensbasierte Benutzerschnittstellen). Diese wirken dann evtl. ebenfalls in Richtung obiger negativer Beschäfigungsauswirkungen.
Es kann sich weiter der Trend zur Trennung in Kern- und Randbelegschaften verstärken. Immer weniger Mitarbeiter gelten als gutbezahlte und kaum kündbare ,,Stützen" des Betriebs, da immer mehr durch angelernte Kräfte schnell ersetzbar sind.
Deskilling-Effekt:
Kompetenzen und Qualifikationen verschwinden und die Möglichkeit zu ihrem Neuaufbau wird kleiner. Es bleiben also tendenziell eher die einfachen Maschinenüberwacherjobs.
Außerdem werden die Qualifikationsdefizite der Arbeitnehmer, die man mit Expertensystemen ausbügeln will durch diese natürlich noch zementiert.
Arbeitsverdichtung:
Die Routine - Expertenarbeit, die das Haupteinsatzgebiet von Expertensystemen ist, ist eine Möglichkeit zur Erholung für den Experten.
Für die Bediener eines so komplexen Systems kann es gegenüber dem undurchsichtigen und schlecht beherrschbaren System zu psychischem Streß kommen.
Job Enlargement:
Zusätzliche Aufgaben sollen von bisher nicht genug qualifizierten Mitarbeitern mittels Expertensystem jetzt mit übernommen werden. Zum Beispiel soll der Bankberater jetzt auch den Wertpapierverkauf mit übernehmen.
Kommunikationsabbau:
Kommunikationsabbau kann gerade in den komplexen Problem- und Entscheidungssituationen stattfinden.
Fast alle diese Effekte sind nicht spezifisch für die Einführung der Expertensystemtechnik, sondern treten ganz allgemein beim verstärkten Einsatz auch konventioneller DV-Produkte auf.
4.3. Verantwortung
Zwei Thesen vorab:
* Verantwortung ist ein ethisches Problem, das der rechtlichen Frage der Haftung noch vorausgeht. Man muß Verantwortung davon unterscheiden, wer zur Verantwortung gezogen wird.
* Verantwortung kann nur übernehmen, wer kompetent, gewissenhaft und bewußt handelt. Jedes Handeln ohne diese Komponenten ist ,,unverantwortlich". Es ist sehr zweifelhaft, ob Maschinen auch nur ein einziges dieser Kriterien erfüllen.
Zum Verschwinden / Verschleiern von Verantwortung:
Wer ist denn verantwortlich, wenn etwas schiefgeht beim Einsatz eines Expertensystems? Der Autorenexperte, von dem das Wissen stammt, der Wissensingenieur, der das Wissen eingegeben hat, die Softwarefirma, die das System programmiert hat, der Vertreiber, der das System verkauft hat, der Entscheidungsträger aus der betroffenen Firma, der den Einsatz angeordnet hat, oder der Benutzer, der das System letztendlich eingesetzt hat ?
Speziell kritisch können Verantwortungsfragen beim Echtzeitbetrieb ohne menschliche Konsultation werden, wie zum Beispiel in der Produktionssteuerung.
Die Enquete-Kommision des Bundestages für Technikfolgenabschätzung schlägt eine Aufteilung der Verantwortung vor. Danach ist der Autorenexperte für die Validität des Materials verantwortlich, der Wissensingenieur für eine korrekte Formalisierung und Eingabe, die Softwarefirma für ein korrektes Programm und letztendlich der Benutzer für seine Gutgläubigkeit beim Einsatz ([AD90]).
Eine solche Trennung ist in der Praxis jedoch wohl kaum durchführbar, da die Zuordnung von Fehlern selten so eindeutig ist.
Die Zuordnung von Verantwortung an Menschen wird also eine problematische Frage bleiben. Die Maschine fällt als Verantwortungsträger aus. Die Frage ist, wie diese komplizierte Lage sich im unmittelbaren Einsatz auswirkt. Wahrscheinlich wird es zu einer Diffusion und vielleicht sogar zu einem Verschwinden des Verantwortungsgefühls kommen.
,,Natürlich kann keine Maschine Verantwortung tragen, aber sie kann sie verschleiern, so daß der an der Maschine Arbeitende sich nicht mehr verantwortlich fühlt." ([CB89])
4.4. Haftung
Wenn bereits die Verantwortung nicht eindeutig zugeordnet werden kann und die Expertise grundsätzlich unsicher ist, so ist es nicht verwunderlich, daß sich ein großes Haftungsproblem stellt.
Es gibt im deutschen Recht die sogenannte Produkt- oder Produzentenhaftung, eine Sonderform der deliktischen Haftung. Diese Haftung tritt ein bei Schäden an ,,absoluten" Rechten wie Leben, Gesundheit, Körper, Freiheit, Eigentum etc. Angewendet wird diese Form der Haftung, wenn die Schäden durch ,,bewegliche Waren aus industrieller Fertigung" verursacht werden. Standardsoftware hat rechtlich inzwischen diesen Status. Laut Enquete-Kommission des Bundestages muß man Expertensysteme in dieser Beziehung wie Standardsoftware behandeln. Bei dieser Art der Haftung wird der Hersteller bzw. Produzent als Haftender herangezogen. Wer nun im Falle von Expertensystemen als solcher gilt (Softwarefirma, Vertrieb, ...), ist noch nicht durch Präzedenzfälle geklärt.
Diese Haftungslage wird nun noch verschärft dadurch, daß seit dem 1. Januar 1990 in der BRD die neue verschuldensunabhänige Produzentenhaftung gilt. Nach diesem Haftungsrecht muß dem Hersteller nicht mehr bewiesen werden, daß er den betreffenden Fehler verursacht hat. Auch das Argument, daß es sich bei dem fehlerhaften Produkt nur um einen Einzelfall handelte, entfällt. Nur der Einwand bleibt, daß der Fehler nach dem Stand der Kunst unvermeidbar gewesen sei, d.h. die gefährlichen Eigenschaften des Produktes zum Zeitpunkt der Erstellung ,,für niemanden auf der Welt erkennbar" waren.
Die Eigenschaften von Expertensystemen sind jedoch sehr wohl bekannt.
Dieses neue Produkthaftrecht ,,führt praktisch zu einer Gefährdungshaftung mit nur ganz geringen Entlastungsmöglichkeiten für den Unternehmer". Damit können auf die Produzenten von Expertensystem ganz akute Haftungsprobleme zukommen. Es ist fraglich, ob sich alle Hersteller von Expertensystemen über diese Fragen ganz im Klaren sind ([AD90]).
4.5. Andere rechtliche Fragen
Zu anderen rechtlichen Fragen, die hier nur kurz angeschnitten werden sollen, gehören zum Beispiel:
Fragen des Urheberrechts auf Expertenwissen für die menschlichen Experten. Wie wird dieser Wissenstransfer entlohnt. Gibt es im Wissensbereich geistiges Eigentum?
Das umgekehrte Haftungsproblem am Beispiel Medizin:
Wenn eine Behandlung, die ohne Expertensystem durchgeführt wurde, Schäden hinterläßt und nun geklagt wird mit der Annahme, daß die Behandlung mit Expertensystem besser gewesen wäre. Kann ein Arzt verpflichtet werden alle technischen Möglichkeiten auszunutzen, bzw. ihnen in diesem Fall zu vertrauen?
4.6. Kritische Einsatzfelder
Es gibt Einsatzfelder für Expertensysteme, die vor allem aus den Gründen der nicht nachprüfbaren Zuverlässigkeit von Expertensystemen als kritisch betrachtet werden müssen.
Dazu gehört zum einen der Einsatz in der Steuerung und Überwachung von technischen Großanlagen also zumeist die Einbettung in Realzeitsysteme.
Beispiel: Im Rahmen eines Verbundprojekts ist bei der Interatom GmbH ein Expertensystem zur Situationsbewertung in Atomkraftwerken vom Typ ,,schneller Brüter" entwickelt worden. Die Ziele beim Bau dieses Systems sind:
Vereinfachung der Fehlerdiagnose - die wäre dann durch angelernte Kräfte möglich - und Kostenreduktion. Das System ist ,,zunächst als reines Beratungssystem" gedacht ([AD90]).
Ein anderer kritischer Einsatzbereich ist der Einsatz für militärische Zwecke. Es gibt verschiedene ( bekannte ! ) Projekte bei denen Expertensysteme für militärische Zwecke eingesetzt werden sollen. Zum Beispiel im Rahmen der Strategic Computing Initiative. Darüber hinaus sind Forschungsprojekte bekannt:
Zum Beispiel ein System, das einen menschlichen Experten in militärischer Lageananalyse modellieren soll, oder ein Signal to Symbol Projekt, in dem mit Expertensystemtechnik Schiffe aufgrund ihrer Motorengeräusche identifiziert werden sollen ([RH87]).
Militärische Expertensysteme entscheiden zumeist direkt oder indirekt über Menschenleben mit. Eventuell über sehr viele. Ein Einsatz dieser unsicheren Technologie für diese Zwecke erscheint mir unverantwortbar.
Für all diese Systeme gilt die Grundproblematik, daß dem Menschen als ,,Fehlerquelle" mißtraut wird. Es gibt nun eine große Bereitschaft ihn durch eine Maschine zu ersetzen, der man anscheinend mehr vertraut. Dabei wird gerne übersehen, daß der Mensch als Fehlerquelle nur durch eine andere ersetzt wird. Mit dem großen Unterschied, daß der Mensch für seine Fehler Verantwortung übernehmen kann .
4.7. Schlußthesen
Expertensysteme sind eine relativ neue Technik, deren Grundlagen zum größten Teil noch ungeklärt sind.
Bisher wurden vorwiegend wissenschaftliche oder technische Prototypen hergestellt, bei denen es in den weitaus meisten Fällen nicht zum Routineeinsatz unter industriellen Bedingungen kam.
Das Hauptinteresse an Expertensystemen rührt nicht von bewiesenen Qualitäten her, sondern von einem vermuteten Potential.
Expertensysteme sind kein Angriff auf qualifizierte Arbeit, sondern eine Spielart der generellen Verdrängung von Facharbeit durch DV-Produkte.
Menschliches Expertentum ist nicht vollständig automatisierbar.
Werden Expertensysteme zur Steuerung und Überwachung von technischen Großsystemen (Realzeitsysteme) verwendet, wird Komplexität mit Komplexität bekämpft. Komplexität wird potenziert statt problematisiert. Der Effekt wird zumeist nicht größere Beherschbarkeit sein, sondern immer unvorhersehbares Verhalten.
Expertensysteme gehören nicht in die Hand von unerfahrenen, wenig kompetenten und in der Anwendung ungeschulten Benutzern. Sie können die Grenzen des verantwortlichen Einsatzes von Expertensystemen nicht abschätzen.
Expertensysteme dürfen nicht als Expertenersatzsysteme, sondern eher als Assistenzsystem von menschlichen Experten oder von gut ausgebildeten Mitarbeitern eingesetzt werden.
Expertensysteme dürfen nicht in Bereichen eingesetzt werden, in denen schnelle und kritische Entscheidungen gefragt sind (z.B. AKWs, Militär)
|