Psychologische Aspekte komplexer sozio-technischer Systeme
Wenn im Folgenden von sozio-technischen Systemen gesprochen wird, sind z.B. die Cockpits von Flugzeugen gemeint, die Leitwarten von Kraftwerken oder Fabriken, aber auch Autos, Lastwagen, Lokomotiven und militärische Fahrzeuge. Es sind alle Situationen gemeint, wo Menschen Maschinen steuern, bedienen, lenken oder sonst wie kontrollieren.
Komplexität: Es gibt
eine große Anzahl von Parametern bei der Steuerung moderner technischer
Systeme, die alle wichtig sind und beachtet werden müssen. Da das in begrenzter
Zeit nicht möglich ist, müssen Operateure, Piloten, Systembediener Schwerpunkte bilden. Mögliche Denk- und
Entscheidungsfehler resultieren aus dem inadäquaten Umgang mit der
Schwerpunktbildung (entweder zu rigide an einem Schwerpunkt festhalten oder
keinen Schwerpunkt bilden).
Vernetztheit: Die
Parameter des Systems sind mit anderen Systemparametern und Variablen der
Systemumgebung vielfältig verbunden. Vieles beeinflusst sich wechselseitig. Der
Gewichtstrimm eines Flugzeuges, die Geschwindigkeit, Wetterbedingungen, der
Kurs beeinflussen sich. In einem vernetzten System kann kaum nur eine Sache gemacht werden. Wird ein
Parameter verändert, dann verändern sich andere Faktoren sichtbar und oft
unsichtbar mit. Wenn bei einem Fahrzeug zu viel Gewicht zugeladen wird, dann
verändert sich als Nebenwirkung das Brems- und Kurvenverhalten, was man aber
erst merkt, wenn man bremsen muss.
Daraus
ergibt sich die Notwendigkeit, beim Entscheiden Neben- und Fernwirkungen (was
passiert neben der Hauptwirkung zusätzlich oder was passiert später) zu beachten. Mögliche Denk- und
Handlungsfehler resultieren vor allem aus dem Nichtbeachten von Neben- und
Fernwirkungen und dem ausschließlichen Berücksichtigen der Hauptwirkung.
Dynamik: Alle
sozio-technischen Systeme sind eigendynamische Systeme, d.h. ein Teil der
Systemparameter verändert sich auch ohne direkten Eingriff des Systembedieners,
Piloten, Users. Die Dynamik ergibt sich oft aus der Vernetztheit der Parameter,
z.B. wenn diese aus positiven und negativen Rückkopplungen bestehen. Aus der
Eigendynamik entsteht häufig Zeitdruck und die Notwendigkeit der Prognose der Zukunft: Wie sich die
Parameter des Systems, wie sich das Verhalten des Fahrzeuges, wie sich die
Eigenschaften des Flugzeuges verändern werden. Mögliche Denk- und
Handlungsfehler resultieren aus keinen oder falschen Prognosen. So werden
typischerweise exponentielle Entwicklungen nur linear extrapoliert und es wird
unzureichend - zu schwach oder zu heftig - gehandelt.
Intransparenz: Die
meisten komplexen sozio-technischen Systeme sind für den Nutzer nicht
vollständig durchschaubar. Es gibt oft Systemparameter, die eigentlich beachtet
werden müssten, die aber nicht zugänglich sind, weil sie nicht messbar sind,
weil sie nur durch den Systemadministrator erfasst werden, oder auch weil der
Nutzer gar nicht weiß, dass es diesen Parameter überhaupt gibt. Eine Reihe von
Unfällen in der Luftfahrt in den letzten Jahren beruht darauf, dass die
Flugzeuge Eigenschaften und Parameter hatten (bzw. im Rahmen von
Weiterentwicklungen neu hatten), die den Piloten nicht bekannt waren.
Der
Systemnutzer muss (oder sollte) ein mentales Modell des Systems haben, um geeignete Indikatoren zu finden, wenn wichtige Systemfunktionen oder
komplexes Systemverhalten nicht direkt erfasst werden können. Mögliche Denk-
und Handlungsfehler resultieren aus der Verwendung falscher Indikatoren, oder
zu stark simplifizierter Modelle des jeweiligen Systems.
Polytelie: Bei der
Steuerung eines technischen Systems, sei es ein Flugzeug, ein Fahrzeug, ein
Kraftwerk, ist das Handeln notwendigerweise auf mehr als ein Ziel hin
ausgerichtet. Es soll beispielsweise ein bestimmtes Reiseziel, möglichst
schnell, sicher und kosteneffizient erreicht werden. Dabei soll die
Umweltbelastung und der Energieverbrauch gering sein und der Komfort für die
Passagiere hoch. Viele dieser Ziele sind nicht miteinander verträglich, d.h.
sie widersprechen sich (z.B. Schnelligkeit und Energieverbrauch). Daraus leitet
sich die Notwendigkeit ab, dass durch den Operateur, Nutzer, Pilot Ziele balanciert und hierarchisiert werden. Manche Ziele in komplexen sozio-technischen
Systemen können nur vage formuliert werden, z.B. als Komparative; etwas soll besser, schneller, günstiger werden. Wie
das zu erreichende Ziel konkret aussehen soll, ist möglicherweise unklar.
Unklare Ziele erschweren das Handeln für den Nutzer, da sich aus ihnen kaum
ergibt, welche Maßnahmen konkret zu ergreifen sind. Mögliche Denk- und Handlungsfehler resultieren u.a. daraus, dass
Ziele nicht konkretisiert werden, und damit Zielwidersprüche und
-inkompatibilitäten nicht erkannt werden.
Neuartigkeit: Manche
Aspekte in komplexen sozio-technischen Systemen sind, zumindest zum Teil,
neuartig, sei es neue Hardware, die verbaut wurde, sei es Software, die ein
Update erfahren hat, seien es veränderte Prozesse und Prozeduren oder neuartige
Umweltfaktoren.
Der
Systembediener kann nicht alle neuartigen Strukturen und Parameter kennen bzw.
antizipieren. Aus der - potenziellen - Neuartigkeit von Teilen des Systems
ergibt sich die Anforderung zur Analyse des Systems, zur Hypothesenbildung und zur Exploration. Mögliche Problemlösefehler
resultieren aus dem Nichterkennen der Neuartigkeit und aus einer reduzierten
oder falschen Hypothesenbildung über Systemfunktionen oder Zusammenhänge.
Die Forderungen, die sich aus diesen Erkenntnissen ableiten, sind im Grunde trivial: Überall wo Menschen Maschinen bedienen, bei jedem sozio-technischen System, muss das System so konstruiert und betrieben werden, dass die menschlichen Stärken und Schwächen beim Umgang mit Komplexität, Vernetztheit, Dynamik, Intransparenz, Polytelie und Neuartigkeit angemessen einkalkuliert werden. Vernünftigerweise vorhersehbare Handlungs- und Entscheidungsfehler müssen im Systemdesign und in den Anwendungsbedingungen des Systems berücksichtigt werden.