15.03.2022
Ist der Mensch das größte Sicherheitsrisiko?
Wer menschliche Fehler durch den Einsatz von Technik ausmerzen will, sorgt nur für neue Fehler. Risiko-Experte Manfred Müller weiß, wie‘s besser geht.
Manfred Müller leitete viele Jahre die Flugsicherheitsforschung der Lufthansa und lehrt heute Risikomanagement an verschiedenen Universitäten. Bei LBBW BusinessXChange, dem neuen Kunden-Event der LBBW, hält der frühere Flug- und Trainingskapitän den Impulsvortrag über Risiken der Digitalisierung. Um vorab zu erfahren, was Unternehmer am 29. März erwartet, haben wir Manfred Müller für „Standpunkt“ interviewt.
LBBW Standpunkt: Wer sorgt für das größere Sicherheitsrisiko, Herr Müller, der böswillige Hacker oder der naive Mitarbeiter?
Manfred Müller: Wahrscheinlich der naive Mitarbeiter. Jeder Hacker benötigt eine Schwachstelle, um in das IT-System eindringen zu können. Wenn der Mitarbeiter nicht darüber informiert wurde, wo diese Schwachstellen liegen, kann er das System nicht schützen. Deshalb müssen Unternehmen dafür sorgen, dass ihre Mitarbeiter nicht länger „naiv“ sind. Wer heute Informationstechnologie nutzt, muss so gut ausgebildet werden, dass er um die Gefahren weiß. Sonst kann es teuer werden. Um das an einem konkreten Fall zu erläutern: In einem großen Unternehmen erhält ein Mitarbeiter eine gefälschte E-Mail – angeblich von seinem Chef – mit der Aufforderung, umgehend 2 Mio. Euro zu überweisen. Da dieser Chef kein angenehmer Zeitgenosse ist, mag der Mitarbeiter nicht nachfragen – und überweist. Das Geld ist weg. CEO-Fraud nennt sich diese Masche von Cyberbetrügern. Nur wenn die Mitarbeiter von solchen Gefahren wissen, können sie angemessen damit umgehen. Dafür muss im Unternehmen offen geredet, offen mit Fehlern umgegangen werden und es muss eine vertrauensvolle Arbeitsatmosphäre bestehen.
LBBW Standpunkt: Welche Mitarbeiterin, welcher Mitarbeiter sagt schon freiwillig „Ich habe Mist gebaut …“?
Müller: Eben. Das funktioniert nur, wenn alle konsequent eine Tatsache verinnerlicht haben: Es geht darum, den Fehler zu beseitigen – nicht den, der den Fehler verursacht hat. Im Flugbetrieb der Lufthansa ist man auf diesem Weg schon weit vorangeschritten. Piloten werden ermuntert, jede Art von potenziell gefährlichen Arbeitsfehlern an die Sicherheitsabteilung zu melden und bekommen dafür – so wie beim Beichtgeheimnis der Kirche – Straffreiheit zugesichert. Warum gibt es dieses System? Unsere Erfahrung hat gezeigt, dass ein einmal gemeldeter Fehler in der Regel schon rund 100-mal passiert ist, ohne gravierenden Schaden anzurichten. Da man immer nur die Spitze des Eisbergs sieht, muss man für den Piloten die Meldeschwelle möglichst niedrig halten. Fehlermeldungen helfen, zukünftige Unfälle zu vermeiden. Von dieser grundsätzlichen Erkenntnis bis zu einem Meldesystem, das Mitarbeiterinnen und Mitarbeiter vor persönlichen Konsequenzen schützt, ist es allerdings ein weiter Weg. Solch ein Meldesystem muss vom Vorstand getragen und gestützt werden, nur so kann langsam Vertrauen aufgebaut werden, was die unabdingbare Voraussetzung für das sogenannte non-punitive Meldesystem ist.
Es geht darum, den Fehler zu beseitigen – nicht den, der den Fehler verursacht hat.
LBBW Standpunkt: Gibt es solche Meldesysteme, die auf persönliche Schuldzuweisungen verzichten, nur bei der Lufthansa?
Müller: Bei deutschen Unternehmen in der Industrie gibt es meines Wissens, mit Ausnahme sehr weniger Firmen, bislang keine solche Meldesysteme, die sich ausschließlich auf die Lösung der Probleme konzentrieren. Einige Krankenhäuser haben damit angefangen und sind bereits die ersten Schritte gegangen. Aber wie gesagt: Es ist ein langwieriger und mühsamer Prozess.
LBBW Standpunkt: Wenn der Mensch der größte Risikofaktor ist: Ist es dann nicht sinnvoll, die Verantwortung gänzlich an Maschinen zu übergeben?
Müller: In der Luftfahrt gingen früher 70 Prozent der Unfälle auf menschliche Fehler zurück. Daher wurde lange Zeit der Ansatz verfolgt: „Der Mensch macht die entscheidenden Fehler, deshalb sollten wir auf ihn soweit möglich verzichten, um die Sicherheit zu erhöhen.“ Leider stimmt diese These nicht: Ja, der Mensch ist ein großes Sicherheitsrisiko. Doch als der Mensch in einigen Bereichen aus dem Regelkreis genommen wurde, hat sich die Sicherheit nicht zwangsläufig erhöht. Das liegt einfach daran, dass komplexe Software-Programme nie fehlerfrei sein können und die „reale Welt“ immer nur bruchstückhaft abbilden. Leider sind in der Luftfahrt die Menschen zunächst nicht ausreichend auf potenzielle Fehlfunktionen der Technik vorbereitet worden. Sie wurden nicht ausreichend dafür trainiert, mit unwahrscheinlichen Systemausfällen umgehen zu können. Deshalb warne ich vor vollautomatisierten, sicherheitskritischen Prozessen, die ein Eingreifen des Menschen nicht mehr erlauben.
Je komplexer eine Software ist, desto mehr Fehlerwahrscheinlichkeiten tun sich auf.
LBBW Standpunkt: Aber muss der Mensch wirklich noch eingreifen können? Die Algorithmen heutzutage wirken doch sehr ausgereift!
Müller: Je komplexer eine Software ist, desto mehr Fehlerwahrscheinlichkeiten tun sich auf. Bei der Lufthansa sind wir mittlerweile so weit, dass ein Komplettausfall der Bordcomputer relativ selten ist. Die Wahrscheinlichkeit liegt bei 0,0001 Prozent. Das klingt ausgesprochen sicher, hieße aber, dass bei einem vollständigen Verzicht auf den „menschlichen Bediener“ allein bei der Lufthansa mit einer potenziellen Katastrophe alle vier Wochen gerechnet werden müsste. Das ist selbstverständlich nicht akzeptabel. Deshalb ist und bleibt der Mensch unverzichtbar, mit seiner Intuition und seiner Fähigkeit, kreative Lösungen zu finden.
LBBW Standpunkt: Das hilft uns nicht aus dem Dilemma, dass der Mensch zugleich auch ein großes Sicherheitsrisiko ist …
Müller: Aber es zeigt uns den Weg: Menschen müssen die Technik verstehen, mit der sie täglich umgehen. Sie müssen begreifen, welche Fehler diese Technik machen kann. Sie müssen trainiert werden, damit umzugehen und sich entsprechende Kompetenzen aneignen. Häufig ist für diese Aufgaben Teamarbeit erforderlich. Es ist ein Treppenwitz der Industriegeschichte: Komplexe Maschinen, die wir eigentlich dafür gebaut haben, den Menschen zu ersetzen, lehren uns nun, wie wir Menschen zusammenarbeiten müssen, um diese komplexen Maschinen sicher nutzen zu können.