Fehlerkultur, Fehlermanagement und ihre Bedeutung für Maßnahmen der Personalentwicklung in Kliniken

Fehlerkultur, Fehlermanagement und ihre Bedeutung für Maßnahmen der Personalentwicklung in Kliniken

 Zwei berühmte Beispiele (Titanic und Tchernobühl)


1. Die Begriffe Fehlerkultur und Fehlermanagement

    Die Begriffe entstammen den Wirtschafts- und Sozialwissenschaften. Sie bezeichnen die Art und Weise, wie soziale Systeme mit Fehlern umgehen. Heute finden wir ausführliche Auseinandersetzungen mit den Themen „Fehlerkultur“ und „Fehlermanagement“ in
•    Hochsicherheitssystemen wie der Flug- und der Atomindustrie,
•    in schulischen Kontexten,
•    bei der Polizei,
•    in der Wirtschaft und
•    in sozialen Dienstleistungssystemen, dabei besonders in klinischen Kontexten.

   „Fehlermanagement“ ist die gezielte Steuerung von Aktivitäten im Umgang mit Fehlern, d.h. das Ein- und Durchführen bestimmter Methoden. „Fehlerkultur“ bezeichnet dagegen die Art und Weise, wie eine Organisation mit Fehlern und damit auch mit innovativem Lernen umgeht (Wikipedia  11.1.07)

   Der Begriff „Fehlerkultur“ weist Nähe zu dem der „Organisationskultur“ auf. Die Fehlerkultur hat aber einen maßgeblichen Einfluss auf spezifische Aspekte wie
-    die Qualitätsstandards,
-    das Innovationspotential,
-    die Produktivität sowie die
-    Wettbewerbsfähigkeit einer Organisation.

   Die Art und Weise, wie in einer Organisation  Fehler bewertet werden und wie mit ihnen im Alltag umgegangen wird, bestimmt auch die Leistungsfähigkeit eines Unternehmens entscheidend mit.

2. Frühe Äußerungen zu Fehlern

   Selbstverständlich spielen seit Menschen Gedenken Fehler in sozialen Kontexten eine Rolle.  Vor 3000 Jahren machte schon das I Ging aufmerksam auf wahres und falsches Handeln. Dementsprechend beschäftigten sich Menschen auch laufend mit dem „richtigen“ Umgang mit Fehlern. So betonte  Konfuzius: „Wer einen Fehler gemacht hat und ihn nicht korrigiert, begeht einen zweiten.“ Und in römischen Zeiten mahnte Cicero: „Jeder Mensch kann irren, aber nur Dummköpfe verharren im Irrtum.“

   In der Antike gab es auch schon Versuche der Differenzierung. So unterschied Aristoteles zwischen Unglück, Fehler und schlechtem Tun. Ein Unglück oder Unfall geschieht unvorhersehbar und ohne böse Absicht. Im Gegensatz dazu ist ein Fehler zwar vorhersehbar, geschieht aber ohne üble Absicht. Eine böse Tat hingegen ist in ihren negativen Folgen vorhersehbar und Ausdruck schlechter Absichten.

3. Die Anfänge der Fehlerkultur -Debatte in der Wissenschaft

   Zu Beginn des 20. Jahrhunderts begann sich die Wissenschaft verstärkt für Fehler zu interessieren. Die Pädagogen Weimar und Kießling versuchten die Psychologie des Fehlers zu ergründen, Freud befasste sich mit den Fehlleistungen des Unbewussten; Techniker dagegen untersuchten Material- und Messfehler, die Arbeits- und Organisationspsychologen setzten sich mit Fehlern, Fehlervermeidung und mit Arbeitssicherheit auseinander.

   Einen entscheidenden Schub erhielt die Fehlerkultur-Debatte in der 2. Hälfte des 20. Jahrhunderts: Hier erhielten in den 80er Jahren besondere Bedeutung Fehler, die zu Reaktorunfällen in Three Miles Island in den USA und in Tschernobyl führten. Solche Vorgänge schlugen sich auch nieder in soziologischen Gegenwartsanalysen. So konstatierte etwa Beck (1986) in seinem Buch „Risikogesellschaft“, dass in einer technisch so hochkomplexen Welt, Fehler, die zu Katastrophen führen, unausweichlich seien. Aber schon vor diesen dramatischen Ereignissen, in den 1970er Jahren, erhielt die Debatte um Fehler – und vor allem der produktive Umgang mit ihnen – große Bedeutung in pädagogischen Diskursen und im Wirtschaftsleben. Die Parole  war: „Lernen verändert sich zunehmend weg vom adaptativen Anpassen an aktuelle Anforderungen hin zum Bewältigen neuer und unbekannter Herausforderungen.“

   In den 90er Jahren rückte mit der „Lernenden Organisation“ das Thema Fehlerkultur ins Zentrum der Management-Debatte. Vor allem unter Bezug auf den Umgang mit Fehlern in Japan wo eine permanente Fehlerreflexion in jedem Betrieb zum festen Bestandteil des Managements gehört („Kaizen“),  begann man sich auch in der europäischen Wirtschaft mit Fehlerkultur auseinanderzusetzen. Dabei zeigte sich sehr schnell, dass hier seit der Industrialisierung primär Fehlervermeidungsstrategien verfolgt wurden. Und nun erhielten Begriffe wie „Fehleroffenheit“, „Fehlertoleranz“, „Fehlerfreundlichkeit“ an Relevanz. Ab jetzt wurde der produktive Umfang mit Fehlern als entscheidender Wettbewerbsfaktor betrachtet. Im deutschsprachigen Raum widmeten sich der Fehlerforschung besonders die pädagogischen Psychologen Fritz Oser und Maria Spychinger mit ihrem Team an der Universität Fribourg (2005).

   Forscherinnen und Forschern geht es heute um einen konstruktiven Umgang mit Fehlern, das Lernen aus Fehlern, den produktiven Umgang mit Fehlern und das innovative Lernen. Das Spektrum optimalen Verhaltens, das postuliert wird, reicht von der Fehlervermeidung bis zur Fehlerfreundlichkeit. Deshalb erhält der Begriff „Fehlerkultur“ eine hohe Bedeutung im Zusammenhang mit
•    Qualitätsmanagement,
•    Fehlermanagement,
•    Risikomanagement und
•    Innovationsmanagement.

Ziel ist jeweils die „Lernende Organisation“.

   In technischen und klinischen Feldern grenzt man heute vor allem das Fehlermanagement vom Qualitätsmanagement ab. Beide haben zum Fehlerbegriff unterschiedliche Antworten. Das Qualitätsmanagement orientiert sich an formalen Kriterien (z.B. an  DIN EN ISO 9000:2000). Die entsprechende Definition begreift einen Fehler als „Nichterfüllung einer Forderung“ (Glazinski & Widensohler 2004, 17). Fehlermanagement dagegen versteht als Fehler (z.B. nach Rall et al. 2001, 19) „ein nicht beabsichtigtes unerwünschtes Ergebnis einer bewusst oder unbewusst ausgeführten oder unterlassenen Maßnahme“.

4. Die drei Ebenen der Fehlerkultur

    Die Fehlerkultur einer Organisation umfasst drei Ebenen:
 
(1)    Normen und Werte bestimmen die Wertbasis, die die Organisationsmitglieder miteinander teilen. Sie bestimmen auch die Art und Weise, wie mit Fehlern und daran anschließend mit innovativem Lernen umgegangen wird.
(2)    Für den Umgang mit Fehlern und dem innovativem Lernen sind aber spezifische Kompetenzen notwendig. Dazu zählen mentale und emotionale Möglichkeiten der Organisationsmitglieder aber auch soziale und methodische. Diese Fähigkeiten beeinflussen nämlich die Qualität, wie in einer Organisation mit Fehlern und innovativem Lernen umgegangen wird.
(3)    Schließlich müssen aber auch Instrumentarien für den Umgang mit Fehlern bereitgestellt werden. Werte und Instrumentarien bleiben nämlich wirkungslos, wenn es an professionellem Handwerkszeug mangelt. Anzahl und Beschaffenheit der zur Verfügung stehenden Methoden, Techniken und Instrumente regelt die Möglichkeiten der Organisationsmitglieder, professionell mit Fehlern und innovativem Lernen umzugehen.

   So sind also Wollen, Können und Dürfen relevant. Hochreither (2004, 14) meint: „Selbst ein gutes System zu etablieren kann dann ein Fehler sein, wenn keine entsprechende Fehlerkultur gelebt wird. Gut gemeint, aber der falsche Weg.“ Aus diesem Grund sollten vor allem Führungskräfte bemüht sein, eine Fehlerkultur zu fördern, die ein optimales Lernen aus Fehlern ermöglicht. Hierzu  ist eine „Checkliste für Chefs“ hilfreich: „Pflegen Sie eine optimale Fehlerkultur?“ (VNR-Letter 11.1.2007)

•    Haben Sie Ihren Mitarbeitern verdeutlicht, dass Ihnen das Lernen mit Fehlern lieber ist als ein Stillstand ohne Fehler?
•    Konzentrieren Sie bei Fehlern die Aufmerksamkeit vor allem auf die Lektionen, die gelernt werden können und nicht auf den entstandenen Schaden?
•    Geht es bei ihrer Fehleranalyse vor allem um Wege zur Vermeidung zukünftiger Fehler, statt um Schuldzuweisungen?
•    Belohnen Sie die Offenheit von Mitarbeitern als Vertrauensbasis auch dann, wenn der Inhalt unangenehm ist?
•    Sind Sie bereit, eigene Fehler einzugestehen, statt sie auf Ihre Mitarbeiter abzuwälzen?
•    Stellen Sie sich vor Ihre Mitarbeiter und übernehmen Sie gegenüber Vorgesetzten die Verantwortung für Fehler, die Ihr Team gemacht hat?

5. Fehlerstrategien in pädagogischen und wirtschaftlichen Feldern

   Es besteht offenbar Übereinstimmung unter Forschern, dass eine produktive Fehlerkultur die Basis für Erfolge bildet. Welche Strategien führen aber zum Erfolg? Das wiederum differiert je nach dem Feld

(1)    Pädagogen betonen ein positives Lernklima, in dem die Angst vor Fehlern abgebaut ist, so dass ein permanentes Lernen aus Fehlern stattfinden kann.
(2)    Qualitätsmanagerinnen verstehen unter einer optimalen Fehlerkultur die Fehlervermeidung, bis hin zu Null-Fehler-Programmen. Sie wollen hohe Qualität gewährleisten und die Fehlerkonten (Ausschuss, Nacharbeiten, Reklamationsbearbeitung, Wiedergutmachungsschäden, Imageschäden) minimieren.
(3)    Innovationsmanager hingegen streben nach Neuerungen und betrachten Fehler nicht nur als  unvermeidliche Begleiterscheinung bei Entwicklungsprozessen, sondern als Chance. Darum treten sie für eine starke Fehlerfreundlichkeit ein und würdigen sie als produktives Potential.
(4)    Vertreterinnen der Lernenden Organisation sprechen vor allem von Fehleroffenheit und innovativem Lernen. Sei streben eine generelle Verbesserung der organisationalen Wissensbasis ebenso an wie eine Stärkung der kollektiven Problemlösungs- und Handlungskompetenz.

6. Fehlermanagement und Fehlerkultur in Risikomilieus

   Eine nuanciert andere Bedeutung erhalten diese Begriffe in Risikomilieus wie in der Luftfahrt, in der Atomindustrie und neuerdings auch in klinischen Kontexten. Hier geht es immer um die Sicherung von Menschen vor Gefährdungspotentialen. Auf der anderen Seite sind Risiken hier etwas Alltägliches. In den letzten Jahren mehren sich die Stimmen von Klinikern, die betonen, dass es aus der Luftfahrt etwas für Kliniken zu lernen gäbe. Auf den ersten Blick ähneln sich die Bereiche (Thomeczek 2001, 11-16) tatsächlich:

-    Beide weisen Teamarbeit auf mit einem hohen Spezialisierungsgrad,
-    der mit einer hohen physischen und psychischen Belastung einhergeht,
-    der häufig schnell wechselnde Arbeitsintensitäten aufweist und der die
-    Verarbeitung großer Datenmengen sowie
-    die Konfrontation mit druckvollen Entscheidungssituationen beinhaltet.

   Deshalb gilt die Sicherheitsdebatte aus dem Flugverkehr heute vielfach als Modell für Sicherheitsmaßnahmen in Kliniken (ebd. 2001). Obwohl nämlich Technik und Arbeitsbelastung im Flugverkehr immer komplexer geworden sind und auch die Zahl der Passagiere und Flüge stetig zugenommen hat, ist der Flugverkehr zunehmend sicherer geworden. Von 1982 bis 1999 stiegen zum Beispiel die Passagierzahlen in den USA von 299 auf 634 Millionen, während die Zahl der getöteten Fluggäste pro eine Million transportierter Passagiere eindeutig zurückgegangen ist (ebd. 2001). Unerwünschte Zwischenfälle und „Beinahe-Unfälle“ sind allerdings unvermeidlich. So beträgt beispielsweise die Fehlerrate beim Ablesen von Instrumenten bereits 0,3 %, sie steigt bei komplexen Vorgängen auf bis zu 10% an. Die allgemeine Fehlerrate bei Aktivitäten mit einem hohen Stresslevel, d.h. bei schnell aufeinander folgenden gefährlichen Ereignissen beträgt dann sogar 25%.

   Wie dringlich qualifiziertes Fehlermanagement in Kliniken ist, belegen neuerdings Zahlen des Aktionsbündnisses Patientensicherheit. Hier wird berichtet, dass jedes Jahr 17 000 Menschen nach Behandlungsfehlern sterben (Südddeutsche Zeitung Nr. 95, 25.4.07, 12). Dabei entsteht der größte Teil der Todesfälle durch Infektionen und Nebenwirkungen von Medikamenten. Ursachen sehen die Initiatoren weniger in Fehlleistungen einzelner Ärzte als in Defiziten klinischer Systeme. So seien Ärzte oft nicht informiert, welche Medikamente Patienten vor der OP eingenommen haben usw. Glazinski & Wiedensohler (2004) zitieren als Systemfehler:

(1)    Systemfehler im Sinne eines unzureichenden Ausbildungsstandes des Pflegepersonals
(2)    Systemfehler in der Diagnostik (Verzögerung, Versäumnis, Anwendung obsoleter Tests usw.)
(3)    Systemfehler in der Therapie (z.B. Fehler bei der Medikamentendosierung, ungeeignete Betreuung, technische Fehler in der Chirurgie usw.)
(4)    Systemfehler in der Prävention (unangemessene Diagnostik)
(5)    Weitere Systemfehler sind z.B. mangelhafte Kommunikation zwischen Ärzten
 
7. Fehlervorstufen und Fehlerkumulierung bei Katastrophen

   In allen einschlägigen Publikationen wird der Fehlerfrüherkennung, die sich in Fehlermeldesystemen manifestieren sollte, eine große Bedeutung zuerkannt. Hierbei spielen Fehlervorstufen, wie sie in der Luftfahrt schon lange beachtet wurden, eine große Rolle. Das sind Ereignisse, die potentiell zu einer Verschlechterung des Patienten führen. Glazinsky & Wiedensohler (2004) zitieren Staender (2001), der
 
•    latente Fehler,
•    kritische Ereignisse,
•    Beinahe-Komplikationen und
•    aktive Fehler unterscheidet.

   Die Autoren zeigen am Beispiel des Untergangs der Titanic, wie sich die verschiedenen Fehlertypen wahrscheinlich kumuliert haben: Als kritisches Ereignis ist zu werten, dass es zu wenig Rettungsboote gab. Hierbei handelt es sich um ein Problem der Planung, wie der Abnahme bei Fertigstellung des Bootes. Dieses Faktum allein ist aber noch nicht maßgeblich für die Katastrophe. Ein anderes Faktum war, dass der Kapitän zwar um die Gefährlichkeit des Packeises wusste, die Gefahr aber ignorierte. Er wollte aus persönlicher Eitelkeit einen Geschwindigkeitsrekord aufstellen. Außerdem ging er von der Unsinkbarkeit des Schiffes aus. Hier liegt im Sinne der Fehleranalyse ein aktiver Fehler mit einem klaren Regelverstoß vor. Die Katastrophe wäre aber noch abwendbar gewesen, wenn die Wache über ein entsprechendes Fernglas verfügt hätte, um den gewaltigen Eisberg zu orten. Hierbei handelt es sich ebenfalls um ein kritisches Ereignis. Zur endgültigen Katastrophe führte weiterhin eine Entscheidung des Dienst habenden Offiziers: Dieser gab nach Sichtung des Eisbergs Anweisung, eine Ruderwendung um 90 Grad zu machen und  die Maschinen auf Volldampf laufen zu lassen. Dieser aktive Fehler führte aber dazu, dass die Titanic an der jetzt dem Eisberg zugewandten Seite aufgeschlitzt wurde

8. Die Bedeutung der Datensammlung im Bereich des Fehlermanagements

   In der Luftfahrt ist die Basis zunächst immer eine systematische Datenerfassung. Der amerikanische National Transportation Safety Bord (NTSB) hat seit 1962 mehr als 46.000 Unfälle in einer öffentlich zugänglichen Datenbank zusammengetragen und ausgewertet. Deren Ergebnisse haben nun einen direkten Einfluss auf die Sicherheitsanforderungen in der Luftfahrt. Ziel ist es selbstverständlich, Unfälle zu vermeiden. Das hat in den USA zum Aufbau eines freiwilligen, datenbankgeschützten Meldesystems geführt, das die NASA im Auftrag der US-amerikanischen Luftfahrtbehörde seit 1975 betreibt und in das seitdem mehr als 400.000 so genannte Incident Reports freiwillig und anonymisiert eingegangen sind. Der aktuell sehr hohe Sicherheitsstandard ist sicher dieser Datenbasis zuzuschreiben.

   Eine wichtige Datenquelle sind Meldungen über Zwischenfälle und Fehlverhalten, die aber noch nicht zu einem Unfall führen. In der Chemieindustrie werden sie „Vorfälle“ genannt. Dabei haben Experten bei 3.500 Flügen durch Beobachtungen im Cockpit Daten über Gefahrensituationen sowie Fehler der Besatzungen und, was wesentlich wichtiger ist, über die Beherrschung dieser Situationen gesammelt. Im Durchschnitt wurden jeweils zwei Gefährdungssituationen sowie zwei Fehler pro Flug registriert.

   Aufgrund dieser Daten ist es gelungen, wesentliche Verhaltensmuster zur Beherrschung  von Gefährdungssituationen und Fehlern zu identifizieren und daraus situationsbezogene Trainingsprogramme zu entwickeln. So ereignen sich jährlich etwa 100 Millionen Fehler in den Cockpits der kommerziellen Verkehrsluftfahrt, die aber nur zu 10 größeren Zwischenfällen und zu 25 größeren Unfällen führten.

9. Die Bedeutung einer realistischen Selbsteinschätzung der Akteure

   Eine ganz entscheidende Fehlerursache ist mangelnde Selbsteinschätzung der Akteure in Risikosituationen. In einer Befragung von 30.000 Piloten sowie 1.033 Ärzten und Krankenschwestern wurde eine Reihe von klassischen Statements überprüft. Der Aussagen, „unerfahrene Teammitglieder sollten nicht die Entscheidungen der erfahrenen Teammitglieder (Chefärzte bzw. Flugkapitäne) in Frage stellen“, stimmten nur 2 %der Piloten, aber 24% der Chefärzte zu. Das Statement, „auch wenn ich übermüdet bin, bin ich in der Lage, in Notfallsituationen effektiv zu handeln“, beantworteten nur 26% der Piloten, aber 70% der Chefärzte mit ja. Interessant war außerdem, dass 30% der Ärzte und Schwestern auf Intensivstationen überhaupt ausschlossen, dass sie Fehler begehen (Glazinski & Wiedensohler 2004). Diese Befunde belegen sehr eindrucksvoll, wie sehr sich Klinikpersonal gegenüber dem aus dem Cockpit überschätzt.

    Eine der wichtigsten Konsequenzen aus der Fehlerforschung in der Luftfahrt war die verbindliche Einführung des Crew Ressource Management (CRM). Das ist ein Trainingsprogramm, das den Cockpitbesatzungen die Grenzen menschlicher  Leistungsstärken durch Erschöpfung und Stress sowie die Ursachen für Fehler aufzeigt. In der Zwischenzeit hat sich das vor mehr als 20 Jahren freiwillig bei Cockpitbesatzungen der United Airlines eingeführte Fortbildungskonzept zu einem Modul in jeder Pilotenausbildung entwickelt. Heute ist es  verbindlich in die Aus- und Weiterbildung integriert. CRM vermittelt eine entsprechende Fehlerkultur mit Grundfähigkeiten wie Führung, Beobachtung, Kommunikation und gegenseitiger Überprüfung sowie Entscheidungsfindung und Überprüfung mit der Modifikation von geplanten Entscheidungen. Die Ergebnisse bestätigen seine Effektivität durch die Änderung von persönlichen Einstellungen und dadurch die Etablierung verbesserter Sicherheit (vgl. ebd. 2004).

9. Konsequenzen für das Gesundheitswesen

   Der klinische Bereich hinkt Entwicklungen in der Luftfahrt bis heute erheblich hinterher. Zwei Drittel der Schwestern und Ärzte eines Krankenhauses nannten auf die Frage, welche Komponenten ihrer Meinung nach für eine erhöhte Sicherheit und Effektivität maßgeblich seien, lediglich die „Verbesserung der Kommunikation“. Ein Maßnahmenkatalog für die Fehlerbekämpfung in Kliniken sollte aber mindestens fünf Punkte umfassen (ebd. 2004):

1.   Den Informationsfluss und die Kommunikation optimieren
2.    Automationsmechanismen wohlüberlegt einführen
3.    menschliche Grenzen (bei gefährlichen Vorgängen) definieren und
4.    die durch Veränderung hervorgerufenen Nebeneffekte mildern.

   In einer Befragung von Sexton et al. (2000) befürworteten allerdings mehr als 90% der befragten Klinikmitarbeiter ein vertrauliches Meldesystem, mehr als 50% meinten nämlich, dass es schwierig sei, Fehler offen zu diskutieren. Als Gründe gaben sie an:
•    Sorge um die persönliche Reputation (76%)
•    Angst vor Klagen wegen eines Behandlungsfehlers (71%
•    Hohe Erwartungen seitens der Familie des Patienten oder der Gesellschaft (68%)
•    Mögliche disziplinarische Konsequenzen der Zertifizierungsstellen  bzw. Fachgesellschaften (64%)
•    Angst um den Arbeitsplatz (63%)
•    Erwartungen anderer Teammitglieder (61)

   Sehr gute Effekte ergaben sich im Jahr 2004 am Vanderbild University Medical Center, einem Haus mit 670 Betten und 36.000 stationären Aufnahmen im Jahr 2003. Dort wurde ein CRM aus der Luftfahrt mit 489 Teilnehmern durchgeführt (Grogan et al. 2003 zitiert nach Zhao & Oliveri 2006.). Die Teilnehmer erzielten in 20 von 23 Kategorien hochsignifikante Ergebnisse bezüglich der klassischen Elemente aus dem CRM wie Kommunikation, Führung, Fehlerbewusstsein und anderem mehr.

   Daneben werden für Kliniken Meldesysteme ähnlich der Luftfahrt gefordert, die schnell, vertraulich und einfach sind (Glazinski & Wiedensohler 2004). Das Ziel besteht darin, in einer Organisation das Gefühl für eine nachhaltige Sicherheitskultur zu entwickeln, der sich jeder Mitarbeiter im Sinne des Patientenwohles verpflichtet fühlt. Die Voraussetzungen für ein gutes Meldesystem wären:

-    Es muss zu den Aufgaben der Organisation passen,
-    Reaktionen auf die erhaltenen Meldungen müssen angemessen sein,
-    Es muss flexibel sein und
-    die Möglichkeit eröffnen, aus Erfahrung zu lernen.
-    Zu überlegen ist, ob das Melden und Erfassen von kritischen Ereignissen unter anonymen Bedingungen stattfinden soll, ob die Mitarbeiter vor internen Sanktionen geschützt werden sollen, wie man das Vertrauen untereinander fördern kann, damit keine Schuldzuweisungen und keine Verdächtigungen entstehen.
-    Das Meldesystem müsste außerdem ermöglichen, Zwischenfälle zu erkennen und zu analysieren
-    Auf diese Weise sollte der Aufbau von Fehlerwissen in einer Klinik ermöglicht werden.

   Ganz entscheidend ist die Etablierung von Feedback-Systemen. Dabei geht es um Kommunikationstrainings, die darauf abzielen, authentisch und zeitnah zu kommunizieren, aber auch Feedback zu empfangen. Durch Teamtrainings sollte außerdem das Arbeitsklima verbessert werden, denn erst eine von Wohlwollen und Klarheit getragene Arbeitskultur reduziert Fehler.

10. Die Struktur eines Fehlermeldesystems

   Beim Fehlermanagement, das hilft, Fehler möglichst zu vermeiden, erhalten Formen des „Error Reporting“, also Fehlermeldesysteme eine zentrale Bedeutung. Zhao & Olivera (2006) stellen exemplarisch die Struktur eines solchen Systems vor. Es gliedert sich in drei Phasen:

(1) In einem ersten Schritt müssen Fehler festgestellt bzw. aufgedeckt werden (Error detection). Dabei lassen sich drei Fehlertypen unterscheiden:
          - Flüchtigkeitsfehler
          - Fehler, bei denen Regeln bzw. Standards falsch implementiert werden
                - Fehler, die auf mangelhaftem Wissen basieren.
   Diese Fehlertypen aktualisieren sich auf unterschiedliche Weise:
    - Sie treten im Verlauf einer jeweiligen Handlung auf
    - Sie erscheinen als fehlerhaftes Ergebnis oder
    - sie werden von der Umgebung nachträglich festgestellt.

(2) Daran anschließend findet eine Einschätzung der Fehlersituation statt (Situation assessment). Hierbei spielen Kognitionen und Emotionen im Hinblick auf  Fehlermeldungen die zentrale Rolle. Dabei geht es

•    einerseits um das Einschätzen der Vor- und Nachteile für einen selbst, für die Gruppe/ Organisation oder für die Klienten und
•    andererseits um das Einschätzen des Einflusses negativer Emotionen wie
             - Furcht, Angst
             - Scham
             - Verlegenheit und
             - Schuldgefühle.

(3) In einem abschließenden Schritt geht es um die Ermittlung des Verhaltens, das aus dem Vorangegangenen resultiert. Hier unterscheiden die Autoren wieder

•    Verhalten, das berichtet wurde
-    Berichte über das reale Geschehen
-    Berichte, bei denen rationalisiert wird
-    Berichte, denen ein Tadel folgte
•    Verhalten, das nicht berichtet wurde. Dabei unterscheiden die Autoren
-  Verdecken
-  Verdrehen, Vertuschen
-  Ignorieren

     Die Autoren beschäftigen sich aus sozialpsychologischer Perspektive besonders ausführlich mit „costs“ und „benefits of reporting“.

Die Kosten von Fehlermeldungen:

•    Meistens befürchten die Menschen manifeste materielle, oft auch ökonomische Konsequenzen, wenn sie über ihre eigenen Fehler berichten. Die Meldung von Fehlern erscheint ihnen deshalb zu risikoreich.
•    Andere  Befürchtungen beziehen sich auf eine Schädigung des persönlichen Images bzw. der Reputation von sich selbst oder der eigenen Gruppe..
•     Vielfach scheuen Menschen auch die Mühe der Fehlermeldung.

Die „Segnungen“ von Fehlermeldungen sind dagegen:

•    Das eigene Selbstverständnis wird gestärkt, indem man laufend die eigene Arbeitsleistung auch mit ihren Fehlern zu evaluieren sucht.
•    Fehlermeldungen ermöglichen es den einzelnen, aus Fehlern zu lernen.
•    Error reporting fördert auch das Lernen von Gruppen und Organisationen.
•    Und natürlich ist es vorteilhaft für Klienten, die eventuell Opfer von Fehlern werden.


11. Schritte zu einer qualifizierten Fehlerkultur in Kliniken durch Maßnahmen der Personalentwicklung

    Das Leitziel aller Maßnahmen zur Etablierung einer qualifizierten Fehlerkultur in Kliniken muss in einer grundlegend veränderten Einstellung gegenüber Fehlern bestehen. Das heißt, im Idealfall entwickelt sich eine paradoxe Sicht, wonach  Fehler erst dann vermeidbar werden, wenn sie als möglich, aber auch als lehrreich betrachtet werden. Denn erst ab einer gewissen Fehlertoleranz innerhalb eines Systems werden sie der Kommunikation und damit dem Lernen zugänglich, um sie auf diese Weise möglichst weitgehend zu vermeiden.

   In Analogie zur Luftfahrt sind dann folgende Grobziele zu verfolgen (Glazinski & Wiedensohler 2004):

-    Es muss Fehlerevaluation anstatt der Suche nach Schuldigen stattfinden.
-    Auch hier wäre ein interdisziplinärer Ansatz angebracht, der Wissen aus der Arbeits- und Organisationspsychologie, der Personalwirtschaft sowie anderen Sozialwissenschaften einbezieht.
-    Man sollte auch ein angemessenes Fehlermanagement etablieren, das die Implementierung strategischer Maßahmen zur Fehlerprävention vorsieht (etwa die systematische Überprüfung von Patientendaten vor jeder OP)
-    Dazu wäre eine Fehlerpropädeutik durch Spezialkurse günstig, d.h. das Erlernen von Techniken zur Fehlervermeidung.
-    Darüber hinaus ist auf die Etablierung eines fehlerarmen Arbeitsumfeldes zu achten.

   Als spezifische Maßnahmen sind hier zu empfehlen:

(1) Als einen ersten Schritt sollten Kliniken Fehlermeldesysteme etablieren, die das anonyme Melden von latenten Fehlern, kritischen Ereignissen, beinahe Komplikationen und aktiven Fehlern vorsehen

(2) Wenn das Fehlermeldesystem erfolgreich sein soll, d.h. aus ihm dynamisches „Fehlerlernen“ ermöglicht werden soll, ist ein organisationskultureller Wandel unerlässlich. Und dieser muss bei der Führung bzw. dem Führungskader ansetzen. Aus diesem Grund wird    im Zeitraum der Einführung des Fehlermeldesystems und der nachfolgend beschriebenen Maßnahmen Einzel-Coaching des Chefarztes, daran anschließend Team-Coaching des Leitungsteams unerlässlich sein. Diese Maßnahmen sollten in der gesamten Klinik verlautbart werden, um allen Mitarbeitern zu signalisieren: „Hier stellt sich die gesamte Hierarchie neuen Anforderungen.“

(3) Wenn die ersten Einzel- und Team-Coachings gut angelaufen sind, sich vielleicht sogar ihrem Ende zuneigen, sollten Teamtrainings mit den Gesamtteams, also mit Ärzten, Pflegern usw., auf allen Hierarchie-Ebenen stattfinden. Hier wäre es komplett kontraindiziert, wenn nur die Pfleger oder nur die Ärzte als Gruppe zusammenfinden.

(4) Im Verlauf dieser Teamtrainings sollte im Rahmen von Kommunikationstrainings vor allem Feedback Geben und Nehmen trainiert werden. Ein ideales Ergebnis wäre, wenn in Analogie zur Luftfahrt jeder hierarchisch noch so niedrige Mitarbeiter sich traut, dem Chefarzt etwas Kritisches zu sagen. 

(5) Und schließlich sollten die Teams mit allen Hierarchie-Ebenen und Berufsgruppen supervidiert werden.

Zusammenfassung:

   Der vorliegende Beitrag thematisiert die Phänomene „Fehlerkultur“ und „Fehlermanagement“. Nach grundlegenden Fragestellungen aus pädagogischen, wirtschaftlichen und sonstigen Kontexten, befasst sich der Beitrag mit Fehlerkultur und Fehlermanagement in Hochsicherheitssystemen, dabei besonders in Kliniken. Zentrales Problem scheint hier das hierarchische Verständnis zu sein. Zum Abschluss werden Empfehlungen für die Personalentwicklung zur Etablierung einer angemessenen Fehlerkultur in Kliniken gegeben.

Summary:

   The author picks up themes about error culture and error management. As a first step are discussed the relationships between error culture and education and error management and economics. After this the main view of the article lies on high security systems like the atomic industries and the air transportation business. Especially the error reporting in the cockpit may be a model for developing good error cultures in clinics. In the end the author gives some recommendations in personal work for clinics

Keywords: Error culture, error management, error reporting in clinics


Literatur

Beck, U. (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt/M.: Suhrkamp.

Glazinski, R., Wiedensohler, R. (2004): Patientensicherheit und Fehlerkultur im Gesundheitswesen. Fehlermanagement als interdisziplinäre Aufgabe in der Patientenversorgung. Eschborn: Verlag Dr.Dr. Rolf  Glazinski.

Helmreich, R.L. (1984): Cockpit management attitudes. Human factors, 26; 583-589.

Hochreither, P. (2004): Erfolgsfaktor Fehler! Persönlicher Erfolg durch Fehler. Göttingen 2005: Business Village.

Liebl, K.-H. (Hg.)(2004): Empirische Polizeiforschung V: Fehler und Lernkultur in der Polizei. Frankfurt: Verlag f. Polizeiwissenschaft.

 Oser, F., Spychinger, M. (2005): Lernen ist schmerzhaft. Zur Theorie des negativen Wissens und zur Praxis der Fehlerkultur. Weinheim und Basel: Beltz Pädagogik.

Rall, M., Manser, T., Guggenberger, H., Gaba, M.D., Unertl, K. (2001): Patientensicherheit und Fehler in der Medizin. Entstehung, Prävention und Analyse von Zwischenfällen. Anästhesiol Intensivmed Notfallmed Schmerzther. S. 321-330.

Reason, J. (1994): Menschliches Versagen: Psychologische Risikofaktoren und moderne Technologien. Heidelberg: Spektrum.

Sexton, J.B., Thomas, E.J., Helmreich, R.L. (2000): Error, Stress, and teamwork in medicine and aviation: cross sectional surveys. BMJ 2000; 320: 745-749.

Süddeutsche Zeitung Nr. 95, 25.4.07, 12.

Thomeczek, C. (2001): Fehlerquelle “Mensch”. Berliner Ärzte 2001, 38, 12-16.

VNR-Letter 11.1.07 „Checkliste für Chefs“.

Wikipedia 11.1.07, Fehlerkultur, Fehlermanagement“.

Zhao, B., Olivera, F. (2006): Error Reporting in Organizations. Academy of Management Review, Vol 31. No 4, 1012-1030.