Digital Health vor dem Absturz bewahren
Die Medizinbranche muss aus den Folgen der jüngsten Boeing-Flugzeugkatastrophen lernen, warnt Walter Karlen und weist auf Parallelen hin.
Seit Wochen verfolge ich aufmerksam die Berichterstattung über die Tragödien des Lion-Air-Fluges 610 und des Fluges 302 der Ethiopian Airlines. Die Abstürze des neuen Flugzeugtyps 737 Max von Boeing erfolgten nach sehr ähnlichen Mustern. 189 respektive 158 Menschen kamen ums Leben. Nicht nur diese Todesfälle machen mich betroffen, auch sehe ich Parallelen zwischen den Ursachen dieser Flugunfälle und Forschungsfragen, mit denen ich mich in meinem Gebiet, der Digitalisierung und Automatisierung im Gesundheitswesen, beschäftige.
Parallelen zwischen Luftfahrt und Medizin zu ziehen, ist nicht neu: Anästhesisten, die einen Patienten sicher durch eine Operation "steuern", wurden schon oft mit Linienpiloten verglichen. Auch ist die Surgical Safety Checklist der WHO (1) direkt von den Kontrollchecks der Piloten vor dem Start und nach der Landung inspiriert. Eines unserer Forschungsprojekte schliesslich, in dem wir gemeinsam mit dem Unispital Zürich mit datenwissenschaftlichen Methoden das Patientenmonitoring in Intensivstationen (engl. ICU) verbessern möchten, heisst nicht ohne Grund ICU-Cockpit (2, 3).
Der Fall Boeing 737 Max veranschaulicht jedoch zwei neue Parallelen zwischen diesen Bereichen: einerseits die zunehmende Digitalisierung und Automatisierung und andererseits, weit weniger ehrenhaft, die Gewinnmaximierung von Unternehmen. Dass diese im Fall von Boeing eine massgebliche Rolle spielte, legt ein Artikel nahe, der kürzlich in der New York Times erschienenen ist (4).
Zusammenfassend gesagt: Boeing stand unter grossem Wettbewerbsdruck. Anstatt in die teure und zeitaufwändige Entwicklung eines neuen modernen Flugzeugs zu investieren, hat die Firma ein über 40 Jahre altes Flugzeugmodell überarbeitet. Um Marketinganforderungen wie tiefe Betriebskosten zu erfüllen, verwendete sie neue, aber für das alte Flugzeug ungeeignete Technologie. Um aerodynamische Mängel auszugleichen, entwickelte sie eine Software, die entgegen aller Best Practice der Branche eingreift, ohne dass der Pilot es merkt. In aller Eile vergass Boeing, die Änderungen im Flugzeug-Handbuch zu vermerken und Fluggesellschaften und Piloten über diese Mechanismen zu informieren. Ausserdem übersah die Firma, dass grundlegende Sicherheitsfunktionen bloss Teil eines kostspieligen Add-ons sind, welches die meisten kostenbewussten Fluggesellschaften gar nicht kauften. Und die Flugzeugingenieure von Boeing ignorierten – wahrscheinlich aufgrund eines späten Systemwechsels – das Grundprinzip der Redundanz, mit welcher ein Sensorausfall hätte kompensiert werden können. Selbst als diese Fehler nach dem ersten Unfall bekannt wurden, versäumte es das Unternehmen, die Beteiligten schnell und im Detail zu informieren, um so einen weiteren Unfall zu verhindern.
Wir sind nicht vor solchen Fehlern gefeit
In meiner Arbeit befasse ich mich mit der Entwicklung einer Reihe von Medizinalgeräten und Software, welche Diagnosen stellen oder sogar Interventionen durchführen können. Zu Forschungszwecken werden diese Geräte derzeit in Kliniken getestet. Fehlfunktionen können da recht schnell fatale Folgen haben.
Auch in unserem Bereich stehen Mitarbeiter unter Druck, im Fall von Doktorierenden etwa, wenn sie ihre Doktorarbeit möglichst schnell abzuschliessen gedenken oder wenn die befristete Finanzierung endet. Da ist die Versuchung gross, sich nicht immer an Best Practices zu halten. Jedenfalls ist auch der Medizinbereich nicht vor Fehlern gefeit, wie sie Boeing unterliefen. In unserer Branche könnten Fehler sogar zu noch grösseren Verlusten von Menschenleben führen. Leider wären diese Fälle aber wahrscheinlich schwieriger zu erkennen, da sie weltweit auf viele Spitäler verteilt auftreten würden.
Nicht genügend Sicherheitsforschung
Im Gesundheitssystem der Schweiz und anderer Länder ist der Kostendruck und die schrittweise Kommerzialisierung offensichtlich. Spitäler und Hersteller von Medizinalprodukten spüren den Druck von Politik und Aktionären, Kosten zu senken und Leistungen zu erhöhen.
Digitale Gesundheit und die Erhebung von Gesundheitsdaten aus der Ferne mit Wearables ist Teil fast jeder neuen Gesundheitsinitiative; Automatisierung und künstliche Intelligenz sind die grossen Schlagworte. Es scheint so, als ob die Behörden immer noch überwältigt sind von den neuen Möglichkeiten. Jedenfalls sind sie spät dran mit einer dringend benötigten, eindeutigen Regulierung. Sowohl in der Luftfahrt als auch in der Medizintechnik setzen die Behörden weitgehend auf Herstellerverantwortung und Selbstdeklaration, auch bei branchenfremden Herstellern, die neu in diesem Bereich tätig sind.
Wenn ich die Forschungsprojekte in meinem Gebiet anschaue, scheint mir, dass sich nur wenige davon mit Fragen der Sicherheit, Redundanz, Risikobewertung und Benutzerfreundlichkeit befassen. Möglicherweise werden diese ingenieurwissenschaftlichen Themen deswegen oberflächlich behandelt, weil sie als teilweise bereits gut erforscht gelten und einen zu angewandten Charakter haben. Dennoch haben wir jeden Anlass, diese entscheidenden Fragen auch im Bereich Digital Health zu untersuchen.
Verantwortungsvoller handeln
Aber bereiten wir unsere Studenten darauf vor? Oder ermutigen wir sie ausschliesslich, Risiken einzugehen und blind in die nächste Startup-Blase zu springen, bringen ihnen die neusten Data-Crunching-Methoden bei, um den Anforderungen des Arbeitsmarktes zu entsprechen, und trimmen wir unsere Doktoranden einzig darauf, Forschung zu betreiben, welche sich in hochrangigen Fachzeitschriften veröffentlichen lässt?
Nach dem Vorbild des Hippokratischen Eides in der Medizin haben Ingenieure vor einigen Jahren den Eid des Archimedes (5) vorgeschlagen. Kurz gesagt geht es darum, für sein Handeln verantwortlich zu sein, keinen Schaden anzurichten und seine Fähigkeiten für das soziale Wohl einzusetzen. Ich glaube, es ist Zeit, diesen Eid des Archimedes wieder aufleben zu lassen. Nicht nur als Schriftstück, das einem mit dem Master-Diplom ausgehändigt wird, sondern als zentraler Teil der Ausbildungs- und Forschungsprogramme an der ETH. Es braucht mehr gut ausgebildete Ingenieure, die stets verantwortungsvoll handeln, und es ist an der Zeit, ihnen in Technologieunternehmen auch für Produktentscheidungen wieder ein grösseres Mitspracherecht zu geben.
Referenzen
(1) WHO Surgical Safety Checklist
(2) NFP 75 Big Data
(3) Weniger Fehlalarme auf der Intensivstation (ETH-News 23.01.2019)
(4) Boeing Believed a 737 Max Warning Light Was Standard. It Wasn’t. New York Times, 5. Mai 2019
(5) https://en.wikipedia.org/wiki/Archimedean_Oath