Eine Roboterhand und eine menschliche Hand berühren sich.

Mensch und Maschine. Kann der Computer den Arzt ersetzen?

Hanix|28.09.2021
Prof. Dr. rer. nat. Alexandra Reichenbach
"Also dieses gegenseitige Verstehen als Team zu erarbeiten, das wäre für mich das Höchste, wobei ich es wirklich primär so sehe, dass die Maschine sich so weit wie möglich dem Menschen anpassen sollte, und nicht andersherum."
Prof. Dr. rer. nat. Alexandra Reichenbach

Die Hochschule Heilbronn bietet, zusammen mit der Uni Heidelberg, als erste Hochschule in Deutschland seit 1972 das Studienfach "Medizinische Informatik" an. Seitdem hat sich das Fach enorm weiterentwickelt.  Prof. Alexandra Reichenbach, Forschungsprofessorin für Neuroinformatics, Direktorin des Zentrums für Maschinelles Lernen, Prodekanin IT-Fakultät, spricht im Interview über die Möglichkeiten und Perspektiven digitaler Techniken in der ärztlichen Praxis und in der Patienten-Arzt-Beziehung. 

Hanix: Frau Professorin Reichenbach, auf der Homepage des von Ihnen betreuten Schwerpunktfaches "Psychologie und Informatik", wird geworben, man werde zum IT-Experten und Menschenversteher. Wie geht beides zusammen?

Alexandra Reichenbach: Das ist im Kern eigentlich ganz einfach. Computer existieren nicht im luftleeren Raum, sondern Computer sind eigentlich dafür geschaffen, um dem Menschen zu helfen. Dadurch haben Computersysteme vielfältige Schnittstellen zum Menschen und diese Schnittstellen wollen bedient werden. Der Computer hat Ein- und Ausgabekanäle, genauso wie der Mensch. Wenn ein Informatiker also nicht nur den Computer mit seinen Nullen und Einsen, sondern auch noch den Menschen in seiner Komplexität versteht, mit seinen kognitiven und emotionalen Prozessen, seinen Bedürfnissen, dann kann diese Interaktion wesentlich besser gestaltet werden, damit der Mensch noch besser auf den Computer eingestimmt und der Computer noch besser den menschlichen Bedürfnissen angepasst werden kann.

Was ist medizinische Informatik, wofür Sie ja hier an der Hochschule Heilbronn stehen? Welchen Nutzen hat sie für den Menschen?

In der medizinischen Informatik werden sämtliche IT-Systeme betrachtet, die in der Medizin zum Einsatz kommen, welche die entsprechenden medizinischen Prozesse, ja sogar medizinische Tätigkeiten unterstützen. Und das kann sehr vielfältig sein, von Krankenhausinformationssystemen, in denen Patientenakten elektronisch angelegt, Informationen über Patienten gesammelt und zusammengeführt werden, bis hin zu computergestützten Therapien, Operationen oder Diagnostik. Wenn man beispielsweise in der Diagnostik Bilder aufnimmt, sei es mit Röntgen oder mit MRT, um da ein für Menschen sichtbares Bild zu generieren, muss der Computer erst einmal diese Informationen verarbeiten, die dort aufgenommen werden. Inzwischen geht das aber noch weiter, dass diese Bilder, die traditionell von Radiologen gelesen werden, auch automatisiert weiterverarbeitet, aus denen weitere Informationen extrahiert werden, die es dann den Medizinern einfacher machen, Entscheidungen zu fällen bezüglich einer Erkrankung oder dem Zustand eines Patienten. Über diese zwei Vorgänge hinaus gibt es noch eine Vielzahl anderer Aspekte, die in der Medizininformatik betrachtet werden.

Wie kann ich mir eine Mensch-Maschinen-Kommunikation in Hinsicht auf Diagnose, Erfassung von Krankheiten und dergleichen vorstellen? Der Computer hat nicht wirklich ein intuitives Verständnis für Sprache oder das mit ihr vom Patienten Gemeinte.

Die Systeme, von denen ich vorhin geredet habe, sind eher Hilfssysteme für Ärzte. Die Arzt-Patienten-Kommunikation bleibt ja erhalten. Die digitalen Systeme helfen dem Arzt nur als Entscheidungsunterstützung anhand der Daten, die er eingibt oder die vom Patienten gemessen werden. Aber es ist durchaus möglich, dass ein Computer in manchen Fällen die Diagnostik ohne den Arzt durchführt. Das ist jedoch sehr schwierig. Zum einen, wie ist die Eingabe in so ein System? Da müsste der Computer die Sprache verstehen. Das ist nicht ganz so einfach, wenn man sich die Kommunikation mit den bekannten Sprachassistenten anschaut. Die zweite Sache ist die Intonation als emotionaler Ausdruck dessen, was der Mensch sagt. Dort gibt es zwar schon erste Ansätze, dass zumindest der emotionale Inhalt der Stimme analysiert werden kann. Weiterhin ist Sprache vieldeutig, was das Ganze nochmal verkompliziert. Und dann sind da noch als weitere Informationsquelle des Arztes seine Augen. Das ist auch etwas, was man dann entsprechend bei einem guten Diagnostikcomputer abbilden müsste, dass dieser auch noch sehen kann: Wie sieht der Patient aus, gibt es da irgendwelche Auffälligkeiten? Das sind schon sehr viele Dinge, die für eine gute Interaktion zusammenkommen müssen, wenn man wirklich daran denken würde, einen Arzt durch einen Computer zu ersetzen. Ich bin kein großer Fan von diesem Gedanken, aber wenn man das mal rein theoretisch durchdenken würde, gibt es da schon mal mindestens diese vier Ebenen, die der Computer aufnehmen, verstehen, interpretieren und schließlich diese Information zusammenfügen muss, um darauf basierend dann handeln zu können. Der Mensch kann das auch nicht immer ideal. Es gibt genug Menschen, die reden mit jemandem und verstehen diese Person nicht, obwohl sie die gleiche Sprache sprechen. Und wenn schon das menschliche Gehirn, das sich für sowas wie eine zwischenmenschliche Kommunikation über Jahrmillionen entwickelt hat, das nicht immer ganz einwandfrei hinkriegt, bin ich jetzt nicht ganz so guter Dinge, dass das ein Job ist, den ein Computer so wunderbar hinbekommt.

Sie verweisen auf menschliche Missverständnisse. Kann der Computer da präzisierend eingreifen? Kann der Computer Missverständnisse in der menschlichen Kommunikation besser wahrnehmen, besser interpretieren, als wir Menschen das können?

Mir fallen da gleich mehrere Ebenen ein. Die erste Frage ist, woher können Missverständnisse menschlicher Kommunikation kommen? Ob das von einem bestimmten Weltbild kommt, ob das aus der eigenen Intention resultiert, ob man es einfach missverstehen möchte, ob das vom aktuellen emotionalen Zustand abhängt. Viele Dinge, die wir tun und denken, machen wir sehr implizit. Sobald wir anfangen, uns explizit Gedanken über diese Dinge zu machen, die wir gerade tun, warum wir sie tun, und uns selbst reflektieren, dann können wir solche Missverständnisse auch häufig auflösen. Das ist aber selten der Fall, denn es ist es ziemlich anstrengend, die ganze Zeit auf so einer Metaebene sich selbst zu reflektieren oder teilweise auch von außen noch draufzuschauen. Aber sobald wir explizit werden, kann man gerade so etwas wie Missverständnisse relativ einfach auflösen. Wenn man einfach mal auf eine Unterhaltung schaut, von oben oder als dritter nochmal, denkt man sich, na klar, wir reden hier aneinander vorbei. Aber wenn man selbst drinnen ist, ist das schwieriger. Und das wäre jetzt zum Beispiel der Vorteil eines Computers, dass da durchaus ein Prozess abgezweigt werden kann, der auf die Metaebene schaut und parallel mitläuft und schaut, okay, läuft das eigentlich noch gut? Dafür müsste man das halt entsprechend auch erstmal aufsetzen, dass ein Computer sowas machen könnte. Und das ist eine ziemliche Herausforderung. Da sehe ich unsere heutigen KI-Systeme noch nicht.

Inwieweit folgt der Interaktion mit digitalen Medien und der KI auch eine Mechanisierung des Menschen in Anpassung an die Fähigkeiten des Computers?

Der Mensch hat sich vor allem am Anfang sehr stark auf den Computer einstellen müssen. Inzwischen hat sich das eher ein bisschen angenähert, dass sich der Mensch nicht mehr ganz so stark dem Computer anzupassen hat. Da geht allerdings noch was bezüglich der Interaktion des Menschen mit dem Computer. Hier kann meines Erachtens der Computer auch noch ein paar weitere Schritte gehen, dass der Mensch dem Computer weniger entgegenkommen muss. Und dafür braucht es, wie gesagt, dass jemand, der Computer baut und programmiert, auch verstehen muss, wie dieses menschliche Input-Output-System funktioniert, um da nochmal ein Stück weiter in Richtung Mensch zu kommen. Also dieses gegenseitige Verstehen als Team zu erarbeiten, das wäre für mich das Höchste, wobei ich es wirklich primär so sehe, dass die Maschine sich so weit wie möglich dem Menschen anpassen sollte, und nicht andersherum.

Weitere Informationen

Mit der »School of Applied Artificial Intelligence (SAAI)« wird die Hochschule Heilbronn ihr Angebot in Sachen »Künstliche Intelligenz« (KI) in den Bereichen Lehre, Forschung und Transfer weiter ausbauen. Als starker Partner in der Wirtschaftsregion fördern wir somit die qualifizierte Ausbildung von Fach- und Führungskräften und behandeln hier insbesondere auch ethische Fragestellungen rund um den Einsatz von KI, damit wir den öffentlichen Diskurs um Chancen und Grenzen der KI informiert mitgestalten können. 

Mann vor Bücherregal

Expert*innen-Interviews

  • Einfach mal nachgehakt!

Das Team der Hochschulkommunikation hakt nach, unsere HHN-Expert*innen klären auf: Ob relevante Themen aus der Wirtschaft, der Gesellschaft oder aus unserem Alltag - hier wird Tacheles geredet. 

Zum News

Empfohlene Artikel


Aktuelle Artikel

Eine Roboterhand und eine menschliche Hand berühren sich.
Mensch und Maschine. Kann der Computer den Arzt ersetzen?
28.09.2021

Logo des Audits familiengerechte Hochschule. Die HHN ist seit 2005 zertifiziert.
Logo der weltoffenen Hochschulen gegen Fremdenfeindlichkeit
Logo der Charta der Vielfalt mit Stempel unterzeichnet
Logo der Hochschulföderation Süd-West (HfSW)