Die Hochschule Heilbronn bietet, zusammen mit der Uni Heidelberg, als erste Hochschule
in Deutschland seit 1972 das Studienfach "Medizinische Informatik" an. Seitdem hat
sich das Fach enorm weiterentwickelt. Prof. Alexandra Reichenbach, Forschungsprofessorin für Neuroinformatics, Direktorin des Zentrums
für Maschinelles Lernen, Prodekanin IT-Fakultät, spricht im Interview über die Möglichkeiten und Perspektiven
digitaler Techniken in der ärztlichen Praxis und in der Patienten-Arzt-Beziehung.
Alexandra Reichenbach: Das ist im Kern eigentlich ganz
einfach. Computer existieren nicht im luftleeren Raum, sondern
Computer sind eigentlich dafür geschaffen, um dem Menschen zu
helfen. Dadurch haben Computersysteme vielfältige Schnittstellen
zum Menschen und diese Schnittstellen wollen bedient werden. Der
Computer hat Ein- und Ausgabekanäle, genauso wie der Mensch.
Wenn ein Informatiker also nicht nur den Computer mit seinen
Nullen und Einsen, sondern auch noch den Menschen in seiner
Komplexität versteht, mit seinen kognitiven und emotionalen
Prozessen, seinen Bedürfnissen, dann kann diese Interaktion
wesentlich besser gestaltet werden, damit der Mensch noch besser
auf den Computer eingestimmt und der Computer noch besser
den menschlichen Bedürfnissen angepasst werden kann.
In der medizinischen Informatik werden sämtliche IT-Systeme
betrachtet, die in der Medizin zum Einsatz kommen, welche die
entsprechenden medizinischen Prozesse, ja sogar medizinische
Tätigkeiten unterstützen. Und das kann sehr vielfältig sein, von Krankenhausinformationssystemen, in denen Patientenakten
elektronisch angelegt, Informationen über Patienten gesammelt
und zusammengeführt werden, bis hin zu computergestützten
Therapien, Operationen oder Diagnostik. Wenn man beispielsweise in der Diagnostik Bilder aufnimmt, sei es mit Röntgen oder
mit MRT, um da ein für Menschen sichtbares Bild zu generieren,
muss der Computer erst einmal diese Informationen verarbeiten,
die dort aufgenommen werden. Inzwischen geht das aber noch
weiter, dass diese Bilder, die traditionell von Radiologen gelesen
werden, auch automatisiert weiterverarbeitet, aus denen weitere
Informationen extrahiert werden, die es dann den Medizinern
einfacher machen, Entscheidungen zu fällen bezüglich einer
Erkrankung oder dem Zustand eines Patienten. Über diese zwei
Vorgänge hinaus gibt es noch eine Vielzahl anderer Aspekte, die
in der Medizininformatik betrachtet werden.
Die Systeme, von denen ich vorhin geredet habe, sind eher
Hilfssysteme für Ärzte. Die Arzt-Patienten-Kommunikation
bleibt ja erhalten. Die digitalen Systeme helfen dem Arzt nur als
Entscheidungsunterstützung anhand der Daten, die er eingibt
oder die vom Patienten gemessen werden. Aber es ist durchaus
möglich, dass ein Computer in manchen Fällen die Diagnostik ohne
den Arzt durchführt. Das ist jedoch sehr schwierig. Zum einen,
wie ist die Eingabe in so ein System? Da müsste der Computer
die Sprache verstehen. Das ist nicht ganz so einfach, wenn man
sich die Kommunikation mit den bekannten Sprachassistenten
anschaut. Die zweite Sache ist die Intonation als emotionaler
Ausdruck dessen, was der Mensch sagt. Dort gibt es zwar schon
erste Ansätze, dass zumindest der emotionale Inhalt der Stimme
analysiert werden kann. Weiterhin ist Sprache vieldeutig, was das
Ganze nochmal verkompliziert. Und dann sind da noch als weitere
Informationsquelle des Arztes seine Augen. Das ist auch etwas,
was man dann entsprechend bei einem guten Diagnostikcomputer
abbilden müsste, dass dieser auch noch sehen kann: Wie sieht der
Patient aus, gibt es da irgendwelche Auffälligkeiten? Das sind schon sehr viele Dinge, die für eine gute Interaktion zusammenkommen müssen, wenn man wirklich daran denken würde, einen
Arzt durch einen Computer zu ersetzen. Ich bin kein großer Fan
von diesem Gedanken, aber wenn man das mal rein theoretisch
durchdenken würde, gibt es da schon mal mindestens diese vier
Ebenen, die der Computer aufnehmen, verstehen, interpretieren
und schließlich diese Information zusammenfügen muss, um
darauf basierend dann handeln zu können. Der Mensch kann das
auch nicht immer ideal. Es gibt genug Menschen, die reden mit
jemandem und verstehen diese Person nicht, obwohl sie die gleiche
Sprache sprechen. Und wenn schon das menschliche Gehirn, das
sich für sowas wie eine zwischenmenschliche Kommunikation über
Jahrmillionen entwickelt hat, das nicht immer ganz einwandfrei
hinkriegt, bin ich jetzt nicht ganz so guter Dinge, dass das ein
Job ist, den ein Computer so wunderbar hinbekommt.
Mir fallen da gleich mehrere Ebenen ein. Die erste Frage ist,
woher können Missverständnisse menschlicher Kommunikation
kommen? Ob das von einem bestimmten Weltbild kommt, ob das
aus der eigenen Intention resultiert, ob man es einfach missverstehen möchte, ob das vom aktuellen emotionalen Zustand abhängt.
Viele Dinge, die wir tun und denken, machen wir sehr implizit.
Sobald wir anfangen, uns explizit Gedanken über diese Dinge
zu machen, die wir gerade tun, warum wir sie tun, und uns selbst
reflektieren, dann können wir solche Missverständnisse auch häufig auflösen. Das ist aber selten der Fall, denn es ist es ziemlich
anstrengend, die ganze Zeit auf so einer Metaebene sich selbst zu
reflektieren oder teilweise auch von außen noch draufzuschauen.
Aber sobald wir explizit werden, kann man gerade so etwas wie
Missverständnisse relativ einfach auflösen. Wenn man einfach mal
auf eine Unterhaltung schaut, von oben oder als dritter nochmal,
denkt man sich, na klar, wir reden hier aneinander vorbei. Aber
wenn man selbst drinnen ist, ist das schwieriger. Und das wäre
jetzt zum Beispiel der Vorteil eines Computers, dass da durchaus
ein Prozess abgezweigt werden kann, der auf die Metaebene
schaut und parallel mitläuft und schaut, okay, läuft das eigentlich
noch gut? Dafür müsste man das halt entsprechend auch erstmal
aufsetzen, dass ein Computer sowas machen könnte. Und das ist
eine ziemliche Herausforderung. Da sehe ich unsere heutigen
KI-Systeme noch nicht.
Der Mensch hat sich vor allem am Anfang sehr stark auf
den Computer einstellen müssen. Inzwischen hat sich das eher
ein bisschen angenähert, dass sich der Mensch nicht mehr ganz
so stark dem Computer anzupassen hat. Da geht allerdings noch
was bezüglich der Interaktion des Menschen mit dem Computer.
Hier kann meines Erachtens der Computer auch noch ein paar
weitere Schritte gehen, dass der Mensch dem Computer weniger
entgegenkommen muss. Und dafür braucht es, wie gesagt, dass
jemand, der Computer baut und programmiert, auch verstehen
muss, wie dieses menschliche Input-Output-System funktioniert,
um da nochmal ein Stück weiter in Richtung Mensch zu kommen.
Also dieses gegenseitige Verstehen als Team zu erarbeiten, das
wäre für mich das Höchste, wobei ich es wirklich primär so sehe,
dass die Maschine sich so weit wie möglich dem Menschen anpassen sollte, und nicht andersherum.
Mit der "School of Applied Artificial Intelligence (SAAI)" wird die Hochschule Heilbronn ihr Angebot in Sachen "Künstliche Intelligenz" (KI) in den Bereichen Lehre, Forschung und Transfer weiter ausbauen. Als starker Partner in der Wirtschaftsregion fördern wir somit die qualifizierte Ausbildung von Fach- und Führungskräften und behandeln hier insbesondere auch ethische Fragestellungen rund um den Einsatz von KI, damit wir den öffentlichen Diskurs um Chancen und Grenzen der KI informiert mitgestalten können.
Das Team der Hochschulkommunikation hakt nach, unsere HHN-Expert*innen klären auf: Ob relevante Themen aus der Wirtschaft, der Gesellschaft oder aus unserem Alltag - hier wird Tacheles geredet.