Bericht der Abendveranstaltung am Rande der 11. DV
Chatbots: Patient*innendaten nicht sicher
Im Rahmen der Abendveranstaltung am Freitag der elften Delegiertenversammlung hielt Prof. Dr. Harald Baumeister, Universität Ulm, einen Vortrag zum Thema „Einsatz von KI in der Psychotherapie“. Der Vortrag beginnt mit einem Podcast – 2:30 Minuten unterhalten sich zwei Personen über ein ausgewähltes Thema. Sie klingen ganz natürlich, wie in einem der vielen Podcasts oder Radiosendungen, die wir täglich hören. „Dieser Podcast wurde komplett in wenigen Stunden von einer meiner wissenschaftlichen Mitarbeiterinnen erstellt, ohne Profikenntnisse“, klärt Baumeister auf. Die Reaktionen im Raum sind unterschiedlich – je nach bisheriger Erfahrung mit künstlicher Intelligenz. Einigkeit besteht aber darin: Das hätte ich ohne Aufklärung nicht gemerkt.
Was ist KI?
Anschließend folgt eine Einordnung der Begrifflichkeit „KI“: „Intelligenz“ als abstraktes, vernünftiges Denken, „künstlich“ als technisch oder chemisch nachgebildet. KI sei keine Zauberei, sondern auf einfache Rechenmodelle der Mathematik zurückzuführen. Bei der KI gebe es verschiede Arten von Lernprozessen wie beispielsweise das sogenannten „Deep Learning“: Ein Computer erhält Grundprinzipien und das Ziel, ein Spiel zu gewinnen. Durch unaufhörliches Training gemäß „Trial and Error“ schafft er innerhalb weniger Tage den Sprung vom Amateurniveau im Schachspiel oder beim Spiel GO zur Unschlagbarkeit.
Häufig fehle die Differenzierung zwischen KI und Digitalen Gesundheitsanwendungen (DiGA), so Baumeister. Zur Einordnung verwies er auf die rasche Weiterentwicklung und betonte, dass „Trial and Error“ für die Interaktion mit Menschen nicht in gleicher Weise anwendbar sei wie bei einem Spiel. Erste Publikationen zur Evidenz von Chatbots in der Medizin zeigen keine Wirksamkeitsunterschiede gegenüber DiGAs.
Chancen und Gefahren
Als konkrete Einsatzmöglichkeiten von KI in der Psychotherapie nannte Baumeister allen voran Dokumentationstools, die bereits in der Entwicklung seien. Außerdem sprach er im Hinblick auf psychotherapeutische Intervention von „Persuasive Design“ zur Orientierung in Überforderungssituationen für Patient*innen, „Mobile Sensing“ zur Früherkennung von Symptomen und Interventionen oder Kurz-Erinnerungen, die in der belastenden Situation gegeben werden, um die Patient*innen daran zu erinnern, was sie machen sollten bzw. wollten.. In diesem Kontext seien zukünftig vermutlich auch Stimmmerkmale als Träger von Emotionen wertvolle Hinweise, die dann der Emotionserkennung dienen könnten.
Deutlich fiel die Datenschutz-Warnung aus: Mentale Gesundheitsdaten landen bei der Nutzung von beispielsweise ChatGPT ungeschützt in den Netzen der Anbieter. Daher sollten Psychotherapeut*innen unter keinen Umständen z.B. Fallberichte mit KI verfasst werden, denn die kann mit sehr großer Wahrscheinlichkeit die Personen mit wenigen Informationen namentlich identifizieren.
Diskussion
In der anschließenden Diskussion wurden psychosoziale Folgen, Datensicherheit und Fake-Informationen angesprochen, inklusive der Frage, wer künftig seriöse Forschungsergebnisse filtert und welche kommerziellen Interessen, zum Beispiel Datenverwertung oder die Bindung von Patient*innen, eine Rolle spielen. Beiträge aus dem Plenum hoben mögliche Paradigmenwechsel und Veränderungen im Menschen- und Selbstbild hervor sowie das Risiko einer Abhängigkeit von Anwendungen. Weitere Stimmen betonten die dringende Notwendigkeit der Aufklärung über den bislang naiven Umgang mit KI-Tools. Abschließend wurde betont, dass die Entwicklung schneller verläuft als die Anwendungsforschung. Laut Baumeister gebe es daher noch viele Baustellen und ungeklärte Fragen an dieser Stelle.
