Personalisierte Prävention durch KI – Chancen und Grenzen

Künstliche Intelligenz (KI) kann einen gesunden Lebensstil und Behandlungen bei Krankheit unterstützen – mit personalisierten Anwendungen. Doch sie ersetzt keine menschliche Entscheidung oder Expertise. KI wirkt oft klug, kann aber sehr unzuverlässig sein. Der Mensch-Technik-Interaktions-Forscher Dr. Jan Smeddinck erzählt im Interview, wo die Chancen und Risiken liegen, wie KI die Gesundheitsförderung verändert und wieso auch Gesundheitsfachpersonen sich mit KI befassen sollten.

Smeddinck
Jan Smeddinck leitet Programme zur Entwicklung digitaler Gesundheitsinterventionen, Datenanalyse und personalisierten Gesundheitslösungen am Ludwig Boltzmann Institut für digitale Gesundheit & Prävention in Salzburg.

Artikeldetails

Wie kann künstliche Intelligenz den gesunden Lebensstil fördern?

Ob eine Person einen gesunden Lebensstil pflegt oder nicht, hängt in erster Linie von ihr selbst, von ihrem unmittelbaren Umfeld und von begleitenden Gesundheitsexpertinnen und -experten ab. Daher ist es mir wichtig, zu betonen: Künstliche Intelligenz kann nicht ersetzen, was der Mensch selbst entscheiden und umsetzen muss – KI kann im besten Falle unterstützen. Aber da gibt es inzwischen spannende Möglichkeiten.

Und wie kann KI unterstützen?

Es gibt eine enorme Bandbreite an Möglichkeiten, wie digitale Gesundheitsanwendungen personalisiert werden können. Ich beschäftige mich seit Längerem mit diesem Thema und habe beispielsweise an Projekten mitgewirkt, bei denen Bewegungsprogramme für Menschen mit Parkinson individuell angepasst wurden. Menschen unterscheiden sich stark – in ihren Bedürfnissen, Fähigkeiten und Interessen. Digitale Programme können deshalb ganz unterschiedlich unterstützen: als organisatorischer Begleiter, zur Motivation oder durch gezielte Anpassungen an das biologische Alter oder an Krankheitsverläufe. Ziel ist dabei, Anwendungen so flexibel zu gestalten, dass sie individuell auf die Nutzenden eingehen. Das kommt gut an – ist in der Praxis aber oft schwer umzusetzen, weil niemand Zeit hat, solche Anpassung ständig manuell vorzunehmen. Man muss vermessen, programmieren, eichen – das ist enorm aufwändig. Genau hier kommt künstliche Intelligenz ins Spiel. Sie ermöglicht eine intelligente Automatisierung dieser Prozesse. KI macht vieles möglich, birgt aber auch das Risiko, falsche Schlüsse zu ziehen, wenn die Datenlage unvollständig oder falsch interpretiert wird.

Die Chancen liegen also vor allem in der personalisierten Prävention?

Menschen sind unterschiedlich – und selbst bei ein und derselben Person kann sich der Gesundheitszustand von Tag zu Tag stark verändern. Mal spielt das Alter eine Rolle, mal chronische Erkrankungen, dann wieder eine Erkältung oder eine vergessene Medikamenteneinnahme. Darauf kann ein guter Arzt oder eine Ärztin mit Erfahrung und Einfühlungsvermögen eingehen. Dies geht ja aber leider nur punktuell und nicht lebensbegleitend. Hier können digitale Gesundheitstechnologien eine gute Ergänzung darstellen, müssen aber auch passend im aktuellen Kontext und für die individuelle Person funktionieren. Besonders spannend wird es daher, wenn man KI mit patientengenerierten Daten aus Wearables oder digitalen Fragebögen kombiniert. So lassen sich Gesundheitsanwendungen noch individueller gestalten. Bisher war es schwierig, mit digitalen Systemen auf diese Komplexität einzugehen, weil sie auf wenige klar definierte Parameter angewiesen waren. Das wurde der Realität oft nicht gerecht.

Und KI kommt nun mit dieser Daten-Komplexität zurecht?

KI hat sich in den vergangenen Jahren stark entwickelt. Sie reicht dabei von frühen, regelbasierten Ansätzen über bildgebende Verfahren mit Deep Learning – etwa in der Brustkrebsfrüherkennung – bis hin zu den aktuellen generativen KI-Systemen. Diese lernen nicht mehr nur auf Basis klar zugeordneter Daten und Ergebnisse, wie beim klassischen überwachten Lernen, sondern verarbeiten grosse Mengen an Informationen eigenständig, indem sie Zusammenhänge selbst erkennen. Sie benötigen keine explizite und vorab erstellte und geprüfte Vorhersageziele für die vorliegenden Daten mehr. Heute stehen uns also neue Systeme zur Verfügung, die mit grosser Datenvielfalt umgehen können – und trotzdem meist sinnvoll reagieren. Doch auch wenn diese neuen KI-Modelle mit unscharfen, realitätsnahen Informationen gut umgehen können, bleibt die Herausforderung, ihre Entscheidungen nachvollziehbar und sicher zu gestalten. Es ist ein vielversprechender Weg – aber einer, der weiterhin menschliche Expertise und auch Entscheidungskompetenz und Verantwortungsübernahme braucht.

Es braucht also eine Kontrolle durch Menschen?

Ja. KI eröffnet völlig neue Möglichkeiten – stellt uns aber auch vor neue Herausforderungen in Bezug auf Transparenz, Sicherheit und Verantwortlichkeit. Gerade im Gesundheitsbereich ist dabei entscheidend, dass wir nachvollziehbar nachweisen können, wie zuverlässig und sicher diese Systeme arbeiten. Denn trotz aller Fortschritte gibt es noch viele offene Fragen.

Wie hat KI die Gesundheitsförderung bereits verändert?

Lange ist KI vor allem im Hintergrund eingesetzt worden, so dass Patientinnen und Patienten es nicht mitbekommen haben. KI-Technologien sind bis vor wenigen Jahren vor allem in der Diagnostik eingesetzt worden, etwa zur Analyse von Ultraschallbildern. Heute gehören Patientinnen und Patienten und gesundheitsbewusste Menschen selbst zu den Endanwendern. Ein Beispiel dafür sind sogenannte Health Coaches auf KI-Basis, die individuelle Empfehlungen auf Grundlage vieler Gesundheitsparameter geben können.

Sie forschen dazu auch?

In unserer Forschung arbeiten wir mit sogenannten «Just-in-Time-Adaptive Interventions». Diese Systeme analysieren den aktuellen Alltag und Kontext der Nutzenden, um den richtigen Moment für eine motivierende Nachricht oder Handlungsempfehlung zu erkennen – zum Beispiel, um mehr Bewegung in den Alltag zu integrieren. Wichtig ist dabei, nicht ständig zu stören, sondern genau dann Impulse zu setzen, wenn sie wirklich sinnvoll sind. Gesundheitsexperten können in der Realität nicht so eng begleiten. KI ermöglicht heute also Unterstützung im Alltag, die früher so nicht denkbar war.

Immer mehr Menschen nutzen KI als persönlichen Berater – auch für Gesundheitsinformationen – oder gar als Therapeuten. Wie können sie sicher gehen, dass die Informationen stimmen?

Gar nicht, beziehungsweise, wenn es sicher sein soll, dann nur über aufwändiges manuelles Überprüfen. Das ist aber ein extrem spannendes Feld – denn genau das passiert: die Leute konsultieren KI-Anwendungen. Mit dem EU-AI-Act und der Regulatorik zu Medizinproduktgesetzen haben wir eine Gesetzgebung, damit Hersteller nicht einfach sagen können, dass KI jetzt ein Gesundheitscoach ist. Und gleichzeitig haben wir aber die Situation, dass die Leute KI genau als das benutzen. Tun sie einfach – und das lässt sich auch nicht einfach verbieten. Deshalb müssen wir regulatorisch umsichtig und differenziert vorgehen. Aber wenn es um sensible Bereiche wie die Gesundheit geht, ziehen sich viele Anbieter zurück und verweisen darauf, dass man sich bitte an die eigene Ärztin oder Arzt oder den eigenen Gesundheitsdienstleister wenden soll. Damit bleibt offen, wie man verantwortungsvoll mit den prinzipiell sehr positiven Möglichkeiten von KIs im Gesundheitskontext umgeht – ohne dabei entweder zu viel zu regulieren oder zu wenig Verantwortung zu übernehmen.

Man darf der KI nicht blind vertrauen...

Es ist enorm wichtig, dass man den Antworten nicht blind vertraut, das muss man immer wieder betonen. Man muss die Angaben verifizieren. Und dennoch: die Trefferquote ist schon enorm gut. Es gibt eine wachsende Anzahl an Arbeiten, die zeigen, dass Antworten moderner KI-Modelle, zumindest bei klar umrissenen Aufgaben, besser sein können, als die von Menschen, die eine Expertenausbildung in dem Bereich haben. Die KI kann einfach mit einer enormen Menge an Grundwissensdaten resonieren, welche eine einzelne Person nicht haben kann.

Wie lassen sich die Antworten verifizieren?

Mittlerweile werden oft Online-Quellen verlinkt. So kann ich zumindest sehen, ob die Information aus einem seriösen medizinischen Katalog oder Paper kommt. Aber für Nicht-Experten bleibt es schwer, das zu interpretieren.

Ich denke, es ist weder realistisch noch sinnvoll, den Einsatz von KI im Gesundheitsbereich komplett abzulehnen. Solche Systeme können zum Beispiel durchaus hilfreiche Denkanstösse geben. Es gibt auch Fallreports in denen hilfreiche Diagnosen gestellt wurden, die im klassischen Gesundheitssystem so nicht erlangt wurden. Dennoch sollten wichtige Entscheidungen immer gemeinsam mit medizinischem Fachpersonal getroffen werden.

Verändert KI die Rolle der Patientinnen und Patienten?

Davon ist auszugehen. Schon das Internet hat dazu geführt, dass Menschen deutlich informierter in die Sprechstunde kommen, oft mit grossem Detailwissen, gerade bei selteneren chronischen Erkrankungen. Das kann ein Vorteil sein – aber auch zu Fehlinformationen und Missverständnissen führen, wie man es vom bekannten „Dr. Google“-Phänomen kennt: Zum Beispiel wenn Personen nach drei Klicks glauben, an Krebs erkrankt zu sein. Spannend wird es jetzt mit den neuen KI-Systemen, die ganz anders auftreten als frühere Chatbots oder Suchmaschinen. In der Interaktion präsentieren sie sich als eigenständige Agenten, wie «intelligente Gesprächspartner», und nicht mehr wie blosse Werkzeuge. Das verändert die Dynamik: Statt selbst zu recherchieren, sagen Nutzende nun Dinge wie «ChatGPT hat gesagt, ich habe diese Krankheit». Aufgrund ihres Auftretens und der Interaktionsform «vermenschlichen» wir diese Systeme stärker – oft unbewusst. Das birgt Risiken. Denn wir neigen dazu, solchen Systemen mehr zuzutrauen, als sie tatsächlich leisten können. Gerade im Gesundheitsbereich kann das gefährlich werden. KI wirkt klug und liegt oft auch richtig, ist aber in manchen Situationen überraschend unzuverlässig. Deshalb ist es entscheidend, zu verstehen, wie solche Systeme funktionieren, welche Rolle sie einnehmen – und wie wir sie verantwortungsvoll in die Versorgung integrieren. Für uns in der Forschung ist das eine extrem spannende Entwicklung.

Wird KI zur Beratung bei Suchtproblemen oder bei psychischen Problemen eingesetzt, sind erhobene Daten oft sensibel. Kann man sicherstellen, dass solche Daten verantwortungsvoll verarbeitet werden?

Ganz sicher sein kann man nur, wenn man sie bei den grossen Cloud-Anbietern gar nicht erst einspeist. Es gibt zwar eine transatlantische Vereinbarung mit den USA mit relativ starken Datenschutzansprüchen. Und trotzdem ist oft schwer zu verstehen, was eigentlich mit den Daten passiert. Werden sie benutzt, um die nächste Generation von Modellen zu trainieren? Kann es passieren, dass es meine Unterhaltung über meine nächtlichen Ängste sogar mit Echtnamen von Menschen, die ich da erwähnt habe, irgendwo wieder ausgespuckt? Grundsätzlich muss man aktuell davon abraten, personenbezogene Gesundheitsinformationen in Cloud-Basierte KI-Systeme einzuspeisen.

Eine zentrale Frage beim Einsatz von KI im Gesundheitsbereich ist: Wollen wir wirklich das technisch Machbare ausschöpfen – oder legen wir den Fokus auf Datenschutz und Privatsphäre? Beides gleichzeitig ist derzeit schwer zu erreichen. Denn wenn wir maximale Leistung wollen, stossen wir schnell an die Grenzen dessen, was sich datenschutzkonform umsetzen lässt. Allerdings holt die Open-Source-Bewegung rasant auf, auch in der Schweiz gibt es positive Beispiele. Es gibt mittlerweile Modelle, die in Leistungsmessungen nur wenige Monate hinter den grossen Systemen kommerzieller Anbieter liegen. Das macht Hoffnung: In naher Zukunft könnten auch lokal betriebene oder abgeschirmte KI-Systeme in der Cloud viele der Fähigkeiten bieten, die bisher nur grossen Anbietern vorbehalten waren – ohne dabei sensible Daten preiszugeben.

Wie kann man verhindern, dass KI bestehende Stigmata oder Vorurteile gegenüber psychisch Erkrankten oder auch Suchterkrankten reproduziert werden?
Man kann KI-Systeme heute durchaus gezielter trainieren, um bestimmte Verzerrungen zu vermeiden – ganz lösen lässt sich das Problem aber nicht. Die Grundherausforderung ist, dass diese Modelle aus Daten lernen, die ihnen zur Verfügung stehen. Und genau da beginnt das Problem: Welche Daten verfügbar sind, ist oft kulturell und geografisch sehr unausgewogen. Eine Visualisierung der Mozilla Foundation etwa zeigt deutlich, wie unterrepräsentiert Daten aus Afrika in gängigen KI-Datensätzen sind.

KI-Modelle lernen und reproduzieren tendenziell Muster und Wahrscheinlichkeiten, basierend auf bestehenden Daten – inklusive aller Verzerrungen. Zwar gibt es inzwischen Mechanismen wie Reinforcement Learning, bei dem das Verhalten der KI nachträglich durch Menschen oder automatisiert nachgeschärft wird, um problematische Tendenzen zu vermeiden. Doch auch das ist komplex und nicht fehlerfrei. Es entstehen neue Spannungsfelder, etwa wenn historische Fakten in modernen kulturellen Kontexten sensibel gehandhabt werden müssen – oder wenn Korrekturmechanismen übersteuern.

Gerade deshalb ist es so wichtig, dass KI im Gesundheitskontext nicht allein agiert. In unserer Forschung setzen wir KI unterstützend ein – zum Beispiel bei der Erstellung von Plänen für Verhaltensänderungen, etwa im Bereich Bewegung und Prävention. Doch die letzte Entscheidung liegt bei den Gesundheitsexpertinnen und -experten. Sie sollen die Vorschläge prüfen, anpassen und verifizieren können. Denn je automatisierter Systeme sind, desto grösser ist die Gefahr, dass kritisches Hinterfragen abnimmt. Hier liegt eine zentrale Herausforderung – nicht nur technisch, sondern auch in der Gestaltung der Prozesse und Verantwortung.

Was möchten Sie Fachpersonen aus der Gesundheitsförderung mitgeben, die wenig Berührungspunkte mit KI haben?

Es ist sicher angeraten, sich mit Weiterbildungen ein gewisses Bild zu KI zu verschaffen - denn da kommt viel auf uns alle zu. In ganz vielen Bereichen, aber eben auch im Gesundheitsbereich. Immer mehr Menschen nutzen KI-Systeme, um sich gesundheitlich zu informieren oder beraten zu lassen – oft ohne dass sie dies offen kommunizieren. Deshalb ist es wichtig, nicht nur gelegentlich in den Medien mitzuverfolgen, was technisch möglich ist, sondern sich selbst aktiv damit auseinanderzusetzen. Nur so entwickelt man ein Gespür dafür, was diese Systeme leisten können – und was nicht. Wer seine Zielgruppe bei der Arbeit wirklich verstehen will, muss nachvollziehen können, welche Rolle solche Technologien für sie bereits spielen und wie das ihr Denken, Handeln und ihre Erwartungen beeinflusst.

Neue Aktivitäten fehlen?

Arbeiten Sie in einer Behörde / NPO / sonstigen Organisation im Bereich der Prävention, dann haben Sie hier die Möglichkeit ...

  • Artikel schreiben
  • Bilder herunterladen
  • Adressverzeichnis nutzen

Sie besitzen bereits ein Konto? Jetzt einloggen

Nach oben scrollen