Connect with us

Gesundheitswesen

Jeder KI-Agent Kann Sprechen. Wenige Können Vertrauenswürdig Sein

mm

Die Notwendigkeit von KI-Agents im Gesundheitswesen ist dringend. In der gesamten Branche sind überarbeitete Teams mit zeitaufwändigen Aufgaben überlastet, die die Patientenversorgung behindern. Kliniker sind dünn besetzt, die Callcenter der Kostenträger sind überlastet und Patienten warten auf Antworten zu ihren dringenden Anliegen.

KI-Agents können helfen, indem sie tiefe Lücken füllen, den Zugriff und die Verfügbarkeit von klinischem und administrativem Personal erweitern und den Burnout von Gesundheitspersonal und Patienten gleichermaßen reduzieren. Aber bevor wir das tun können, benötigen wir eine solide Grundlage für den Aufbau von Vertrauen in KI-Agents. Dieses Vertrauen wird nicht durch einen warmen Tonfall oder konversationelle Flüssigkeit entstehen. Es kommt von der Ingenieurkunst.

Selbst als das Interesse an KI-Agents in die Höhe schießt und Schlagzeilen die Verheißung von agenter KI trompeten, bleiben Gesundheitsleiter – die ihren Patienten und Gemeinden verantwortlich sind – zögerlich, diese Technologie im großen Maßstab einzusetzen. Startups preisen agente Fähigkeiten an, die von der Automatisierung monotoner Aufgaben wie der Terminplanung bis hin zur hochwertigen Patientenkommunikation und -versorgung reichen. Doch die meisten von ihnen haben noch nicht bewiesen, dass diese Interaktionen sicher sind.

Viele von ihnen werden es nie tun.

Die Realität ist, dass jeder ein Sprachagent starten kann, der von einem großen Sprachmodell (LLM) angetrieben wird, ihm einen mitfühlenden Ton gibt und ein Gespräch skriptet, das überzeugend klingt. Es gibt viele Plattformen wie diese, die ihre Agents in jeder Branche anpreisen. Ihre Agents mögen aussehen und klingen unterschiedlich, aber alle verhalten sie sich gleich – anfällig für Halluzinationen, unfähig, kritische Fakten zu überprüfen und ohne Mechanismen, die Gewähr für Rechenschaftspflicht bieten.

Dieser Ansatz – das Aufbauen einer oft zu dünnen Hülle um ein grundlegendes LLM – kann in Branchen wie Einzelhandel oder Gastgewerbe funktionieren, aber im Gesundheitswesen versagen. Grundlegende Modelle sind außergewöhnliche Werkzeuge, aber sie sind größtenteils allgemeingültig; sie wurden nicht speziell auf klinische Protokolle, Kostenträger-Richtlinien oder regulatorische Standards trainiert. Selbst die eloquentesten Agents, die auf diesen Modellen aufbauen, können in halluzinatorisches Gebiet abdriften, Fragen beantworten, die sie nicht beantworten sollten, Fakten erfinden oder nicht erkennen, wenn ein Mensch in die Schleife einbezogen werden muss.

Die Folgen dieses Verhaltens sind nicht theoretisch. Sie können Patienten verwirren, die Versorgung stören und zu teuren menschlichen Nachbearbeitungen führen. Dies ist kein Intelligenzproblem. Es ist ein Infrastrukturproblem.

Um sicher, effektiv und zuverlässig im Gesundheitswesen zu operieren, müssen KI-Agents mehr als nur autonome Stimmen am anderen Ende des Telefons sein. Sie müssen von Systemen betrieben werden, die speziell für Kontrolle, Kontext und Rechenschaftspflicht konzipiert sind. Aus meiner Erfahrung beim Aufbau dieser Systeme sieht das in der Praxis wie folgt aus.

Antwortenkontrolle kann Halluzinationen unmöglich machen

KI-Agents im Gesundheitswesen können nicht nur plausible Antworten generieren. Sie müssen die richtigen Antworten liefern, jedes Mal. Dazu ist ein kontrollierbarer „Aktionsraum“ erforderlich – ein Mechanismus, der es dem KI ermöglicht, natürliche Konversationen zu verstehen und zu erleichtern, aber sicherstellt, dass jede mögliche Antwort durch vordefinierte, genehmigte Logik begrenzt ist.

Mit in die Antwortkontrollparameter eingebauten Parametern können Agents nur auf verifizierte Protokolle, vordefinierte Betriebsverfahren und regulatorische Standards verweisen. Die Kreativität des Modells wird genutzt, um Interaktionen zu leiten, anstatt Fakten zu improvisieren. So können Gesundheitsleiter sicherstellen, dass das Risiko von Halluzination vollständig eliminiert wird – nicht durch Testen in einem Pilotprojekt oder einer einzigen Fokusgruppe, sondern durch das Auslegen des Risikos auf dem Boden.

Spezialisierte Wissensgraphen können vertrauenswürdige Austausche sicherstellen

Der Kontext jedes Gesundheitsgesprächs ist tiefgreifend persönlich. Zwei Menschen mit Typ-2-Diabetes können im selben Viertel leben und das gleiche Risikoprofil aufweisen. Ihre Eignung für ein bestimmtes Medikament wird je nach ihrer Krankengeschichte, den Behandlungsrichtlinien ihres Arztes, ihrem Versicherungsplan und den Formularvorschriften variieren.

KI-Agents benötigen nicht nur Zugang zu diesem Kontext, sondern müssen auch in der Lage sein, in Echtzeit damit zu argumentieren. Ein spezialisierter Wissensgraph bietet diese Fähigkeit. Er ist eine strukturierte Möglichkeit, Informationen aus mehreren vertrauenswürdigen Quellen darzustellen, die es Agents ermöglicht, zu überprüfen, was sie hören, und sicherzustellen, dass die Informationen, die sie zurückgeben, sowohl genau als auch personalisiert sind. Agents ohne diese Schicht mögen informiert klingen, aber sie folgen wirklich nur starren Workflows und füllen Lücken aus.

Robuste Überprüfungssysteme können Genauigkeit bewerten

Ein Patient kann mit einem KI-Agent auflegen und zufrieden sein, aber die Arbeit für den Agent ist weit davon entfernt, abgeschlossen zu sein. Gesundheitsorganisationen benötigen die Gewissheit, dass der Agent nicht nur korrekte Informationen produziert hat, sondern auch die Interaktion verstanden und dokumentiert hat. Dazu kommen automatisierte Nachbearbeitungssysteme ins Spiel.

Ein robustes Überprüfungssystem sollte jedes Gespräch mit der gleichen feinen Prüfung überprüfen, die ein menschlicher Aufseher mit all der Zeit der Welt vornehmen würde. Es sollte in der Lage sein, zu bestimmen, ob die Antwort korrekt war, sicherzustellen, dass die richtigen Informationen aufgenommen wurden, und zu bestimmen, ob eine Nachverfolgung erforderlich ist. Wenn etwas nicht stimmt, sollte der Agent in der Lage sein, auf einen Menschen zu eskalieren, aber wenn alles in Ordnung ist, kann die Aufgabe mit Vertrauen abgehakt werden.

Über diese drei grundlegenden Elemente hinaus, die zum Aufbau von Vertrauen erforderlich sind, benötigt jede agente KI-Infrastruktur ein robustes Sicherheits- und Compliance-Framework, das Patientendaten schützt und sicherstellt, dass Agents innerhalb der regulierten Grenzen operieren. Dieses Framework sollte die strikte Einhaltung gemeinsamer Branchenstandards wie SOC 2 und HIPAA umfassen, aber auch Prozesse für Bias-Tests, die Redaktion von geschützten Gesundheitsinformationen und die Datenspeicherung aufnehmen.

Diese Sicherheitsschutzmaßnahmen überprüfen nicht nur die Einhaltung von Vorschriften. Sie bilden das Rückgrat eines vertrauenswürdigen Systems, das sicherstellen kann, dass jede Interaktion auf dem Niveau gehandhabt wird, das Patienten und Anbieter erwarten.

Die Gesundheitsbranche benötigt keine weitere KI-Hype. Sie benötigt zuverlässige KI-Infrastruktur. Im Falle von agenter KI wird Vertrauen nicht so sehr verdient, als dass es konstruiert wird.

Shyam Rajagopalan ist Mitbegründer und CTO von Infinitus. Als erfahrener und hands-on-Führer arbeitet Rajagopalan aktiv mit seinem Team zusammen, indem er zum Coding beiträgt und Anleitung zu technischer und Produktgestaltung gibt.

Prior to Infinitus, als Software-Architekt, entwarf, baute und startete Rajagopalan hochsichere, hochleistungsfähige Systeme für Snap Inc. und Google's Login- und Sicherheitsplattformen. Er leitete zuvor das Engineering-Team als Director of Engineering im Mobile-Intelligence-Startup Quettra (erworben von Similar Web). Rajagopalan begann seine Karriere bei MIPS und Nvidia, indem er hochleistungsfähige CPUs entwarf und baute.