Im Zuge des Vorhabens soll menschliche Intelligenz realer Gesundheitsexpert*innen mit künstlicher Intelligenz (KI) und Mixed Reality (MR) vereint werden. Dafür werden KI-gestützt virtuelle 3D-Avatare des medizinischen Fachpersonals generiert, die über mobile Endgeräte, 3D-Brillen oder andere MR-Anwendungen dargestellt werden können. Die Avatare sollen die Fähigkeit besitzen, mit Sensoren ihre Umgebung sowie Daten der Patient*innen – wie Blutdruck, Blutzuckerspiegel oder Gewicht – in Echtzeit aufzunehmen. Anders als bisherige Sprachassistenten sollen die 3D-Avatare zukünftig nicht nur einfache Spracheingaben, sondern auch Mimik und Gestik beherrschen. Ziel sei es, so bei den Beteiligten ein Gefühl sozialer Präsenz und Vertrautheit hervorzurufen.
Darüber hinaus sollen die KI-gesteuerten Avatare simple Routineaufgaben selbst erledigen können. Im Anschluss sei eine Überprüfung der Arbeit des virtuellen Assistenten durch medizinische Expert*innen vorgesehen. Falls die Patient*innen direkt mit ihrer medizinischen Fachkraft sprechen möchten, können sie durch den Assistenten einen realen oder virtuellen Termin vereinbaren. „Die Patient*innen können somit nahtlos mit intelligenten virtuellen Assistenten und Avataren der Ärzt*innen, Therapeut*innen sowie dem Pflegepersonal interagieren“, betont Prof. Dr. Frank Steinicke, als Informatiker an der Universität Hamburg tätig und Sprecher des Verbundprojekts.