MULTIPARTIES - Multiparty augmented reality telepresence system - Verbundprojekt im Forschungsfeld "Lebenswerte Räume: smart, nachhaltig und innovativ" im Forschungsprogramm "Interaktive Technologien für Gesundheit und Lebensqualität" - des Bundesministeriums für Bildung und Forschung

dc.contributor.authorFrölich-Kulik, Alexander
dc.contributor.authorKunert, André
dc.date.accessioned2026-02-26T19:40:12Z
dc.date.available2026-02-26T19:40:12Z
dc.date.issued2026-02-26
dc.description.abstractIm Verbundprojekt MULTIPARTIES wurde eine plattformübergreifende Social-XR-Infrastruktur für immersive Multiparty-Telepräsenz entwickelt. Im Zentrum stand die Frage, wie mehrere räumlich verteilte Personen so natürlich wie möglich miteinander kommunizieren können - über Gerätegrenzen hinweg, mit ausdrucksstarken Avataren und räumlich korrektem Audio. Ein zentrales Ergebnis ist eine auf WebSockets und WebRTC basierende Netzwerkarchitektur, die auch die Kopplung heterogener, in unterschiedlichen Programmiersprachen entwickelter Anwendungen in gemeinsamen virtuellen Räumen ermöglicht. Für die Übertragung von 3D-Video-Avataren wurde ein datensparsames Streaming-Protokoll implementiert, das volumetrische Daten ausgabesensitiv überträgt: Je nach Blickwinkel und Geräteleistung werden TSDF-basierte Voxeldarstellungen oder explizite Dreiecksgeometrie mit komprimiertem Texturatlas gestreamt. Die entwickelte Social-XR-Plattform läuft nativ auf Desktop-Systemen, XR-Brillen (Meta Quest, Apple Vision Pro), Smartphones und Tablets sowie als Web-Assembly im Browser - ohne Installation, über einen einfachen Link erreichbar. Die Integration von Deep-Dive-Audio ermöglicht binaurale Raumklangsynthese, die den Cocktailparty-Effekt nutzbar macht und separate Flüstergespräche in Gruppensituationen erlaubt. In einer öffentlichen Abschlussdemonstration wurden drei Standorte (Weimar, Ilmenau, Lübeck) in einer gemeinsamen hybriden Kunstausstellung verbunden. Dabei konnten vier Avatartechnologien - generische Avatare mit Handtracking, Full-Body-Tracking, volumetrisches Video und individualisierte photorealistische Avatare -- erstmals direkt miteinander verglichen werden. Die im Projekt entstandenen Technologien führten zu zwei Publikationen auf internationalen Fachkonferenzen (ACM CHI, ACM MMSys) sowie einem Open-Source-Forschungsdatensatz für multimodale XR-Interaktion.ger
dc.identifier.urihttps://oa.tib.eu/renate/handle/123456789/31461
dc.identifier.urihttps://doi.org/10.34657/30530
dc.language.isoger
dc.relation.affiliationConsensive GmbH
dc.rights.licenseCreative Commons Attribution-NonCommercial 3.0 Germany
dc.subject.ddc000 | Informatik, Information und Wissen, allgemeine Werke
dc.subject.otherSocial Mixed Realityeng
dc.subject.otherSocial Virtual Realityeng
dc.subject.otherSocial Augmented Realityeng
dc.subject.otherSocial XReng
dc.subject.otherSocial VReng
dc.subject.otherSocial AReng
dc.subject.sdg9
dc.titleMULTIPARTIES - Multiparty augmented reality telepresence system - Verbundprojekt im Forschungsfeld "Lebenswerte Räume: smart, nachhaltig und innovativ" im Forschungsprogramm "Interaktive Technologien für Gesundheit und Lebensqualität" - des Bundesministeriums für Bildung und Forschungeng
dc.title.subtitleSachbericht der Consensive GmbH
dcterms.event.date01.09.2022-31.08.2025
dcterms.extent33 Seiten
dtf.funding.funderBMFTR
dtf.funding.program16SV8923
dtf.funding.verbundnummer01246451
dtf.version1.0
tib.accessRightsopenAccess

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
16SV8923_20260226_Abschlussbericht_MP-Consensive.pdf
Size:
8.92 MB
Format:
Adobe Portable Document Format
Description: