Transkription Podcast: Virtuelle Lage

Transkription Podcast: Virtuelle Lage

Datum:
Lesedauer:
10 MIN

Bei manchen Mobilgeräten und Browsern funktioniert die Sprachausgabe nicht korrekt, sodass wir Ihnen diese Funktion leider nicht anbieten können.

Sprecher: Jens Muschner

Redakteurin: Hauptmann Christin Schulenburg

Delta to all. Radio check. Over.
Hier ist Bravo. Kommen.
This is Tango. Over.
Funkkreis – Podcast der Bundeswehr

Schulenburg: Herzlich willkommen beim Funkkreis der Bundeswehr. Ich bin Hauptmann Schulenburg aus der Redaktion der Bundeswehr und habe heute einen Experten bei mir sitzen zum Thema „VRVirtuelle Realität-Lage“: Herr Jens Muschner. Herzlich willkommen! Herzlich willkommen, Jens! Wir duzen uns, haben wir im Voraus gesagt, weil, so macht man das halt im Innovationswesen. Was ist denn Deine Position bei BWI innoX?

Muschner: Ich leite den Bereich BWI innoX. BWI innoX ist die Innovationseinheit der BWI.

Schulenburg: Und Ihr macht was genau für die Bundeswehr?

Muschner: Der Bereich BWI innoX ist für die Leistungsentwicklung der BWI zuständig. Das heißt, wir machen aus Ideen leistungsstarke Innovation für und mit unseren Kunden und für die BWI. Vom Trend-Scouting über unterschiedliche Mitmach-Formate bis hin zur Erprobung von Anwendungsfällen, die aus der Truppe kommen, ist alles dabei. Und immer mit Blick auf die Entwicklung unseres zukunftsfähigen Portfolios.

Schulenburg: Und eine von diesen Projekten ist auch „VRVirtuelle Realität Lage“?

Muschner: Eines dieser Experimente genau ist „VRVirtuelle Realität Lage“. Richtig. Und da war am Anfang natürlich erst mal sehr wichtig zu sagen, was ist denn der „Used Case“, den wir untersuchen. Wo können wir das dann am besten ausprobieren? Und das war die Lagebesprechung in der Missionsplanung, die wir uns vorgenommen haben. Über die Missionsplanung habt Ihr, glaube ich, zuletzt schon im Funkkreis 2021 im November berichtet. Ihr habt ja auch ganz coole Videos, muss man dazu sagen, auf YouTube vom „AIRTEAM“, also da kann man sehr viel lernen, super Einblicke bekommen. Und das war eben auch unser Ansatz, dass wir im Dialog mit der Luftwaffe gesehen haben, was bietet sich an Missionsplanung, sehr umfangreich: Wir nehmen uns die Lagebesprechung raus. Also das ist dann der Teil, wo wirklich alle in einem Raum sein sollten. So auch die Erfahrung von der Luftwaffe. Und bei der Lagebesprechung ist es ja so, dass teilweise 30, 40 Flüge koordiniert werden müssen, und diese Flüge werden von unterschiedlichen Standorten gestartet. Das heißt, auch die Piloten sitzen natürlich an ganz vielen unterschiedlichen Standorten, können also physisch nicht alle oder wenn, dann nur mit sehr, sehr viel Aufwand tatsächlich zusammenkommen.

Und dann haben wir genau gesagt: Okay, wir nehmen uns die Lagebesprechung als „Used Case“ und versuchen in einer VRVirtuelle Realität, also in einer Virtual Reality, den Lagerraum nachzubauen. Und das war quasi der Ort, wo die Besprechung dann tatsächlich stattfindet, wo alle zusammenkommen, und das haben wir nachgebaut, und da setzt man dann die VRVirtuelle Realität-Brille auf und taucht ein in eine virtuelle Welt und begibt sich quasi in diesen Lagerraum. Nur dass er digital ist, dass er virtuell ist.

Schulenburg: Was sehe ich durch diese Brille?

Muschner: Das zentrale Element vom Lagerraum ist der digitale Lagetisch. Der steht in der Mitte. Man setzt die VRVirtuelle Realität-Brille auf, taucht ein und steht erst mal um den Tisch drumrum. Man sieht alle Protagonisten, die ebenfalls eine VRVirtuelle Realität-Brille aufhaben, die stehen dann um den Tisch drumrum. Man kann in diesem Lageraum alles machen, was man – alles und mehr –, was man in einem normalen Konferenzraum auch machen würde.

Das heißt, man kann auf seine Protagonisten zugehen, also man kann sich bewegen in diesem virtuellen Raum. Man kann sehen, sprechen, hören, riechen geht nicht. Da fällt mir gerade ein, man kann Objekte greifen, man kann 3D-Simulation einblenden. Also all das ist möglich. Nur eben digital und auf diesem Tisch, der in der Mitte steht, genau wie Du das schon angesprochen hattest.

Da kann ich dann alles Mögliche einblenden. Ich kann mir Kartenmaterial einblenden, ich kann mir Satellitenbilder einblenden, ich kann mir die Wetterlage einblenden aus dem Geo-Bereich und ich kann mir auch militärische Objekte einblenden. Das haben wir auch untersucht, beispielsweise den Eurofighter. Den kann ich mir dann quasi dort auf den Lagetisch holen. Dann sehe ich den eben rumfliegen, und wir sagen auch so ein Stückweit, dass der Lagetisch 4D-fähig ist.

Also, die vierte Dimension ist dann eben die Zeit, und das heißt, wir können, wir haben die Möglichkeiten, nach der Planung auch das Ganze als Simulation ablaufen zu lassen, um beispielsweise die Veränderung von Luftwegen oder von der Wetterlage zu sehen – live.

Schulenburg: Also, ja verstehe, wenn ich ja so mit meinen Jets Bewegungen ausführe, dann kann der Kamerad rechts von mir das Ganze noch mal abspielen lassen und gucken, ob sein Jet da jetzt nicht in die Quere kommt.

Muschner: Genau richtig, das kann man, kann man sehen und, wie gesagt, kann auch unterschiedliche Wetter-Szenarien einblenden, je nachdem was man eben sehen möchte. Und das ist schon sehr „fancy“ so ein Stück weit.

Schulenburg: Stell ich mir wirklich cool vor. Tatsächlich.

Muschner: Es ist immer ein Erfahrungswert der Luftwaffe, dass eben bestimmte Aufgaben idealerweise am besten erledigt werden, wenn man in einem Raum ist. Und das ist eben mit Videokonferenz-Lösung oder WebEx-Lösung nur sehr begrenzt möglich.

Schulenburg: Also, weil man auch an Karten arbeitet und dann sich besser Dinge zeigen kann. Und das geht halt nicht, wenn man die Karte nicht, oder wenn zwei Leute die Karten nicht voneinander haben, oder?

Muschner: Genau. Also auch so klassische WebEx-Lösungen, wie wir sie ja auch im Einsatz haben. Da kann man sehr gut präsentieren. Aber eben, wenn es darum geht, dann gemeinsam an einem Tisch zu stehen und mal gemeinsam einen Blick auf die Karte zu werfen oder vielleicht auch eine Veränderung zu machen, dann geht das eben in der WebEx-Lösung doch recht schwer. Und dafür haben wir eine Lösung gesucht, die das eben perspektivisch ermöglicht.

Schulenburg: Wenn man jetzt so hört: Sind nicht an einem Ort, denkt man sofort an Homeoffice, Corona. Kam das jetzt auch mit der Corona-Welle, mit den Homeoffice-Wellen, oder war das schon vorher angesetzt, das Projekt?

Muschner: Das Projekt war tatsächlich schon vorher angesetzt. Wir haben das erste VRVirtuelle Realität-Lage-Experiment innerhalb von sechs Monaten durchgeführt und konnten schon mit den Ergebnissen, die wir da erarbeitet haben, sowohl den Inspekteur der Luftwaffe als auch den stellvertretenden Inspekteur der Luftwaffe überzeugen. Wir hatten eine Live-Demonstration, konnten das vorstellen, die waren beide völlig begeistert.

Schulenburg: Weil die an einem Ort oder waren?

Jens Muschner: Die waren nacheinander, also nicht zur selben Zeit, sie waren nacheinander tatsächlich dann bei uns. In Köln Wahn haben wir das dann vorgestellt. Sie haben die Brille auf, haben das ausprobiert selbst und waren echt begeistert. Was dann dazu führte, dass wir auf einmal auf dem Programm der Ministerin im Digitalrat standen und auch dort die Ergebnisse von VRVirtuelle Realität-Lage vorstellen konnten. Und das führte dann dazu, dass wir auf einmal VRVirtuelle Realität-Lage 2 noch machten mit neuen Opportunitäten, die wir untersuchen wollten, die wir in den ersten Run nicht geschafft haben. Und auch die zweite VRVirtuelle Realität-Lage hat circa ein halbes Jahr plusminus in etwa gedauert. Ich glaube, so Mitte 2021 waren wir komplett durch.

Schulenburg: Dann konnte man es ja direkt unter Live-Umständen testen quasi, oder?

Muschner: Absolut. Also ich glaube, das war ein sehr schönes Beispiel auch für weitere Anwendungsfälle, um zu sehen, wie Zusammenarbeit beispielsweise in so einer Pandemie halt funktioniert, wenn man irgendwie doch an einem Platz eigentlich sein muss, es aber physisch nicht ist.

Schulenburg: Ihr habt also den Bedarf erkannt und dann den Innovationsprozess gestartet.

Muschner. Und das ist doch noch lange nicht alles. Also das klingt jetzt schon alles so super. Und das letzten Endes in den zwei Experimenten zu untersuchen und dann auch so ein Stück weit in die Reflexion zu gehen mit der mit der Luftwaffe, wir haben das ja auch wirklich live erprobt. Also wir hatten dann Piloten und Bodenpersonal da, haben das alles mal durchprobiert und das funktionierte echt ganz toll.

Aber wir haben natürlich auch weitere Features eingebaut, die wir untersucht haben, dann gerade eben in dem zweiten Experiment. Und das ist beispielsweise so was wie die Gesten-Steuerung. Also wir kennen ja alle von unserem Smartphone so ein Stück weit die Gesten-Steuerung. Wir können irgendwie mit den Fingern wischen, swipen und irgendwas größer und kleiner machen, und im virtuellen Umfeld ist es ja schon immer noch so ein bisschen das Problem, dass man heute irgendwelche Geräte in der Hand hat, um irgendwas zu bewegen, irgendein Equipment noch braucht, um eben mit dem virtuellen Raum dann per Hand zu kommunizieren.

Und das wollten wir natürlich auch eliminieren. Und da haben wir eben mit der Gesten-Steuerung gearbeitet und das funktioniert echt sehr gut, um mit dem System zu interagieren oder irgendwie bestimmte Dialog-Steuerung aufzurufen mit den Fingern oder um Elemente aus der materiellen Welt, die eben nicht virtuell ist, auch mit einzublenden. All das funktioniert dann auch.

Schulenburg: Aber das bedeutet wieder, man braucht Kamera, oder?

Muschner. Ja genau, man braucht so ein bisschen mehr Equipment, natürlich dann auch im Raum. Also da ist dann nicht nur die VRVirtuelle Realität-Brille, wir haben ja auch, muss man dazu sagen, auch unterschiedlichste Modelle untersucht. Ich glaube, wir haben mittlerweile bei uns im Innovationsbereich fünf oder sechs unterschiedliche Modelle. Zwei, drei davon kamen zum Einsatz bei VRVirtuelle Realität-Lage, um eben auch zu überprüfen: Wie kommt denn der Mensch damit zurecht?

Ja, manche haben ja auch so ein stückweit „Motion Sickness“, Seekrankheit, also sobald sie in den VRVirtuelle Realität-Raum eintauchen, so ein bisschen ein Schwindelgefühl oder flaues Gefühl im Magen. Gerade bei schnellen Bewegungen, und da haben wir natürlich auch untersucht, wie das mit den Brillen ist, wo der Unterschied ist, hängt das mit dem Fokus zusammen, mit Sehschärfe, mit den Kameras, die in den VRVirtuelle Realität-Brillen auch drin sind? Das haben wir alles untersucht.

Schulenburg: Wie waren dann letztendlich das Ergebnis der Tests? Ist das Projekt so weit, dass es zur Reife gebracht werden könnte?

Muschner: Absolut  ja, also absolut. Das Ergebnis war sehr, sehr gut. Also wir haben nachweisen können, dass die Zusammenarbeit auf Distanz mit dem „Used Case“ VRVirtuelle Realität-Lager sehr gut funktioniert. Alle Protagonisten sind super mit den VRVirtuelle Realität-Brillen auch zurechtgekommen. Auch die Bewegung im virtuellen Raum war sehr gut, sowohl die Gesten-Steuerung als auch beispielsweise die Sprachsteuerung. Das haben wir auch untersucht, also so ähnlich, wie man das zu Hause kennt von Amazon, Alexa oder vielleicht von Siri, dass man sagt: Öffne mir ein neues Whiteboard. Also auch sowas haben wir untersucht, und das hat funktioniert. Das kam gut an, auch bei den Kollegen. Und ich glaube, wir konnten sehr gut nachweisen, dass das eine gute Alternative ist, nicht nur in Corona Zeiten, sondern immer dann, wenn wir Personen aus unterschiedlichsten Standorten zusammenmoderieren müssen, damit sie in einem Raum sind.

Schulenburg: Und jetzt Hand aufs Herz: Die Technik, die man dazu braucht, und vor allem auch die Software, die man dazu braucht, ist das realistisch? Kann die Bundeswehr so was tatsächlich umsetzen, flächendeckend?

Muschner: Naja, flächendeckend, würde ich sagen: „It depends.“ Also wir müssen natürlich gucken: Wo gibt es überhaupt Sinn? Machen wir es erst mal klein fest an dem Thema Luftwaffe. Kann die Luftwaffe die Systeme einsetzen und bedienen, die es braucht für so eine Lagebesprechung? Und das ist ein ganz klares Ja. Also wir haben mit Gaming Laptops gearbeitet, das klingt erst mal super cool, aber das braucht man tatsächlich, weil die eine höhere Leistung haben für die VRVirtuelle Realität-Umgebung, und einer Handvoll Brillen.

Also wenn man jetzt sagt, ich möchte so eine Lagebesprechung machen mit 30 Leuten, dann muss ich das eben 30 Mal kaufen. Ich glaube, das ist absolut machbar. Das ist jetzt keine Rocket Sience, von dem finanziellen Aspekt. Wohl aber sicherlich natürlich aus Sicht der Beschaffung und Vergabe. Das heißt, da wo die Technik dann endet, wo das Experiment endet und wir uns alle angucken und sagen: War super cool und funktioniert, dann geht die eigentliche Arbeit los, nämlich das Ganze für die Bundeswehr zu beschaffen.

Schulenburg: Und da steht es gerade, das Projekt?

Muschner: Und da steht das gerade, genau. Nachgewiesen haben wir es – jetzt müssen wir halt nur noch machen.

Schulenburg: Jens, vielen Dank, dass Du heute da warst und mich über VRVirtuelle Realität-Lage erhellt hast. Ich hoffe, Ihnen da draußen geht es genauso. Vielen Dank fürs Zuhören. Schalten Sie in zwei Wochen wieder in den neuen Podcast. Ich bin Hauptmann Schulenburg und melde mich ab aus dem Funkkreis.

Bei manchen Mobilgeräten und Browsern funktioniert die Sprachausgabe nicht korrekt, sodass wir Ihnen diese Funktion leider nicht anbieten können.