Incom ist die Kommunikations-Plattform der Hochschule Hof Kommunikationsdesign

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Hochschule Hof Kommunikationsdesign mehr erfahren

Astrobotanik

PLANTS-IN.SPACE ist ein Studentenprojekt, das 2020 im Zuge einer Kooperation mit dem Botanischen Garten Hof an der Hochschule Hof (Studiengang Mediendesign)entstand. PLANTS-IN.SPACE setzt sich mit der komplexen und breiten Erforschung der Astrobotanik auseinander. Astrobotanik ist Zukunftsvision und Wissenschaft zugleich und beschäftigt sich mit den Möglichkeiten, Herausforderungen und ethischen Fragen, die das Wachsen, Züchten und Nutzen von Pflanzen unter extrem lebensfeindlichen Bedingungen, wie im Weltall, Mond oder anderen Planeten unseres Sonnensystems, mit sich bringen. Eine VR-Story führt den Entdecker durch verschiedene Szenarien, die ihm auf audiovisuellem und interaktivem Weg Informationen vermitteln.

Recherche

Meine Recherche begann bereits vor Semesterbeginn und somit auch vor dem Ausbruch von Covid-19. Als ich erfuhr, dass es eine Kooperation mit dem Botanischen Garten geben würde begann ich mich mit Botanik und Biologie im Allgemeinen zu beschäftigen. Im Futurium in Berlin hatte ich im Praxissemester spannende neue Ansätze für Urban Gardening und Grünflächen in Großstädten gesehen, genauso wie einen genaueren Einblick in die Superpflanze „Alge“ bekommen.

Für mich stand fest dass ich mich mit der Zukunft der Pflanze und des Gartens auseinandersetzen will, weil ich nicht davon ausgehe, dass in einer Zeit des Wandels, wie unserer, ausgerechnet unser Naturverständnis gleich bleiben würde und so recherchierte ich immer tiefer über außergewöhnliche Technologien und Ansätze, bis ich auf das Thema Astrobotanik stieß. Innerhalb kürzester Zeit war ich begeistert von der Vielzahl der Fragen und Möglichkeiten die sich auftaten.

In meiner ersten thematischen Recherche suchte ich also insbesondere nach Grundsatzfragen um mir des Umfang des Forschungsfeldes bewusst zu werden.  Welchen Mehrwert bieten andere Lebewesen für uns? Warum nicht einfach ein virtueller Garten? Welche Möglichkeiten/Hindernisse können auftreten? Wie wollen wir den Wert der Pflanze/der Botanik neu für uns definieren, im Hinblick auf eine zerstörte oder verlassene Welt, in der Pflanzen durch uns verschuldet auf uns angewiesen sind oder wir auf sie angewiesen sind?

Diese Fragen inspirierten mich so sehr, dass ich mich auch im Fach Soziologie mit der Raumfahrt auseinandersetzen wollte und so beschäftigte ich mich auch hier mit der Frage nach der Rolle des Menschen in der Kosmonautik und der Frage, warum ein Lebewesen wie der Mensch ein, unter vollkommen künstlichen Bedingungen und nur durch Lebenserhaltungssysteme ermöglichtes, Leben anstreben kann. Dem Darwinismus und Rationalismus entgegen wird der Mensch als Entdecker und exzentrisches Wesen definiert.

Für mich stand fest, dass der Nutzer oder Besucher auch in meinem Projekt zum Entdecker werden muss.

Als klar wurde, dass es im Sommer 2020 keine Ausstellung oder vergleichbares im Botanischen Garten in Hof geben würde, konnte ich fest davon ausgehen, dass es sich um ein digitales Endmedium handeln sollte, das im besten Falle auch von zuhause aus erlebbar ist. Nach längerer Recherche befand ich nur das Medium VR, als so immersiv, dass es einem Benutzer die Grundgedanken der Thematik eindrucksvoll und überzeugend vermitteln kann. Der nächste Schritt der Recherche bezog sich also auf die Software und ich begann mich in Unity, dem Visual Effects Graph, Blender und WebXR einzuarbeiten.

Während die ersten Softwaretests liefen, setzte ich mich weiter mit der inhaltlichen Recherche auseinander und merkte mehr und mehr wie schwierig es war an stichhaltige Aussagen und Informationen zu kommen. Die Fülle an Forschungsergebnissen war enorm, aber unglaublich schlecht aufgearbeitet. Dies bestärkte mich jedoch eigentlich noch mehr darin, alles Wissenswerte runterzubrechen und in meine Anwendung einzuarbeiten. Nachdem ich die Recherche vorerst beendet hatte, konnte ich die inhaltlichen Punkte festlegen mit denen ich mich beschäftigen wollte. Ich fokussierte mich vor allem auf Möglichkeiten/Herausforderungen, Forschungsstand, Pflanzenauswahl, Anomalien, Agrarnutzun und Terraforming des Mars.

Das ganze Projekt über war ich jedoch natürlich damit beschäftigt Möglichkeiten zu finden, wie Informationen im Virtuellen Raum vermittelt werden können und wie man eine Virtuelle Welt in dem Umfang wie ich es vorhatte entwirft und baut.

User Journey

Direkt seit Beginn der Ausarbeitung habe ich mit einem Storyboard gearbeitet, so dass kontinuierlich an Handlung, VoiceOver und dem Ablauf der visuellen Informationen ergänzt werden konnte. Außerdem konnte ich so bereits ungefähr Storyline und einzelne Szenenwechsel timen.

Da das Storyboard dem Sprecher später als Orientierung dienen sollte, wurden alle Texte direkt im Englischen verfasst.

Die User Journey beginnt jedoch schon weit vor dem Starten der Anwendung. Über Mundpropaganda oder Social Media werden Interessenten generiert, die über ein gut ausgebautes Netzwerk sowohl auf die anderen Kanäle, aber natürlich vor allem auf die Website weitergeleitet werden. Hier haben sie die Möglichkeit am PC direkt in die Anwendung zu starten und so eine vereinfachte Version von plants-in.space zu erleben. Wer jedoch im Besitz eines VR Headsets ist kann direkt von der Website eine .apk herunterladen und auf dem Headset installieren. Im Optimalfall würde natürlich auf den Oculus Quest Store und den Sidequest Store hingewiesen werden. Um hier zu publizieren müssen Performance und Stability auf einem extrem hohen Level sein. Weitere Möglichkeiten die Anwendung zugänglich zu machen wären FreeToPlay Seiten, wie itch.io; sidequestvr.com; mixedreality.mozilla.org; etc.

Zeichenfläche 1 Kopie 2@2x-100.jpgZeichenfläche 1 Kopie 2@2x-100.jpg
Zeichenfläche 1 Kopie@2x-100.jpgZeichenfläche 1 Kopie@2x-100.jpg
Zeichenfläche 1@2x-100.jpgZeichenfläche 1@2x-100.jpg
Zeichenfläche 1 Kopie 3@2x-100.jpgZeichenfläche 1 Kopie 3@2x-100.jpg
Zeichenfläche 1 Kopie 4@2x-100.jpgZeichenfläche 1 Kopie 4@2x-100.jpg

Skizzen

Bildschirmfoto 2020-06-05 um 23.38.41.pngBildschirmfoto 2020-06-05 um 23.38.41.png
Bildschirmfoto 2020-06-05 um 23.06.16.pngBildschirmfoto 2020-06-05 um 23.06.16.png
Bildschirmfoto 2020-06-06 um 21.59.44.pngBildschirmfoto 2020-06-06 um 21.59.44.png
Bildschirmfoto 2020-06-16 um 17.45.02.pngBildschirmfoto 2020-06-16 um 17.45.02.png
Bildschirmfoto 2020-06-06 um 21.59.51.pngBildschirmfoto 2020-06-06 um 21.59.51.png

Zu Beginn der Entwurfsphase plante ich mein Storyboard zeichnerisch umzusetzen, kam davon jedoch schnell wieder ab und realisierte, dass ich in Blender mit schnellen 3D Entwürfen deutlich modularere und nahbarere Skizzen erzeugen konnte, auf denen ich im Nachhinein sogar aufbauen könnte.

Sobald das Worldbuilding in Blender begonnen hatte, wechselte ich auch in Unity dazu über direkt näher an der angestrebten User Journey zu arbeiten.

Prototypen

Bildschirmfoto 2020-07-31 um 20.39.34.pngBildschirmfoto 2020-07-31 um 20.39.34.png
Bildschirmfoto 2020-07-31 um 20.39.59.pngBildschirmfoto 2020-07-31 um 20.39.59.png
Bildschirmfoto 2020-07-31 um 20.40.48.pngBildschirmfoto 2020-07-31 um 20.40.48.png

Bis ich wirklich daran gehen konnte Interaktionen inhaltlich einzuplanen und umzudenken, musste ich mich lange Zeit mit Grundmechaniken der Unity Engine auseinandersetzen. So arbeitete ich lange Zeit in leeren Räumen und baute kleinere Testsimulationen mit Physics, Scripts und Triggern.

Entwicklung in Unity und speziell für die Oculus Quest Brille hatte ich mir nicht einfach vorgestellt und konnte mich zumindest darüber freuen, dass ich in diesem Punkt richtig gelegen hatte. Sobald ich die Anwendung mit dem richtigen Framework jedoch einmal zum Laufen bekommen hatte, fiel vieles jedoch einfacher. Und Cases und Mechanics direkt in der Quest ausprobieren zu können war pures Gold wert.

Umsetzung

Bildschirmfoto 2020-07-31 um 03.27.59.pngBildschirmfoto 2020-07-31 um 03.27.59.png
Bildschirmfoto 2020-07-13 um 15.10.51.pngBildschirmfoto 2020-07-13 um 15.10.51.png
Bildschirmfoto 2020-07-13 um 15.11.29.pngBildschirmfoto 2020-07-13 um 15.11.29.png
Bildschirmfoto 2020-07-10 um 18.40.26.pngBildschirmfoto 2020-07-10 um 18.40.26.png
Bildschirmfoto 2020-07-14 um 05.16.07.pngBildschirmfoto 2020-07-14 um 05.16.07.png

Bereits seit Projektbeginn hatte ich den Anspruch die VR Anwendung auch umzusetzen. So hatte ich die Möglichkeit Cases direkt auszutesten und testen zu lassen und dadurch Szenarien/Interaktionen zu optimieren. Mittlerweile gehe ich fest davon aus, dass - hätte ich nur mit Dummies und Prototypen gearbeitet - ich nicht ansatzweise so viel mitgenommen hätte, wie im jetzigen Fall, mit der Entwicklung einer fast! fertigen Anwendung.

„Fast fertig“ , denn das Produkt an sich ist noch nicht gelauncht. Im diesjährigen Marketing Modul konnte ich einen Strategieplan für die Veröffentlichung entwickeln und arbeite jetzt weiter daran Social Media Beiträge vorzuproduzieren und eine Followergemeinschaft aufzubauen, damit plants-in.space nicht eine der vielen verlorenen Seiten im www wird.

Die Entwicklung der Oculus Anwendung ist soweit fertig gestellt und auch der WebXR-Pendant wird innerhalb der nächsten zwei Tage online gehen.

Bildschirmfoto 2020-07-31 um 03.29.12.jpgBildschirmfoto 2020-07-31 um 03.29.12.jpg
Bildschirmfoto 2020-07-31 um 03.28.50.jpgBildschirmfoto 2020-07-31 um 03.28.50.jpg
Bildschirmfoto 2020-07-31 um 03.29.48.jpgBildschirmfoto 2020-07-31 um 03.29.48.jpg
Bildschirmfoto 2020-07-31 um 03.31.03.jpgBildschirmfoto 2020-07-31 um 03.31.03.jpg
Bildschirmfoto 2020-07-31 um 03.30.11.jpgBildschirmfoto 2020-07-31 um 03.30.11.jpg
Bildschirmfoto 2020-07-31 um 03.32.29.jpgBildschirmfoto 2020-07-31 um 03.32.29.jpg
Bildschirmfoto 2020-07-31 um 03.33.24.jpgBildschirmfoto 2020-07-31 um 03.33.24.jpg
Bildschirmfoto 2020-07-31 um 03.34.02.jpgBildschirmfoto 2020-07-31 um 03.34.02.jpg
Bildschirmfoto 2020-07-31 um 03.30.35.jpgBildschirmfoto 2020-07-31 um 03.30.35.jpg
Bildschirmfoto 2020-07-31 um 03.32.02.jpgBildschirmfoto 2020-07-31 um 03.32.02.jpg
Bildschirmfoto 2020-07-31 um 03.35.40.jpgBildschirmfoto 2020-07-31 um 03.35.40.jpg
Bildschirmfoto 2020-07-31 um 03.36.09.jpgBildschirmfoto 2020-07-31 um 03.36.09.jpg
Bildschirmfoto 2020-07-31 um 03.36.03.jpgBildschirmfoto 2020-07-31 um 03.36.03.jpg
Bildschirmfoto 2020-07-31 um 03.35.48.jpgBildschirmfoto 2020-07-31 um 03.35.48.jpg
Bildschirmfoto 2020-07-31 um 03.36.57.jpgBildschirmfoto 2020-07-31 um 03.36.57.jpg
Bildschirmfoto 2020-07-31 um 03.36.39.jpgBildschirmfoto 2020-07-31 um 03.36.39.jpg
Bildschirmfoto 2020-07-31 um 03.38.06.jpgBildschirmfoto 2020-07-31 um 03.38.06.jpg
Bildschirmfoto 2020-07-31 um 03.38.21.jpgBildschirmfoto 2020-07-31 um 03.38.21.jpg
Bildschirmfoto 2020-07-31 um 03.37.20.jpgBildschirmfoto 2020-07-31 um 03.37.20.jpg
Bildschirmfoto 2020-07-31 um 03.38.44.jpgBildschirmfoto 2020-07-31 um 03.38.44.jpg
Bildschirmfoto 2020-07-31 um 03.39.55.jpgBildschirmfoto 2020-07-31 um 03.39.55.jpg
Bildschirmfoto 2020-07-31 um 03.39.34.jpgBildschirmfoto 2020-07-31 um 03.39.34.jpg
Bildschirmfoto 2020-07-31 um 03.39.13.jpgBildschirmfoto 2020-07-31 um 03.39.13.jpg

______________________________

P R O J E K T D O K U M E N T A T I O N

001 // Pitchdeck

002 // Unity Testlauf

Bildschirmfoto 2020-05-10 um 13.23.44.pngBildschirmfoto 2020-05-10 um 13.23.44.png
Bildschirmfoto 2020-05-10 um 13.17.38.pngBildschirmfoto 2020-05-10 um 13.17.38.png

Nach der Konkretisierung meiner Thematik begann ich mich mehr auf die technischen Herausforderungen zu fokussieren. Aus Blender kann ich halbwegs fortgeschrittene Kenntnisse mitbringen, da ich vor allem vermehrt die letzten Monate mit der 3D Software gearbeitet habe. Unity ist jedoch ein völlig neues Feld für mich und auch zu VR Anwendungen bringe ich eher Basic Kenntnisse mit. 

Anfang der Woche hatte ich zuerst einmal mit der HTC vive zu kämpfen. Da diese zurzeit nicht mit Mac kompatibel ist und zudem direkt über eine Grafikkarte bepowert werden muss, war mein Plan sie über Bootcamp auf Windows, mit angeschlossener eGPU zu starten. Trotz installierter Treiber erkannte der Mac die Grafikkarte erst nach etlichen Versuchen und chrashte Windows dann unmittelbar danach. Auch nach weiteren Versuchen und einigen weiteren Abstürzen bekam ich die Vive nicht zum Laufen.

Nichtsdestotrotz begann ich mich in Unity einzuarbeiten, erstellte eine Szene mit einigen 3D Assets und fokussierte mich auf die UI, WebGL, Package Manager, Shader, Skyboxes, Lighting. Die Software ist zwar extrem umfangreich, aber ich bin trotzdem zuversichtlich.

003 // Rechercheboard

In Miro hab ich begonnen meine Rechercheergebnisse, Moodboards und Inspiration zentral gebündelt zu sammeln. So habe ich meine Dateien/Ergebnisse/Ideen nicht nur lokal in Ordnerverzeichnissen gespeichert, sondern auch übersichtlich auf einem Board, das stöndig erweitert werden kann.

004 // The Void

Bildschirmfoto 2020-05-19 um 02.11.46.png
Bildschirmfoto 2020-05-19 um 02.11.46.pngBildschirmfoto 2020-05-19 um 02.11.46.png

Mit dem Void beginnt die Simulation.

Hier in der Leere soll der Benutzer (Explorer) sich mit seiner virtuellen Umgebung vertraut machen. Von hier aus wird er über drei Portale auf Raumstation, Mondbasis oder Marskolonie geführt, wo unter unterschiedlichen Bedingungen Zukunftsgärten bestehen. Bereits die Portale geben Information über die unterschiedlichen Bedingungen der drei lebensfeindlichen Umgebungen in Form von 3D Datenvisualisierungen.

Die Stationen geben Auskünfte über das neu definierte Zusammenleben von Pflanze und Mensch und informiert über die technischen Herausforderungen, auf die wir mit Pflanzenzucht in einer Maschinenwelt treffen.

005 // Visual Effect Graph

Bildschirmfoto 2020-05-19 um 02.13.29.pngBildschirmfoto 2020-05-19 um 02.13.29.png

Mit dem Visual Effect Graph möchte ich in Unity Daten lebendiger und im dreidimensionalen Raum erlebbar machen. Das Tool ist sehr umfangreich und erfordert einige Einlernzeit, jedoch kann ich über die Partikelanimationen Informationen mehrdimensional über Farbe, 3 räumliche Dimensionen, Geschwindigkeit, Menge, Größe, Richtung, Form oder Zeit vermitteln.

Es ist zwar schwierig mit Partikeln genaue Werte zu vermitteln, jedoch handelt es sich bei der Thematik häufig um für uns sehr abstrakte Werte und der Vergleich zueinander ist deutlich im Vordergrund. Durch große Mengen an simulierten Teilchen bekommt die Information so eine neue Tragweite.

006 // 3D-Sketch

SketchTheVoid_02.pngSketchTheVoid_02.png

Im nächsten Schritt sollen die „Welten“ in einem groben 3D Entwurf skizziert werden, damit ich die ersten Interaktionen in Unity planen kann. Die drei Räume unterscheiden sich vor allem in der Form der Gärten. Während in der Raumstation nur eine einzelne Einheit für die Versorgung über lange Expiditionen steht, erwartet den Explorer in der Mondbasis eine Farm/Plantage und in der Marskolonie ein Botanischer Garten der Erholung bieten soll.

007 // Development

Bildschirmfoto 2020-05-26 um 13.30.56.pngBildschirmfoto 2020-05-26 um 13.30.56.png

Zwar kann man in Unity weitesgehend ohne Code arbeiten, wenn man jedoch spezielle Anwendungen oder Interaktionen haben möchte, kommt man nicht ganz drum herum. In Visual Studio habe ich diese Woche also vor allem kleinere Scripts geschrieben, mit denen ich zwischen Szenen/Builds wechseln und Animationen abspielen kann.

008 // Modeling

Bildschirmfoto 2020-05-26 um 13.36.52.pngBildschirmfoto 2020-05-26 um 13.36.52.png

Mein nächster Schritt sollte es sein die Assets oder zumindest einige Skizzen für die Anwendung in Blender zu bauen. Bei der Suche nach Vorlagen und Bauplänen landete ich einen Glückstreffer. Denn sowohl von ISS, sowie verschiedenen Raumstationsmodulen und Fahrzeugen, und sogar von Landeplätzen verschiedener Mond oder Marsmissionen, gibt es vollständige Renderings, die vollkommen frei verfügbar sind. Das bringt mich nicht nur einen großen Schritt weiter, sondern macht die gesamte Anwendung auch nochmal realistischer und wissenschaftlich gestützt.

009 // Storytelling

Dank des Boosts durch die vorhandenen Renderings ist die Dreiteilung des Themas in Raumstation/Forschungsmodul/Technik, Mondstation/Plantage/Botanik und Marskolonie/Garten/Ethik wieder sehr realistisch und umsetzbar. Dadurch kann ich mich jetzt im nächsten Schritt bereits auf das Storytelling konzentrieren und eine Simulation durchplanen. So kann endlich auch genauer festgelegt werden, welche Form von Interaktion es geben wird und welche Assets vielleicht noch fehlen

Bildschirmfoto 2020-06-02 um 15.13.00.pngBildschirmfoto 2020-06-02 um 15.13.00.png
Bildschirmfoto 2020-06-02 um 15.12.18.pngBildschirmfoto 2020-06-02 um 15.12.18.png

010 // Hosting

Unter www.plants-in.space

wird das Projekt ab jetzt zuhause und öffentlich zugänglich sein. Ich habe meinen FTP-Client eingerichtet, so dass ich direkten Zugriff auf das Dateisystem der Website habe und Assets, Build und HTML hochladen kann.

Über Dropbox habe ich eine Möglichkeit gefunden Websiten Lokal selbst zu hosten. So muss ich nicht jedes mal an der Main Website arbeiten, sondern kann schnell die Unity Builds und HTML files in meine Dropbox laden und hab den Dummy innerhalb weniger Sekunden online in meinem Browser.

011 // Kontakt DLR

Ich habe Kontakt zum DLR (Deutsches Luft- und Raumfahrtzentrum) aufgenommen und Ihnen mein Projekt gepitcht. Das DLR agiert auch als Projektträger und versucht so den Wissens- und Innovationsstandort Deutschland zu fördern. Ich wurde nun direkt an das Institut für Raumfahrtsysteme weiterverwiesen und hoffe auf diesem Wege vielleicht an neue Daten zum Pflanzenwachstum im Eden ISS Projekt zu kommen.

012 // Storyboard

3.jpg3.jpg
1.jpg1.jpg
4.jpg4.jpg
2.jpg2.jpg
5.jpg5.jpg

Das Storyboard vermittelt bereits einen ersten richtigen Eindruck, wie sich die User Journey für die VR Anwendung anfühlen und verhalten könnte. Gleichzeitig dient es auch als Gliederung und Übersicht für die Projektplanung.

013 // Oculus Quest

Guardian

Hand Tracking

Connection

Media Management

First Steps

Passthrough

App Distribution

Events

Virtuelle Events

IMG_0099 Kopie.PNGIMG_0099 Kopie.PNG
IMG_0102.PNGIMG_0102.PNG

014 // Development Quest Store

Bildschirmfoto 2020-06-16 um 12.31.20.pngBildschirmfoto 2020-06-16 um 12.31.20.png
Bildschirmfoto 2020-06-16 um 12.31.11.pngBildschirmfoto 2020-06-16 um 12.31.11.png
Bildschirmfoto 2020-06-16 um 12.36.22.pngBildschirmfoto 2020-06-16 um 12.36.22.png

Ich habe mich bei Oculus als Developer eintragen lassen. So bekomme ich für jedes erstellte Projekt einen App Code mit dem ich in Unity und in der Quest einige Entwickleroptionen aktivieren kann. Oculus fordert eine extrem hohe App Qualität, vielleicht wäre es aber trotzdem eine Möglichkeit die fertige Anwendung in den Oculus Quest Store zu bringen und so noch eine weitere Distributionsmöglichkeit zu haben.

015 // Oculus in Unity

016 // Graswald

017 // Botanical Garden

018 // VoiceOver:Sounddesign

Bildschirmfoto 2020-07-07 um 13.26.31.pngBildschirmfoto 2020-07-07 um 13.26.31.png
Bildschirmfoto 2020-07-07 um 13.26.37.pngBildschirmfoto 2020-07-07 um 13.26.37.png

Voice Over - usvoicemale

Vocal Approach:

Narrative - Storytelling

019 // Storytelling

8.jpg8.jpg
10.jpg10.jpg
9.jpg9.jpg
7.jpg7.jpg
6.jpg6.jpg

020 // Trailer

Ein Projekt von

Fachgruppe

Mediendesign

Art des Projekts

Keine Angabe

Zugehöriger Workspace

Interaction / Information Design

Entstehungszeitraum

Sommersemester 2020