In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In 1994 in Los Angeles verursachte ein Erdbeben einen großflächigen Stromausfall. Eine Urban Legend besagt, dass einige Leute ganz verwirrt und besorgt die Polizei anriefen, weil sie seltsame silberne Wolken im Himmel erblickten. Sie sahen zum ersten Mal die Milchstraße.
Auch viele von uns, die in einer Stadt leben, sehen den Nachthimmel so gut wie nie in seiner reinsten Form. Schuld daran ist Lichtverschmutzung: übermäßiges Fremdlicht, z.B. von Straßenbeleuchtung, Leuchttafeln oder Flutlichtanlagen. So schädlich sie für Mensch und Umwelt sein kann, so alltäglich und unausweichlich ist sie auch, wenn man in unserer modernen Zivilisation lebt.
LightSky VR ermöglicht es, in einer sehr immersiven Art und Weise, verschiedene Orte mit unterschiedlichen Graden an Lichtverschmutzung zu bereisen und die Nachthimmel miteinander zu vergleichen. Wie viele Sterne kann man in New York, einer riesigen Metropole, erkennen, VS. in der Atacama Wüste, wo es so gut wie kein Fremdlicht gibt?
Zusätzlich gibt es auch genauere Infos zu jedem Ort und beim Reisen zwischen den Orten auch spannende Light Pollution Facts zu entdecken.
Vielleicht motiviert LightSkyVR den ein oder anderen mal „off grid“ zu reisen und den klaren Sternenhimmel mit eigenen Augen zu besichtigen.
Ich habe es geschafft das Problem mit der Dateigröße zu lösen (mit der near/far Funktion der Kamera).
Ich habe nun so gut wie alle Szenen fertig gemacht, überall Sound eingefügt und ein paar Probleme mit Licht gelöst.
Für die Werkschau habe ich herausgefunden, dass man mit Eduroam problemlos mit der VR-Brille ins Internet kann. Ich habe außerdem noch eine Anleitung für die Steuerung der App und zum Aufsetzen der Brille erstellt.
Zur Hygiene habe ich einen Silikon-Schutz für die VR-Brille besorgt, das nach jedem Tragen desinfiziert werden soll.
Ich habe auch ein Video für die Werkschau geschnitten:
Ich habe nun auch die letzten Szenen gebaut (New York und Hiroshima, die allerdings noch nicht ganz fertig sind) und die bereits vorhandenen nochmals verbessert. Somit gibt es 5 Orte, zu denen man reisen kann.
Ich habe auch einen Start-Screen und den Loading Screen mit den Light Pollution Facts eingebaut.
Ein großes Problem, das ich gerade habe ist, dass zwei Szenen, die ich in Blender gebaut habe sehr groß sind und das die gesamte App verlangsamt und teilweise unspielbar macht.
Aktueller Stand:
Was ist neu:
Diese Szenen gibt es bis jetzt:
Alle Bilder sind bis jetzt nur Platzhalter (Info Panel, Himmel, etc.)
Münchberg basiert auf diesen Fotos:
Ich habe in Figma eine mögliche Navigation gestaltet. Ich finde die Idee gut, dass man Punkte am Himmel hat, die man anklicken kann und mit denen man an die unterschiedlichen Orte reisen kann.
In jedem Ort gibt es dann am linken Controller ein Info-Panel, wo es ein paar Details zu dem Ort gibt. Zusätzlich dazu möchte ich, dass wenn man an einen neuen Ort reist, man kurz eine Art Loading Screen sieht, wo es noch mehr Fakten über Lichtverschmutzung zu lesen gibt.
Ich habe angefangen die Szenen zu bauen. Hier die Wüste und die Einsiedlung (noch nicht final).
Die Woche war ich leider krank
Ich habe für dieses Projekt ein Git-repository angelegt.
Man soll zwischen 5 Scenes wechseln können:
Navigation und Informationen sind in einem Control-Panel an der linken Hand. Beispiel von Stellarium:
So hätte ich auch gerne, dass meine Anwendung aussieht. Man steht an einem Fleck und hat verschiedene Szenen, zwischen denen man wechseln und den Himmel vergleichen kann.
Ich habe mich damit befasst wie ich die Lichtverschmutzung zeigen könnte. Dabei habe ich zwei potentielle Lösungen gefunden:
Ich habe mich an letzterem probiert, bis jetzt ohne Erfolg (siehe hier). Ich habe versucht mich an diesem Beispiel zu orientieren. Es gibt einen „fog“ tag, den ich ausprobiert habe, aber leider ist er an der Kamera zentriert und kommt nicht von der Plane. Laut ChatGPT kann man particle systems und custom shaders benutzen, aber auch das habe ich nicht hinbekommen.
Hier ein Link zum ChatGPT-chat.
Ich habe mich zum ersten mal an A-Frame probiert. Ich hab nicht viel geschafft, aber ich habe eine einfache Plane und eine sky-box erstellt.
Zum Glitch
So funktioniert Lichtverschmutzung:
Lichtverschmutzung über die letzten ca. 20 Jahre visualisieren:
Quellen siehe unten (Light pollution maps)
Folgen der Lichtverschmutzung auf Tiere, Menschen und Pflanzen
https://www.geo.de/natur/oekologie/lichtverschmutzung--eine-qual-fuer-tiere-31854466.html
https://www.br.de/radio/bayern1/lichtverschmutzung-104.html
https://www.deutschlandfunk.de/lichtverschmutzung-schadet-aktion-earth-night-100.html
Licht erzählt Geschichte (Bsp.: Syrien)
Links von Michael:
https://www.lightpollutionmap.info/help.html
https://lighttrends.lightpollutionmap.info/#zoom=0&lon=0.00000&lat=33.78523
Earth at night: flat maps (NASA), latest: 2016:
2012 vs. 2016
Light pollution map (2015):
Bortle dark sky scale:
Light pollution map, basierend auf dem Light Pollution Atlas 2022. Mit Trends 2013-2022
https://djlorenz.github.io/astronomy/lp2020/overlay/dark.html
https://djlorenz.github.io/astronomy/lp2022/
Einheit Erklärung: mag/arcsec^2
mag/arcsec^2 bezieht sich auf die Oberflächenhelligkeit in der Astronomie. Sie repräsentiert die Helligkeit eines Lichts pro Quadrat-Bogensekunde auf der Himmelskugel.
Brightest spot on Earth: Las Vegas
Milky Way 360° Panorama:
Earth at night texture für 3D renderings:
https://www.science.org/doi/10.1126/science.abq7781
https://unipub.uni-graz.at/obvugrhs/content/titleinfo/2679685/full.pdf
https://www.mdpi.com/2072-4292/7/1/1
World atlas of artficial night sky brightness (2016):
Ich habe mich in dieser Woche endgültig für das Thema „Lichtverschmutzung“ entschieden.
Ich habe mir vier Themen rausgesucht, die ich evtl. als Projekt umsetzen wollen würde. Ich schwanke noch zwischen dem Thema „Lichtverschmutzung“ und „Schlaf“. Sicher ist, dass ich das Projekt in VR umsetzen möchte, da ich dieses Medium schon seit längerer Zeit mal ausprobieren wollte.