Datenvisualisierung
Vom Diagramm zur Virtual Reality
0716
2018
978-3-8385-5028-2
978-3-8252-5028-7
UTB
Peter Fischer-Stabel
Techniken der Datenvisualisierung werden mittlerweile in allen Disziplinen eingesetzt. Mit ihnen kann einerseits die effiziente Aufbereitung und Analyse einer exponentiell gewachsenen Informationsmenge gewährleistet werden. Andererseits lassen sich so komplexe Informationsinhalte in einem visuellen Umfeld angemessen kommunizieren.
In der vorliegenden Publikation werden wesentliche Felder der Computervisualistik präsentiert und durch Anwendungsbeispiele illustriert: Das Spektrum reicht von elementaren Methoden zur Erstellung von Diagrammen, Infografiken und Kartenwerken, über geometrische Modellierung und Bildbearbeitung, bis hin zur Augmented- und Virtual Reality. Das Buch vermittelt so die Grundlagen der computergestützten Datenvisualisierung.
Es ist für Studierende aller Studiengänge geeignet, die sich in das hochdynamische Feld der grafischen Datenverarbeitung einarbeiten und praxisrelevante Visualisierungstechniken kennenlernen möchten.
<?page no="1"?> Eine Arbeitsgemeinschaft der Verlage Böhlau Verlag · Wien · Köln · Weimar Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Wilhelm Fink · Paderborn A. Francke Verlag · Tübingen Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Ernst Reinhardt Verlag · München Ferdinand Schöningh · Paderborn Eugen Ulmer Verlag · Stuttgart UVK Verlag · München Vandenhoeck & Ruprecht · Göttingen Waxmann · Münster · New York wbv Publikation · Bielefeld utb 5 0 28 <?page no="2"?> Peter Fischer-Stabel Datenvisualisierung Vom Diagramm zur Virtual Reality Unter Mitarbeit von Christoph Göttert und Jens Schneider UVK Verlag München <?page no="3"?> Prof. Dr. Peter Fischer-Stabel ist Professor im Fachbereich Umweltplanung und -technik am Umweltcampus der Hochschule Trier und Direktor des Instituts für Softwaresysteme. Lehr- und Forschungsschwerpunkt sind Themen der Umwelt- und GeoInformatik. Online-Angebote oder elektronische Ausgaben sind erhältlich unter www.utb-shop.de. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http: / / dnb.ddb.de> abrufbar. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. © UVK Verlag München 2018 - ein Unternehmen der Narr Francke Attempto Verlag GmbH & Co. KG Einbandgestaltung: Atelier Reichert, Stuttgart Einbandmotiv: © iStockphoto, peshkov Druck und Bindung: CPI - Clausen & Bosse, Leck UVK Verlag Nymphenburger Straße 48 · 80335 München Tel. 089/ 452174-65 www.uvk.de Narr Francke Attempto Verlag GmbH & Co. KG Dischingerweg 5 · 72070 Tübingen Tel. 07071/ 9797-0 www.narr.de UTB-Nr 5028 ISBN 978-3-8252-5028-7 <?page no="4"?> Vorwort Datenvisualisierungen sind aus unserem täglichen Leben nicht mehr wegzudenken: In allen Wissenschaftsdisziplinen, aber auch im Alltag treffen wir ständig auf grafische Darstellungen in Form von Diagrammen, Kartenwerken, Bildern, 3D-Modellen etc., die zu lesen und zu verstehen sind. Häufig sind wir auch selbst gefordert, die in umfassenden Datenreihen enthaltenen Sachverhalte grafisch aufzubereiten, um komplexe Informationen in ein visuelles Umfeld zu transportieren und so Informationen angemessen und effektiv kommunizieren zu können. Die vorlegende Publikation will demzufolge wichtige Felder der Computervisualistik vorstellen, die sich mit der grafischen Aufbereitung von Daten auseinandersetzen. Das Spektrum reicht von elementaren Methoden zur Erstellung von Diagrammen, Infografiken und Kartenwerken über die geometrische Modellierung und Bildbearbeitung bis hin zur Augmented (AR) und Virtual Reality (VR). Der Schwerpunkt des Buches liegt dabei nicht auf der algorithmischen Beschreibung und Erläuterung von grundlegenden Techniken der grafischen Datenverarbeitung, sondern auf deren Anwendung in der Datenvisualisierung mittels entsprechender Softwaresysteme. Da der Focus auf einer praxisorientierten Vermittlung des Stoffs liegt, ist das Werk geeignet für Studierende aller Studiengänge aber auch für Praktiker, die sich in das hochdynamische Feld der grafischen Datenverarbeitung einarbeiten und praxisrelevante Visualisierungstechniken kennenlernen möchten. Weiterführende Literaturhinweise am Ende eines jeden Kapitels ermöglichen, bei Bedarf tiefer in das jeweilige Themenfeld einzutauchen. Begleitende Unterlagen, Übungsaufgaben und Beispieldaten finden sich zudem auf der Web-Seite zu diesem Buch. <?page no="5"?> 6 Vorwort Mein Dank gilt an dieser Stelle den Herren Christoph Göttert und Jens Schneider, die über ihre Beiträge zu den Themen Augmented Reality bzw. Virtual Reality maßgeblich an der Entstehung dieser Publikation mitgewirkt haben. Ich wünsche allen Lesern viel Erfolg bei der Beschäftigung mit dem spannenden Thema Datenvisualisierung. Trier, im Juni 2018 Peter Fischer-Stabel <?page no="6"?> Hinweise zum Buch Visualisierung ist ein kommunikativer Prozess: Die Eignung der gewählten Lösung kann am besten ein neutraler Betrachter liefern. Legen Sie ihr Produkt einem Bekannten vor, der die Lesbarkeit beurteilen soll. Durch die aufmerksame Lektüre von Grafiken in Tagespresse, von Web-Präsentationen, aber auch durch das Studium von Computerspielen sowie von AR- und VR-Anwendungen gewinnen Sie neue Ideen, die Sie ggf. später für eigene Visualisierungen nutzen können. Lassen sie sich inspirieren. Mittels selbstständiger Anfertigung von Visualisierungen gleich welcher Sachverhalte sowie durch das Experimentieren mit alternativen Darstellungsmethoden lernen Sie sukzessive die Gestaltungsmöglichkeiten kennen, die Ihre Visualisierungssoftware bietet. Die Übungsaufgaben sollten ohne vorherigen Blick in die Musterlösung bearbeitet werden. Web-Service zum Buch: http: / / www.ukv-lucius.de/ Die zitierten Internetquellen wurden am 30.4.2018 letztmalig aufgerufen. Auf eine individuelle Datumsangabe wurde bei den Quellenangaben demzufolge verzichtet. <?page no="8"?> Inhalt Vorwort .............................................................................................. 5 Hinweise zum Buch .......................................................................... 7 Abbildungsverzeichnis ................................................................... 15 Tabellenverzeichnis......................................................................... 19 1 Einführung.............................................................. 21 1.1 Raster- und Vektorgrafik................................................... 25 1.1.1 Rastergrafik ......................................................................... 27 1.1.2 Vektorgrafik ........................................................................ 31 1.2 Anwendungsfelder der Visualisierung ............................. 34 1.3 Literatur ............................................................................... 36 2 Computervisualistik................................................ 37 2.1 Qualität einer Visualisierung ............................................. 39 2.2 Wahrnehmungskapazitäten des Menschen ..................... 41 2.2.1 Visuelle Wahrnehmung und graphische Mindestgrößen .................................................................................. 45 2.2.2 Barrierefreiheit .................................................................... 47 2.3 Der Visualisierungsprozess ............................................... 49 2.4 Hinweise zum Visualisierungsdesign ............................... 53 2.5 Literatur ............................................................................... 54 3 Diagrammtechniken ............................................... 55 3.1 Business-Charts .................................................................. 56 3.2 Piktogramme ....................................................................... 61 3.3 Infografiken......................................................................... 62 3.4 Literatur ............................................................................... 63 <?page no="9"?> 10 Inhalt 4 Geovisualisierung und Kartographie...................... 65 4.1 Geodaten ............................................................................. 67 4.2 Kartographische Grundlagen ........................................... 69 4.2.1 Grundsätze guter Kartengraphik...................................... 71 4.3 Kartogramme ...................................................................... 72 4.3.1 Nicht-zusammenhängende Kartogramme ...................... 73 4.3.2 Zusammenhängende Kartogramme ................................ 74 4.3.3 Dorling-Kartogramm......................................................... 74 4.4 Extrudierte Karten ............................................................. 75 4.5 Literatur ............................................................................... 77 5 Generative Computergrafik .................................... 79 5.1 Geometrische Modellierung ............................................. 80 5.1.1 Objekte in der Szene.......................................................... 81 5.2 Modellierungsmethoden.................................................... 82 5.2.1 Kantenmodelle.................................................................... 83 5.2.2 Flächenmodelle................................................................... 83 5.2.3 Volumenmodelle ................................................................ 86 5.3 Oberflächeneigenschaften................................................. 87 5.4 Bildsynthese (Rendering)................................................... 88 5.5 Anwendungsbeispiel: 3D - Stadtmodelle ........................ 90 5.5.1 Airborne Laser Scanning (ALS) ....................................... 90 5.5.2 Ableitung eines 3D-Stadtmodells aus ALS -Daten........ 97 5.6 Photogrammetrie..............................................................100 5.6.1 Stereophotogrammetrie ...................................................101 5.6.2 Nahbereichs-Photogrammetrie ......................................102 5.7 Haptischer Ausdruck / 3D-Druck.................................103 5.8 Literatur .............................................................................105 <?page no="10"?> 6 Bildbearbeitung .................................................... 107 6.1 Datenerfassung Rasterdaten ...........................................109 6.2 Workflow der Bildbearbeitung .......................................113 6.2.1 Punktoperatoren...............................................................115 6.2.2 Lokale Operatoren / Filterung im Ortsbereich ...........119 6.2.3 Globale Operatoren .........................................................122 6.3 Bildanalyse .........................................................................123 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung..........................................................................125 6.4.1 Pixelbasierte Klassifikation multispektraler Daten ......128 6.4.2 Grundprinzip der Klassifikationsverfahren ..................129 6.4.3 Überwachte Klassifikation ..............................................132 6.4.4 Anwendungsbeispiel: Erfassung von versiegelten Flächen...............................................................................134 6.5 Weitere ausgewählte Operationen mit Bildern.............141 6.5.1 Stitching .............................................................................141 6.5.2 Mosaicing...........................................................................142 6.5.3 High Dynamic Range (HDR)-Fotografie......................143 6.5.4 Morphing...........................................................................146 6.6 Weiterführende Literatur.................................................146 7 Augmented Reality ............................................... 147 7.1 Begriffsklärung..................................................................148 7.2 Historische Entwicklung und Anwendungsbereiche...150 7.3 Grundlagen........................................................................152 7.3.1 AR-Systeme.......................................................................152 7.3.2 Darstellung ........................................................................153 7.3.3 Interaktion.........................................................................155 7.3.4 Tracking .............................................................................156 Inhalt 11 <?page no="11"?> 12 Inhalt 7.4 Trackingverfahren ............................................................157 7.4.1 Markerbasiert ....................................................................157 7.4.2 Natürliche Marker (merkmalsbasiert) ............................158 7.4.3 Dreidimensionale Marker................................................159 7.4.4 Markerloses Tracking mit SLAM ...................................160 7.4.5 Nicht-optisches Tracking ................................................161 7.4.6 Kombination verschiedener Verfahren.........................162 7.5 Entwicklerwerkzeuge .......................................................162 7.5.1 Android..............................................................................162 7.5.2 iOS......................................................................................163 7.5.3 Facebook AR Studio........................................................163 7.5.4 Windows Mixed Reality...................................................164 7.5.5 Software-Bibliotheken .....................................................164 7.5.6 Unity...................................................................................166 7.6 Ausblick .............................................................................166 7.7 Literatur .............................................................................167 8 Virtual Reality (VR) .............................................. 169 8.1 Begriffserklärung ..............................................................169 8.2 Historische Entwicklung .................................................171 8.3 Anwendungsbeispiele ......................................................175 8.4 Erstellung von VR-Anwendungen.................................178 8.4.1 Allgemeines zu Erstellung von Inhalten .......................179 8.4.2 Beispiel: Interaktive Historytainment-Anwendung .....181 8.5 Aktuelle Marktübersicht ..................................................183 8.5.1 Mobile VR .........................................................................184 8.5.2 High-End-VR ...................................................................185 8.6 Was bringt die Zukunft? ..................................................188 8.7 Literatur .............................................................................190 <?page no="12"?> 9 Visualisierung und Manipulation..........................191 9.1 Stichproben mit systematischem Fehler........................192 9.2 Auswirkungen der Wahl des Lokationsmaßes..............194 9.3 Manipulation mit Diagrammen ......................................196 9.4 Manipulation mittels Piktogrammen .............................199 9.5 Manipulation mit Karten.................................................200 9.6 Manipulation mittels Bildbearbeitung............................201 9.7 Anmerkungen ...................................................................202 9.8 Weiterführende Literatur.................................................204 Index ............................................................................... 205 Inhalt 13 <?page no="14"?> Abbildungsverzeichnis Abb. 1 Teilgebiete der Graphischen Datenverarbeitung ........ 23 Abb. 2 Schalenmodel zur Graphischen Datenverarbeitung... 24 Abb. 3 Verlust von Strukturinformation bei der Abbildung von Anwendungsdaten auf die graphische Peripherie ................................................................................ 26 Abb. 4 Beispiel einer 300 × 600 dpi-Bildauflösung ................. 28 Abb. 5 Beispiel eines Binärbildes ............................................... 29 Abb. 6 Beispiel einer Rastergrafik, bei der Höheninformation in den Bildpunkten codiert ist ............................... 30 Abb. 7 Histogramm zur Verteilung der Bildpunktausprägung der obigen Heightmap..................................... 31 Abb. 8 SVG-Code zur nachfolgenden Vektorgrafik ............... 33 Abb. 9 SVG-Vektorgrafik aufgebaut ausschließlich aus Kreiselementen................................................................ 34 Abb. 10 Beispiel zur Datenexploration durch Visualisierung .. 39 Abb. 11 Effektive und ausdruckstarke Grafik, die ihr kommunikatives Ziel direkt erreicht..................................... 41 Abb. 12 Elektromagnetisches Spektrum und visuelle Adaption........................................................................... 42 Abb. 13 Form- und Tiefenwahrnehmung bei unterschiedlicher Beleuchtung ..................................................................... 44 Abb. 14 Die Visualisierungspipeline............................................ 50 Abb. 15 Klimadiagramm für Saarbrücken .................................. 52 Abb. 16 Spannweite der Einstiegsgehälter verschiedener Berufsgruppen dargestellt mittels Bereichsdiagramm 58 Abb. 17 Jahreszeitliche Niederschlagsverteilung ausgewählter Städte ................................................................................ 59 <?page no="15"?> 16 Abbildungsverzeichnis Abb. 18 Box- & Whiskerplot zur deskriptiven Darstellung der Variabilität von Niederschlägen ............................. 60 Abb. 19 Beispiel eines Gantt-Charts ........................................... 60 Abb. 20 Beispiel eines Piktogramms ........................................... 61 Abb. 21 Beispiel einer einfachen Infografik ............................... 63 Abb. 22 Verknüpfung von geometrischer und fachbezogener Information bei Geodaten ............................................. 67 Abb. 23 Formale und inhaltliche Bestandteile von Karten nach Hake ........................................................................ 70 Abb. 24 Beispiel einer thematischen Karte................................. 71 Abb. 25 Flächenproportionale bzw. bevölkerungsproportionale Darstellung der Arbeitslosenquote in den verschiedenen Bundesländern ....................................... 74 Abb. 26 Kartendarstellung mit extrudierten Geometrien der Landkreise bzw. kreisfreien Städte in Deutschland .... 76 Abb. 27 Konstruktion komplexer Objekte aus graphischen Primitiven ......................................................................... 82 Abb. 28 Mögliche Interpretation eines Würfels im Kantenmodell ............................................................................... 83 Abb. 29 Beschreibung eines Würfels im Flächenmodell .......... 84 Abb. 30 Objektaufbau als Baumstruktur .................................... 85 Abb. 31 Verwaltung des Objektaufbaus in Tabellen................. 85 Abb. 32 Voxel-Modell ................................................................... 86 Abb. 33 Zusammensetzung der Rendering-Pipeline ................. 89 Abb. 34 Fernerkundungsbasierte Ableitung eines 3D- Geländemodells des Vesuvs .......................................... 91 Abb. 35 Funktionsprinzip Airborne Laser Scanning (ALS) ..... 92 Abb. 36 Signal-Laufzeit in Abhängigkeit von der Oberflächenbedeckung............................................................ 93 Abb. 37 Vergleich der Detailstufen im LoD-Konzept ............. 95 <?page no="16"?> Abb. 38 Vorprozessierter LoD2-Gebäudebestand der Region............................................................................... 98 Abb. 39 LoD-2-Modell kombiniert mit LAS-Dachpunktdaten.................................................................................. 98 Abb. 40 Modellierung fehlender Gebäudebestandteile............. 99 Abb. 41 Finales Stadtmodell mit Textur und Gebäudeöffnungen .......................................................................100 Abb. 42 Zentralperspektivische Abbildung im Luftbild und Parallelprojektion bei der Kartenerstellung ...............101 Abb. 43 Haptischer Ausdruck des modellierten Gebäudebestandes (FDM-Druck) ..............................................104 Abb. 44 Nachtaufnahme unter Verwendung einer für das menschliche Auge kaum wahrnehmbaren IR-LED- Ausleuchtung (840 nm Wellenlänge)..........................110 Abb. 45 Thermografie-Aufnahme zur Visualisierung der Temperaturverteilung an einem Grundofen .............110 Abb. 46 Röntgenaufnahmen einer Pferdezehe ........................111 Abb. 47 Ultraschallaufnahme der Blase eines Hundes............112 Abb. 48 Beispielaufnahme Computertomographie .................113 Abb. 49 Zusammenhang zwischen Variation der Tonwertmuster und der Bildinformation .................................114 Abb. 50 Bildoperatoren und Umgebungsinformation ............115 Abb. 51 Häufigkeitsverteilung der Grauwerte eines Bildes ....116 Abb. 52 Übliche Nachbarschaften lokaler Operatoren ..........119 Abb. 53 Beispiel zur Berechnung eines neuen Pixelwertes durch den Mittelwertoperator .....................................120 Abb. 54 Bsp. Filteranwendung zur Kantendetektion; links Ausgangsbild, rechts Ergebnis nach Anwendung des Sobel-Operators .....................................................122 Abbildungsverzeichnis 17 <?page no="17"?> 18 Abbildungsverzeichnis Abb. 55 Prinzipielle Vorgehensweise bei der Mustererkennung ................................................................................124 Abb. 56 Workflow der Klassifikation von Fernerkundungsdaten................................................................................129 Abb. 57 Reflexionsverhalten verschiedener Substrate ............130 Abb. 58 Zweidimensionaler (multispektraler) Merkmalsraum ................................................................................131 Abb. 59 Zusammenhang zwischen angestrebter Klassenhomogenität, bestmöglicher Klassentrennung und der vollständigen Zuordnung aller Pixel eines Bildes...............................................................................132 Abb. 60 Workflow-überwachte Klassifizierung in Anlehnung an Lillesand et al. .................................................134 Abb. 61 Versiegelungsgrad der Stadt Mainz (Stand 2004) abgeleitet aus IKONOS-Satellitendaten ....................139 Abb. 62 Gegenüberstellung von ATKIS-Information, Versiegelungsklassen der Satellitenbildauswertung und der Versiegelungskarte der Stadt Mainz .............140 Abb. 63 Landschaftspanorama als (vorläufiges) Ergebnis eines Stitching-Prozesses..............................................142 Abb. 64 Beispiel Kontrastumfang 10 : 1 ...................................144 Abb. 65 Prinzip der Erzeugung von HDR-Bildern mittels einer LDR-Kamera .......................................................145 Abb. 66 Realitäts-Virtualitäts-Kontinuum nach Milgram und Kishino ...................................................................149 Abb. 67 Die sechs Freiheitsgrade im dreidimensionalen Raum...............................................................................156 Abb. 68 Beispiele für kontrastbasierte optische Marker .........157 Abb. 69 Markerbasiertes Tracking .............................................158 Abb. 70 Tracking eines 3D-Objektes mit dem ARMedia SDK ................................................................................159 <?page no="18"?> Abb. 71 Funktionsprinzip Virtual Reality .................................170 Abb. 72 Workflow zur Erstellung von einfachen VR- Inhalten mit einer Game-Engine ................................181 Abb. 73 Mobile Virtual Reality...................................................184 Abb. 74 Roomscale Virtual Reality am Beispiel der HTC Vive .................................................................................186 Abb. 75 Zugelassene PKW pro 1000 Einwohner in den Landkreisen und kreisfreien Städten Deutschlands im Jahre 2016. Lage von arithmetischem Mittel, Median und Modalwert. ...............................................195 Abb. 76 Entwicklung der Jahresmitteltemperatur in Saarbrücken, Variante 1 .......................................................196 Abb. 77 Entwicklung der Jahresmitteltemperatur in Saarbrücken, Variante 2 .......................................................197 Abb. 78 Entwicklung der Jahresmitteltemperatur in Saarbrücken, Variante 3 .......................................................198 Abb. 79 Unterschiedliche Wahrnehmung von Kreisdiagrammen in Abhängigkeit von der Perspektive (Beispiel Waldanteil an der gesamten Flächennutzung im Land Rheinland-Pfalz).............................199 Abb. 80 Nicht-flächenproportionale Darstellung der Entwicklung der Studierendenzahlen am Umwelt- Campus...........................................................................200 Abb. 81 Monatsbezogene Mittelwerte und extreme Tagesmittel der Lufttemperatur in Saarbrücken-Ensheim...203 Tabellenverzeichnis Tab. 1 Augmented Reality Frameworks ..................................165 Abbildungsverzeichnis 19 <?page no="20"?> 1 Einführung Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie die Bedeutung der Begriffe Graphische Datenverarbeitung, Computer Vision und Visual Computing kennen, die zentralen Anwendungsfelder der graphischen Datenverarbeitung bzw. der Computergrafik benennen können, die Unterschiede zwischen Vektor- und Rastergrafik kennen, einen Überblick über die verschiedenen Anwendungsfelder der Datenvisualisierung haben. „In einem visuellen Umfeld, das heutzutage durch immer spektakulärere Effekte und ein Höchstmaß an Realismus geprägt ist, bietet die Computergraphik die Möglichkeit, professionelle und realitätsnahe Präsentationen zu erstellen.“ 1 Die Einsatzmöglichkeiten sind dabei fast unbegrenzt: Neben den bekannten traditionellen Anwendungsfeldern in der Informationswirtschaft (z.B. Infografiken in Offline- und Online-Medien) oder z.B. im Bereich Computerspiele nutzen auch Branchen wie z.B. die Regionalplanung, der Städtebau, die Medizin, die Tourismuswirtschaft oder auch Katastrophenmanagement und Umweltmonitoring in großem Umfang Visualisierungstechniken für ihre Zwecke. 1 http: / / www.go-3d.de/ fileadmin/ user_upload/ anwendungen/ Go- 3D_Stadt_und_Gelaende_hq.pdf <?page no="21"?> 22 1 Einführung Insbesondere raumplanerische Disziplinen sowie Anwendungen im Umweltbereich, zunehmend aber auch cyber-physische Applikationen wie z.B. roomscale VR-Anwendungen, nutzen hierbei Daten verschiedenster Quellen (z.B. Luftbilder, Gelände- und Oberflächenmodelle, Gebäudemodelle, topographische Informationen), um eine möglichst realitätsnahe Arbeitsbzw. Spielumgebung generieren zu können. Aber auch die exponentiell wachsende Informationsmenge, die mit immer neuen Techniken und Sensoren akquiriert bzw. generiert wird (vgl. Entwicklungen im Bereich des Internet der Dinge IoT), erzwingen eine effiziente Aufbereitung und Analyse dieser Daten durch Mensch und Maschine. Techniken der Datenvisualisierung, als einem Teilbereich des weiten Feldes der Computergrafik, helfen hier den Akteuren der verschiedensten Disziplinen den Informationsgehalt geeignet zu entschlüsseln. Aufgrund der Leistungssteigerungen in der Mikroelektronik hat sich die Graphische Datenverarbeitung (GDV) zu einem der dynamischsten Gebiete der Informatik entwickelt (z.B. Multi- Media-Anwendungen, Visualisierung, Augmented Reality, Virtual Reality, …). Sie bietet Verfahren, um Bilder zu produzieren und zu manipulieren, wobei Bilder als besondere Art der Ausgabe von rechnerinternen Darstellungen anzusehen sind. Definition: Computer Graphics nach ISO82.a: Methods & techniques for converting data to and from graphics displays via Computer. Im Bereich der Graphischen Datenverarbeitung unterscheiden wir nach Enanacao, Strasser & Klein 2 folgende Teilgebiete: Generative Computergrafik (Bilderzeugung aus Modellen) 2 Enanacao J., W. Strasser & R. Klein (1996): Graphische Datenverarbeitung 1. Gerätetechnik, Programmierung und Anwendung graphischer Systeme. Oldenbourg Verlag München Wien <?page no="22"?> 1 Einführung 23 Bildverarbeitung (image processing) Bildanalyse (image analysis) Abb. 1: Teilgebiete der Graphischen Datenverarbeitung Neben dem etwas in die Jahre gekommenen Begriff der Graphischen Datenverarbeitung finden heutzutage die Termini „Visual Computing“ sowie „Computer Vision“ häufig Verwendung. Visual Computing stellt dabei den Oberbegriff für die verschiedenen Informatikdisziplinen dar, die sich mit Bildern, Bildinformationen und auch 3D-Modellen befassen. Entsprechend existiert unter dem Oberbegriff „Visual Computing“ auch die Einteilung in: Bildbearbeitung (e.g. künstlerische Darstellung), Bildverarbeitung (Extraktion von Daten aus Bildern; image processing incl. der Bildanalyse), sowie in die Computergrafik. Computer Vision (e.g. maschinelles Sehen, Bildverstehen) stellt demgegenüber lediglich einen Teilbereich im weiten Felde des Visual Computing dar. Es beschäftigt sich im Schwerpunkt mit rechnergestützten Lösungen von Fragestellungen, die sich an den Fähigkeiten des menschlichen visuellen Systems orientieren (z.B. Qualitätssicherung, autonomes Fahren, Sicherheitstechnik). Die Graphische Datenverarbeitung kann man in Anlehnung an Krömker 3 auch in Form eines Schalenmodells betrachten (vgl. Abb. 2). Der innere Kern beinhaltet dabei die technologischen 3 Krömker Detlef: Modul B-CG Grundlagen der Computergrafik.http: / / slideplayer.org/ slide/ 4828585/ <?page no="23"?> 24 1 Einführung Grundlagen der Disziplin, die äußere Schale stellt einen Ausschnitt der vielfältigen Anwendungsdisziplinen dar. Abb. 2: Schalenmodel zur Graphischen Datenverarbeitung Wie im Titel bereits beschrieben, werden im vorliegenden Werk nicht alle Bereiche der graphischen Datenverarbeitung besprochen. Unser Focus liegt auf der Visualisierung von Daten unterschiedlichster Herkunft. Trotzdem fließen die Ergebnisse aus der Anwendung von Visualisierungstechniken selbstverständlich auch in die benachbarten Disziplinen ein. So sind bspw. Computerspiele oder Anwendungen im Bereich der Virtual Reality (VR) ohne eine vorlaufende geometrische Modellierung der Szenen nicht vorstellbar. Ebenso wenig kommt die Gestaltung von Webseiten oder Software-Oberflächen (Bereich HMI) nicht ohne Visualisierungstechniken aus, die automatisierte Objekt- <?page no="24"?> 1.1 Raster- und Vektorgrafik 25 erkennung nicht ohne eine vorherige geeignete Aufbereitung des Bildmaterials, um nur einige wenige Gebiete zu benennen. Das Arbeiten mit grafischer Anwendungssoftware im Rahmen der Produktentwicklung, Simulation etc. erfordert hierbei ebenso ein Grundverständnis von der Bildsynthese, wie die Entwicklung gegenständlicher Produkte unter Verwendung von CAD- Software Grundkenntnisse der geometrischen Modellierung verlangt. Auch wird durch den stetig steigenden Einsatz unterschiedlichster bildgebender Verfahren (z.B. Digitalfotographie, Thermografie, Sonographie, Rasterelektronenmikroskopie) ein grundlegendes Verständnis vom Aufbau und den Bearbeitungsmöglichkeiten digitalen Bildmaterials erwartet. Aufgrund der großen fachlichen Breite der Computergrafik (z.B. Grafik-Hardware, Psychophysik des visuellen Systems, geometrische und numerische Probleme, physikalische Modellbildung, Licht-Materie- Interaktion, algorithmische Probleme und Optimierungen etc.) können im vorliegenden Werk lediglich einige Grundlagen im Rahmen einer Einführung in die Thematik vermittelt werden. Der Besuch weiterführender Lehrveranstaltungen auf dem Gebiet der Graphischen Datenverarbeitung und der Computergrafik im Rahmen Ihres Studiums wird von den Autoren deshalb mit Nachdruck empfohlen. 1.1 Raster- und Vektorgrafik Das Anzeigen und Bearbeiten von Diagrammen, der Schnitt von Videos oder die Darstellung aufwändiger 3D-Animationen am Monitor erfordern ein hoch leistungsfähiges Grafiksystem, welches die Grafikoperationen quasi in Echtzeit zu verarbeiten und am Monitor darzustellen in der Lage ist. Das graphische System eines Rechnerarbeitsplatzes besteht dabei prinzipiell aus folgender Basiskonfiguration: <?page no="25"?> 26 1 Einführung Anwendungssystem: Anwendungsproblematik wie Zeichnen, Entwerfen, Gestalten; (z.B. Modellierungssysteme, CAD, GIS, Bildverarbeitung etc.) Graphiksystem: technische Aspekte wie 2D-, 3D-Darstellung, Interaktion; (z.B. OpenGL, Direct3D, Java 3D …) Graphische Peripherie: z.B. Ausgabe- und Eingabegeräte, die sich in Auflösung, Darstellungsgeschwindigkeit, Qualität, Farbgebung etc. differenzieren. Abb. 3: Verlust von Strukturinformation bei der Abbildung von Anwendungsdaten auf die graphische Peripherie Grafische Systeme erzeugen dabei Bilder aus grafischen Objekten (Bildkomponenten), wobei diese Objekte mit Eigenschaften versehen sind (Sichtbarkeit, Identifizierbarkeit, Farbe …). Das grafische System definiert letztlich auch die Menge der ausführbaren grafischen Operationen auf diesen Bildkomponenten, wie Erzeugen, Löschen, Transformationen, Namensgebung etc. Die Datenstrukturen jeder Systemkomponente werden bei der Visualisierung auf Datenstrukturen des jeweils darunter befindlichen Systems abgebildet (vgl. vorherige Grafik in Anlehnung an 4 ). Diese Abbildung geht mit einem Verlust an Strukturin- 4 Enanacao J., W. Strasser & R. Klein (1996): Graphische Datenverarbeitung 1. Gerätetechnik, Programmierung und Anwendung graphischer Systeme. Oldenbourg Verlag München Wien <?page no="26"?> 1.1 Raster- und Vektorgrafik 27 formation, ausgehend von der Anwendungssoftware hin zur graphischen Peripherie, einher. Daten des Anwendungssystems (Anwendungsmodell): werden nicht nur zur graphischen Darstellung verwendet, sondern vor allem zur Analyse und zum besserem Verständnis von Sachverhalten die Ableitung von geometrischen bzw. graphischen Daten ist möglich Jede Datenstruktur des Anwendungssystems muss sich auf niedrigere Strukturen (graphische Objekte) und diese wiederum auf graphische Ausgabeeinheiten abbilden lassen. Datenstrukturen und Datentypen graphischer Geräte: Die Abbildung auf ein graphisches Gerät (z.B. Monitor) erfolgt durch Umsetzung des vom graphischen System übernommenen Anwendungsmodells. Dies beinhaltet in der Regel eine Abbildung auf niedrigere Strukturen (z.B. Kreis [funktion] im Anwendungssystem wird auf eine Folge von Bildpunkten des Kreisumfangs am Monitor abgebildet). Die Abbildung von Bildkomponenten (Objekten) des Anwendungsmodells (z.B. CAD-Software) über das graphische System (z.B. OpenGL) auf das graphische Gerät (z.B. Monitor) geht somit wie oben erwähnt mit einem Verlust an Strukturinformation der Modelldaten einher. Unter grafischen Primitiva verstehen wir kleinste und unteilbare grafische Objekte. In Abhängigkeit von den zu verarbeitenden Primitiva kann die Computergrafik unterschieden werden in Vektor- und Rastergrafik. 1.1.1 Rastergrafik Definition: Eine Rastergrafik ist aus einer rasterförmigen Anordnung von einzelnen Bildpunkten aufgebaut. Die Bildpunkte (Pixel = Picture Element) tragen als grafisches <?page no="27"?> 28 1 Einführung Primitivum dabei die jeweilige Grauwertbzw. Farbwertinformation. Wesentliche Merkmale einer Rastergrafik sind die Bildauflösung sowie die Farbtiefe. Zur digitalen Codierung der Bildinformationen wird diese entsprechend in eine Folge von Rasterpunkten zerlegt. Die Ausprägung dieser Rasterpunkte (schwarz/ weiß, Graustufen, Farben) kann durch ein Bit (2 1 = 2 Abstufungen), ein Byte (2 8 = 256 Abstufungen) oder auch mehrere Bytes (z.B. 3 x 8 Byte je RGB-Farbkanal, d.h. 24 Bit = True Color) codiert werden. Die Menge an Speicher, die für diese Codierung bereitgestellt wird, ist auch durch den Begriff der Farbtiefe festgelegt. Die Anzahl an Bildbzw. Rasterpunkten je Flächeneinheit definiert die Qualität der Bildauflösung. Bildauflösung (Anzahl von Spalten und Zeilen; Bildgröße): Angabe der geometrischen Auflösung in dpi (Dots/ Bildpunkte per inch = 2,45 cm bzw. ppi = pixel per inch). Die Anzahl von Spalten und Zeilen kann dabei durchaus unterschiedlich sein. Abb. 4: Beispiel einer 300 (horizontal) x 600 (vertikal) dpi-Bildauflösung Die unterschiedlichen Bildformate enthalten Regelwerke, wie der Bildinhalt in eine Folge von Bytes übersetzt und in einer Datei abgespeichert wird. Ein sehr einfaches Format ist die Bitmap, in der jeder Bildpunkt mit dem gleichen Aufwand gespeichert wird. Als Binärbild enthalten die einzelnen Pixel einer Bitmap entweder den Wert 1 oder 0, d.h. schwarz oder weiß. <?page no="28"?> 1.1 Raster- und Vektorgrafik 29 Abb. 5: Beispiel eines Binärbildes Weitere Eigenschaften von Rasterdaten: Beschreibung der Bildelemente/ Objekte erfolgt durch die Ausprägung der Bildpunkte. Die Bildpunktinformation kann dabei auch Fachinformation codieren, bspw. Höhenwerte (z.B. digitale Geländemodelle), Temperaturangaben (z.B. Thermografie) oder sonstige Messwerte (z.B. Schadstoffdeposition) Nachbarschaftsinformation (Topologie) ist implizit vorhanden leicht konvertierbar und wegen impliziter Topologie gut geeignet für Simulation und Modellbildung Es existiert eine große Vielfalt von Dateiformaten mit Unterschieden in der Datenqualität (z.B. verlustfreie bzw. verlustbehaftete Ablage der Bildinformation), Speicherbedarf, zusätzlicher spezifischer Informationen (z.B. Metadaten, Ebenenkonzepte), Verbreitung etc. Treppeneffekte als Darstellungsproblem z.B. bei Skalierungen Aus gerätetechnischer Sicht (v.a. Ausgabe) gibt es heute fast nur noch Rastergrafik. 1.1.1.1 Beispiel Rastergrafik: Geländemodell / Heightmap Dass der Bildinhalt unterschiedlich interpretiert werden kann, zeigt nachfolgendes Beispiel. Während die Netzstruktur in Ab- <?page no="29"?> 30 1 Einführung bildung 6 für den einen Betrachter ein interessantes Kunstwerk darstellen mag, enthält das Bild für andere einfach nur Information über Geländehöhen, die z.B. im Rahmen einer Standortplanung Eingangsdaten für eine Raumanalyse liefern. Da im zweitgenannten Fall eine flächenhafte Datenerfassung im Bild codiert vorliegt, empfiehlt es sich, zur Vermeidung eines Informationsverlustes hier auch Bild-Datenformate zu wählen, die eine verlustfreie Komprimierung erlauben (z.B. TIFF). Da Bilder wie beschrieben Beobachtern mit verschiedenen Interessen unterschiedliche Informationen liefern, können auch die auf das Bildmaterial angewendeten Operationen und Auswertealgorithmen völlig unterschiedlich sein. Abb. 6: Beispiel einer Rastergrafik, bei der Höheninformation in den Bildpunkten codiert ist (digitales Geländemodell / Heightmap) Im vorangehenden Bildbeispiel einer Heightmap beschreibt ein Bildpunkt die Höheninformation eines bestimmten Bereichs der Erdoberfläche: Die Tonwerte codieren die ganzzahligen Höhenwerte in Meter über Normal Null (ü. NN), die einzelnen Pixel bilden dabei eine Fläche von 5 x 5 m ab; der geografische Raumbezug (Georeferenzierung) wird über die Metadaten zum Bild hergestellt (Dateiformat: GeoTIFF). <?page no="30"?> 1.1 Raster- und Vektorgrafik 31 Abb. 7: Histogramm zur Verteilung der Bildpunktausprägung der obigen Heightmap. Pixelwert beinhaltet die Höhenwerte, Frequenz die Häufigkeit des jeweiligen Auftretens. 1.1.2 Vektorgrafik Definition: „Eine Vektorgrafik ist die praktische Umsetzung der analytischen Geometrie, mit der ausnahmslos Linien auf dem Ausgabegerät gezeichnet werden. Die Linien werden wie Vektoren behandelt (daher die Bezeichnung), mit einem Anfangs- und einem Endpunkt und Koordinaten für diese Punkte. Diese Art der Repräsentation ist unabhängig von der Bildauflösung und erlaubt die verlustfreie Bearbeitung der Bildinhalte.“ 5 5 Schiele, H.-G. (2012): Computergrafik für Ingenieure. Eine anwendungsorientierte Einführung. Springer Verlag, Heidelberg <?page no="31"?> 32 1 Einführung In einer Vektorgrafik bestehen die grafischen Darstellungen aus zusammengesetzten Primitiva (Punkte, Linien, Polygonen, Körper) und deren Eigenschaften (exakte Position, Farben, Texturen etc.). Weitere Eigenschaften von Vektordaten: Beschreibung der Objekte erfolgt durch Koordinatentupel bzw. -tripel Vektorgrafiken können ohne Qualitätsverlust beliebig skaliert werden Vektorgrafiken müssen für die Darstellung immer neu gerendert werden, d.h. eine Vektor-zu-Raster-Konvertierung ist durchzuführen Es existieren zahlreiche spezialisierte Dateiformate für diverse Anwendungen 3D-Grafiken werden als Szenen- oder Geometrieformate bezeichnet 1.1.2.1 Beispiel: Scalable Vector Graphics (SVG) SVG ist eine Spezifikation zur Beschreibung von zweidimensionalen Vektorgrafiken für das World Wide Web, welche z.B. durch Webbrowser dargestellt werden können. Die Anfänge der Entwicklung von SVG gehen bereits auf die Jahrhundertwende zurück, als diverse Industriekonsortien versuchten, mit z.B. der Vector Markup Language (VML) bzw. der Precision Graphics Markup Language (PGML) einen Standard für skalierbare Webgrafiken zu etablieren. Seit dem Jahre 2005 ist SVG nun offizieller Standard des W3C zur Beschreibung zweidimensionaler Webgrafiken. Neben der Skalierbarkeit, der Unterstützung eines komplexen Designs (Verläufe, Muster, Licht, Schatten etc.) sowie von Stylesprachen (z.B. CSS), der Ermöglichung einer skriptgesteuerten Interaktion mit Nutzern, sowie der diversen Animationsmöglichkeiten, ist ein weiterer Vorteil von SVG die für Mensch und Maschine gut lesbare XML-basierte Dokumentenstruktur. <?page no="32"?> 1.1 Raster- und Vektorgrafik 33 SVG-Dateien können mit jedem Texteditor, aber auch mittels entsprechender Grafikprogramme erstellt werden (z.B. Inkscape), für die Anzeige ist ein Browser mit SVG-Unterstützung erforderlich. Ein Tutorial zur Einführung in SVG findet sich unter anderem bei 6 . Nachfolgend sehen sie ein Beispiel der SVG-Syntax. <? xml version="1.0" encoding="utf-8" ? > <! DOCTYPE svg PUBLIC "-/ / W3C/ / DTD SVG 1.1/ / EN" "http: / / www.w3.org/ Graphics/ SVG/ 1.1/ DTD/ svg11.dtd"> <svg width="600" height="600" xmlns="http: / / www.w3.org/ 2000/ svg" > <title>SVG aus KREISELEMENTEN</ title> <desc> Erstellung einer Vektorgrafik in SVG aus Kreiselementen </ desc> <! -gelber Kreis --> <circle cx="200" cy="200" r="150" fill="yellow" stroke="black" stroke-width="5"/ > <! -- Augen --> <circle cx="150" cy="150" r="15" fill="black" stroke="black"/ > <circle cx="250" cy="150" r="15" fill="black" stroke="black"/ > <! -- Mund --> <path d="M120,250 C170,300 230,300 280,250" fill="none" stroke="black" stroke-width="3"/ > </ svg> Abb. 8: SVG-Code zur nachfolgenden Vektorgrafik 6 http: / / svg.tutorial.aptico.de/ <?page no="33"?> 34 1 Einführung Abb. 9: SVG-Vektorgrafik aufgebaut ausschließlich aus Kreiselementen 1.2 Anwendungsfelder der Visualisierung Visualisierungstechniken werden bereits seit dem Altertum in allen Disziplinen eingesetzt, sei es aus Gründen der erleichterten Kommunikation, der Manipulation oder auch zum Zeitvertreib, um nur einige Motivationsfelder zu benennen. Im Bereich der Sozial-, Umwelt- und Ingenieurwissenschaften gibt es eine Vielzahl von Anwendungsfeldern, von denen nachfolgend einige exemplarisch aufgeführt werden: Business Charts bzw. allgemeine Diagrammtechniken: Universell verbreitete grafische Darstellung aller Arten von Diagrammen und Infografiken mit einer großen Spannweite an grafischen Gestaltungsmöglichkeiten, insbesondere beim Einsatz entsprechender Softwarepakete (z.B. Excel Diagramm Editor, Statistikpakete, Matlab etc.) Geo-Informationssysteme und Kartographie: Anwendungen in der Auswertung und Darstellung georeferenzierter Daten in Form von Kartenwerken wie z.B. im Bereich der digitalen Planerstellung, der Computerkartographie oder im Anwendungsfeld der Navigationssysteme (z.B. Software Arc- GIS, Quantum GIS) Computer Aided Design (CAD): Software zum rechnergestützten Konstruieren, der Entwicklung von 3D-Modellen sowie der Entwicklung technischer Lösungen. Ursprünglich als Hilfsmittel zur Erstellung von technischen 2D-Zeich- <?page no="34"?> 1.2 Anwendungsfelder der Visualisierung 35 nungen entwickelt, können heute neben der räumlichen Abbildung von Objekten auch zugehörige Fachinformationen wie z.B. Materialeigenschaften verwaltet und ausgewertet werden. Beispiele: AutoCAD, CATIA, SolidWorks, Free- CAD; viele branchenspezifische Lösungen am Markt erhältlich. Geometrische (3D-) Modellierung: Objekte werden softwareseitig - ähnlich wie bei den vorgenannten CAD-Systemen - als Abbild realer Objekte wie Architektur, Objekte des tägl. Lebens, Maschinen etc. nachgebildet. Dabei besitzen diese Objekte bestimmte Oberflächeneigenschaften (z.B. eben, uneben, fraktal), Volumenobjekte eine innere Struktur, realitätsnahe Objekte wie z.B. Wolken besitzen Fraktale (natürliche/ künstliche/ geometrische Muster) etc. Zum Teil mit automatischer Generierung von perspektivischen Ansichten (z.B. Software 3D-Studio Max, MAYA, Lightwave, Cinema 4D, Blender) Digitale Bildverarbeitung: Nachbearbeitung und Manipulation gescannter Analogbilder (z.B. Fotos) oder originaler Scanner-Daten (z.B. Luft- und Satellitenbilder, digitale Fotografie, bildgebende Verfahren der Medizin) mittels Funktionen der Rastergrafik (z.B. Software Photoshop, GIMP, Erdas Imagine) Bildanalyse: Extraktion gewünschter Informationen aus digitalen Bilddaten; z.B. im Bereich Qualitätsmanagement, Videoüberwachung, Objektschutz und intelligenter Sicherheitssysteme. (Softwarebeispiele: MEVISLab, HalCon, Matrox, Imaging Library, OpenCV, ToolIP etc.) Virtual Reality: Techniken zur Erzeugung einer möglichst glaubwürdigen virtuellen Wirklichkeit. Basiert insbesondere auf den Arbeiten im Bereich der geometrischen Modellierung. Anwendungen werden mittlerweile häufig durch akustische und weitere Effekte (z.B. haptisch, olfaktorisch) ergänzt. Bewegung als zusätzliche grafische Variable: Interaktive Bewegung des Anwenders in virtuellen 3D-Räumen („Cyber- <?page no="35"?> 36 1 Einführung space“) mit automatischer Generierung von perspektivischen Ansichten (z.B. Software Unreal Engine, CryEngine in Verbindung mit Head Mounted Displays HMD´s) Computerkunst und Desktop Publishing: Anwendung der Computergrafik in der gestaltenden Kunst 7 , in Design- Anwendungen (z.B. in der Werbung) sowie den klassischen Printmedien Infotainment: Der Begriff ist eine Komposition aus den beiden Wörtern „Information“ und „Entertainment“ und beschreibt die Kombination von Information und Unterhaltung, ähnlich des Edutainments, das seinen Schwerpunkt in der unterhaltsamen Vermittlung von Lernaspekten bzw. Wissen findet (vgl. auch Gamification) Wissenschaftliche Visualisierung: Visualisierung hochkomplexer Szenarien bzw. Informationen im Umfeld von Forschungsprojekten bzw. der Industrie, häufig mittels hochspezialisierter Software (z.B. VisIT, MeVisLab, Avizo) … 1.3 Literatur Enanacao J., W. Strasser & R. Klein (1996): Graphische Datenverarbeitung 1. Gerätetechnik, Programmierung und Anwendung graphischer Systeme. 4. Auflage. - Oldenbourg Verlag München Wien Nischwitz A., M. Fischer, P. Haberäcker & G. Socher (2011): Computergrafik und Bildverarbeitung. Band 1: Computergrafik. 3. Auflage. - Vieweg + Teubner Verlag, Wiesbaden Schumann H. & W. Müller (2000): Visualisierung. Grundlagen und allgemeine Methoden. - Springer Verlag Berlin Heidelberg Ward M., Grinstein G. & D. Keim (2010): Interactive Data Vizualisation. Foundations, Techniques, Applications. - A K Peters, Ltd. Natick, Massachusetts 7 http: / / zkm.de/ <?page no="36"?> 2 Computervisualistik Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie einen grundlegenden Überblick zu den Wahrnehmungskapazitäten des Menschen und deren Beschränkungen bzw. Einschränkungen haben, den allgemeinen Visualisierungsprozess ausgehend von den vorliegenden Rohdaten hin zum fertigen Bild beschreiben können, die Qualität bzw. Eignung einer Visualisierung beurteilen können Die Visualisierung setzt den Begriff des Visuellen in der Datenverarbeitung ins Zentrum des Interesses und spielt in der grafischen Datenverarbeitung für den Anwender die herausragende Rolle. Die Computervisualistik (CV), ein Begriff der in der letzten Dekade populär geworden ist und weite thematische Felder der GDV abdeckt, stellt hierbei ein interdisziplinäres Gebiet der Informatik dar, welches sich mit allen Formen der Bilderzeugung, Bildverarbeitung und Bildgestaltung auseinander setzt. Ziele der Visualisierung können dabei sowohl die Entschlüsselung des Informationsgehaltes als auch das bessere Verständnis und die erleichterte Kommunikation von Daten, Strukturen, Modellen oder auch Konzepten sein. Aber auch manipulative Ansätze können durch geeignete Visualisierungstechniken unterstützt werden. Generisch betrachtet befasst sich die CV somit mit der Bereitstellung geeigneter visueller Repräsentationen in den unterschiedlichsten Anwendungsfeldern. Sie kann je nach Ausprägung und Anwendungsbereich - wie andere Gebiete der Medi- <?page no="37"?> 38 2 Computervisualistik eninformatik - ihren Schwerpunkt sowohl auf der technischen, als auf der kreativen Seite haben. Definition: Die Computervisualistik ist -wie auch die Wirtschaftsinformatik oder Medieninformatikeine interdisziplinäre Informatik-Disziplin, die sich mit allen Formen der Bilderzeugung, Bildverarbeitung und -gestaltung mittels des Computers auseinander setzt. Die Forschungsschwerpunkte der CV sind -neben den klassischen Bereichen Computergrafik, Simulation und Visualisierungzunehmend auch interdisziplinär zwischen der Informatik und der Kognitions- und Kommunikationsforschung sowie der Psychologie angesiedelt. Nachfolgendes einfaches Beispiel unterstreicht den Vorteil von Visualisierungstechniken auf dem Gebiet der explorativen Datenanalyse: Das meteorologische Messnetz des Deutschen Wetterdienstes erfasst seit seinem Aufbau in den 1950er Jahren kontinuierlich eine Vielzahl von Parametern. Wollen wir nun im Rahmen der Klimawandeldiskussion auf geänderte Jahresdurchschnittstemperaturen z.B. am Messstandort Saarbrücken-Ensheim hinweisen, können wir dies unter Verwendung der (aggregierten) Jahresmittelwerte in tabellarischer Form tun, oder aber die Daten mittels Verlaufsdiagramm visualisieren. Dass letztgenannte Vorgehensweise die geeignetere ist, versteht sich von selbst. Eine Unterstreichung des tatsächlich vorhandenen Anstiegs der Jahresmitteltemperaturen seit Beginn der Messungen erreichen wir zusätzlich durch eine Unterbrechung der Y-Achse (vertikale Achse / Ordinatenachse; nur der relevante Temperaturbereich wird dargestellt; Überhöhung der Werte) sowie das Einzeichnen einer Regressionsgeraden (siehe auch Kapitel 9). <?page no="38"?> 2.1 Qualität einer Visualisierung 39 Abb. 10: Beispiel zur Datenexploration durch Visualisierung Weitere effektive und anschauliche Beispiele finden wir bei der Anwendung einfacher Diagramm-Techniken z.B. in der deskriptiven Statistik (e.g. Boxand Whisker Plots) oder auch im Data- Mining (z.B. Dendrogramme). Demzufolge können wir festhalten, dass die Visualisierung im Sinne der Informatik die Transformation von Daten in ein sichtbares Bild zur Unterstützung der Exploration (Erkundung), der Kognition (Erkennen) und der Explanation (Erklärung) von Strukturen und Prozessen ist 8 . 2.1 Qualität einer Visualisierung Eine Visualisierung ist dann gut, wenn die bildliche Darstellung das kommunikative Ziel erreicht hat, d.h. wenn der Informationstransport zum Betrachter gelungen ist. 8 nach Schumann H. & W. Müller (2000): Visualisierung. Grundlagen und allgemeine Methoden. Springer Verlag Berlin Heidelberg <?page no="39"?> 40 2 Computervisualistik Der Informationstransport zum Betrachter ist abhängig von: der Charakteristik der zugrundeliegenden Daten: z.B. Datentyp (skalare oder vektorielle Größen (Betrag und Richtung)), Dimension, Wertebereich (quantitativ oder qualitativ), Strukturierung (sequentiell, relational, hierarchisch, netzwerkartig), Wirkungskreis (punktuell, lokal oder global, Skalen- Niveau (nominal, ordinal, metrisch) etc. Detaillierte Informationen hierzu finden sich insbesondere auch bei 9 dem Bearbeitungsziel: z.B. Exploration, Kommunikation, Manipulation den Eigenschaften des Darstellungsmediums: z.B. High- End Rechner, Printmedium, Webseiten, Smartphone-App, Beamer-Präsentation den Wahrnehmungskapazitäten des Betrachters: z.B. Nutzergruppe (z.B. Kinder oder Silver Surfer, Expertengruppe, Vorbildung usw.), Bekanntheit von Konventionen und Metaphern. Die Qualität einer Visualisierung kann durch zwei zentrale Eigenschaften bewertet werden: Effektivität optimale Ausnutzung der visuellen Fähigkeiten und Vorlieben des Betrachters Berücksichtigen des Vorwissens des Betrachters Berücksichtigung der Möglichkeiten des Ausgabemediums (z. B. Anzahl darstellbarer Farben, Rechenleistung) Berücksichtigung des Anwendungskontextes wie z.B. übliche Metaphern, Konventionen des Anwendungsgebietes, existierende Standards 9 Ward M., G. Grinstein & D. Keim (2010): Interactive Data Visualisation. Foundations, Techniques, and Applications. A K Peters, Natik <?page no="40"?> 2.2 Wahrnehmungskapazitäten des Menschen 41 Expressivität (Ausdrucksfähigkeit) Unverfälschte Wiedergabe der darzustellenden Daten Unterstützung der intuitiven Wahrnehmung Problembezogene Wahl der Visualisierungs-Methode (ungeeignete Methode der Visualisierung kann zu falschen Schlüssen führen) Abb. 11: Effektive und ausdruckstarke Grafik, die ihr kommunikatives Ziel direkt erreicht 2.2 Wahrnehmungskapazitäten des Menschen Die Sinneswahrnehmung des Menschen (Sehen, Hören, Riechen, Schmecken, Haptik) gilt allgemein als das Tor zur Welt. Dabei haben die menschlichen Sinne unterschiedliche Aufnahmekapazitäten. So werden über den Gesichtssinn pro Sekunde etwa 10 Mio Sh 10 , über den Tastsinn etwa 1 Mio Sh, über den Gehör- und den Geruchsinn ca. 100.000 Sh, und über den Geschmacksinn etwa 1.000 Sh aufgenommen. Die herausragende Bedeutung der visuellen Wahrnehmung beim Menschen hat somit selbstverständlich eine große Relevanz für die Datenvisualisierung: sie ist die wichtigste Wahrnehmungstechnik des Menschen (meist unbewusst und intuitiv) 10 Shannon (Sh) ist die nach dem amerikanischen Mathematiker und Begründer der Informationstheorie Claude Elwood Shannon benannte Einheit für den Informationsgehalt einer Nachricht <?page no="41"?> 42 2 Computervisualistik das Einbeziehen des menschlichen Sehvermögens bietet eine wesentliche Hilfe beim Erkunden und Verstehen räumlicher Strukturen und Prozesse die Analyse und Interpretation von Zusammenhängen und Veränderungen, Modellierung und Entscheidungsfindung werden wirkungsvoll unterstützt: „Ein Bild sagt mehr als tausend Worte…“ sie erlaubt die Verwendung von Metaphern (Sinnbilder, sprachliche Bilder), um reale Objekte oder abstrakte Begriffe intuitiv verstehbar darzustellen. Die visuelle Wahrnehmung beim Menschen besteht dabei aus (mindestens) drei Komponenten: dem elektromagnetischen Spektrum der eintreffenden Strahlung, den Wahrnehmungsmöglichkeiten des menschlichen Auges sowie der Verarbeitungskomponenten im Gehirn. Abb. 12: Elektromagnetisches Spektrum und visuelle Adaption 11 11 aus Stabel E. & W. Lengert (2013): Fernerkundung und Erdbeobachtungssysteme. in: Fischer-Stabel, P. (2013): Umweltinformationssys- <?page no="42"?> 2.2 Wahrnehmungskapazitäten des Menschen 43 Vorstehende Grafik zeigt den für das menschliche Auge sichtbaren und eng begrenzten Ausschnitt des elektromagnetischen Spektrums (VIS). Mithilfe geeigneter technischer Verfahren und Sensorik (z.B. Ultraschall, Radar) kann zwischenzeitlich jedoch das gesamte Spektrum zur Informationsgewinnung verwendet werden (vgl. auch Kapitel bildgebende Verfahren). Die Augen enthalten neben Pupille, Hornhaut, Linse und Retina auch die visuellen Rezeptoren, die sogenannten Stäbchen und Zapfen, welche die lichtempfindlichen Substanzen enthalten und sich gegenseitig ergänzen. Skotopisches System: 100-120 Mio. Stäbchen, Hell-/ dunkel-Empfindung, Dämmerungsbzw. skotopisches Sehen; einziges Empfindlichkeitsmaximum bei 498 nm (grün); nehmen zum Augenrand hin zu, Bewegungserkennung (Helligkeitsänderung); fehlendes Farbempfinden; geringes Auflösungsvermögen, hohe Empfindlichkeit Photopisches System: 7-8 Mio. Zäpfchen, 3 Typen mit Empfindlichkeitspeaks bei 420 nm (blau), 534 nm (grün), 564 nm (rot); nehmen zum Augenzentrum (Foeva) hin zu; Basis für das Tagessehen (photopisches Sehen); hohes räumliches & zeitliches Auflösungsvermögen, Farbentüchtigkeit, unempfindlich. Durch Kombination und Integration der verschiedenen Informationen von Stäbchen und Zäpfchen können örtliche Details sowie Farb- und Helligkeitsunterschiede erkannt werden. Gegenüber den diesbezüglichen Fähigkeiten des menschlichen Auges finden wir in der Tierwelt viele Taxa, bei denen der sichtbare bzw. wahrnehmbare Bereich des elektromagnetischen Spektrums im Vergleich zu dem des Menschen verschoben bzw. erweitert ist. So können bspw. Bienen und Ameisen oder auch teme. Grundlegende Konzepte und Anwendungen. Wichmann / VDE Verlag, Berlin und Offenbach <?page no="43"?> 44 2 Computervisualistik die Blaumeise UV-Licht wahrnehmen. Eine Übersicht zur Farbwahrnehmung bei Tieren findet sich unter anderem bei 12 . Textur-, Figur- und Form-, aber auch Tiefenwahrnehmung sind weitere Prozesse, die auf dem Gebiet der visuellen Gestaltung von Bedeutung sind. Insbesondere die Konfrontation des Gehirns mit atypischen Sehsituationen kann dabei verblüffende Effekte liefern (z.B. optische Täuschungen, Illusionen). So zeigt nachfolgende Abbildung eine Geländeoberfläche, welche aus unterschiedlichen Positionen, jedoch mit gleichem vertikalen Einstrahlwinkel (45°) beleuchtet wurde. Während das Bild links (Position der Lichtquelle im Süden) eine realistische Wahrnehmung der Hügel und Täler ermöglicht, erscheint die Höhenwahrnehmung im rechten Bild (Position der Lichtquelle im Norden) geradezu vertauscht. Abb. 13: Form- und Tiefenwahrnehmung bei unterschiedlicher Beleuchtung (linke Karte: Azimuth: 0°, vertikaler Winkel: 40°; rechte Karte: Azimuth: 180°, vertikaler Winkel: 40°) Weitere Begriffe mit Bezug zu den Wahrnehmungskapazitäten des Menschen: Sehschärfe: beschreibt den Detailgrad in der Erkennung örtlicher Strukturen Gesichtsfeld: horizontal 180-190 Grad, am Rande nur empfindlich auf Bewegung und schwarzweiß, das allerdings sehr stark (evolutiv begründet wg. Beute, Gefahr etc.); vertikal 12 https: / / wisotop.de/ Farbsehen-Tiere.php <?page no="44"?> 2.2 Wahrnehmungskapazitäten des Menschen 45 120-150 Grad, Konzentration auf Augenhöhe, in den Randbereichen empfindlich auf Bewegungen; scharf abgebildeter Blickwinkel, jedoch lediglich 1,5-2 Grad, je nach Training & Aufgabe auch weniger (z.B. Lesen, Bildschirmarbeit) Farbe: Sammelbegriff für Farbstoff und Farberscheinungen Farbmetrik: durch das Auge ermittelter Sinneseindruck; subjektiv Farbreiz: Sinneseindruck, durch elektromagnetische Strahlung ausgelöst; messbar bunte (chromatische) Farben: Kennzeichen Farbton, Sättigung, Helligkeit achromatische Farben (unbunt): Kennzeichen: Helligkeit Die Farbwahrnehmung ist abhängig von der Größe der Farbfläche (größere Bereiche auf der Netzhaut werden abgedeckt) sowie von der Umgebung bzw. dem Kontext. Hierdurch werden graphische Mindestgrößen definiert, die zu einer Informationsübertragung nicht unterschritten werden sollten. 2.2.1 Visuelle Wahrnehmung und graphische Mindestgrößen Zur Erhaltung der Lesbarkeit müssen unter Normalbedingungen Mindestgrößen bei grafischen Elementen eingehalten werden, da die menschliche Sehkraft, wie beschrieben, begrenzt ist (auch altersabhängig! ). Insbesondere in der Kartographie, in deren Anwendungsfeld eine Vielzahl von Gestaltungselementen (z.B. Signaturen, Schriften, Linien, Punkte) gleichzeitig verwendet werden, wurde bereits früh die Bedeutung der Minimalgrößen von und Mindestabständen zu graphischen Elementen zum Erhalt der Lesbarkeit von Kartenwerken diskutiert. 13 13 Hake G., Grünreich D. & Meng L. (2002): Kartographie: Visualisierung raum-zeitlicher Informationen (8. Auflage). De Gruyter Verlag, Berlin <?page no="45"?> 46 2 Computervisualistik Prinzipiell gilt: Bei reinen schwarz-weiß-Darstellungen und ausreichenden Kontrasten sind geringere Mindestgrößen zulässig als bei bunten, wenig kontrastreichen Grafiken. Für Web- Präsentationen existieren dabei aktuell immer noch deutlich höhere Anforderungen an die Mindestgrößen. Bei vorausgesetztem guten Kontrast zwischen graphischem Element und Hintergrund können nach 14 bei einem Leseabstand von 30 cm folgende Mindestgrößen noch erkannt werden: feinste schwarze Linien von 0,04 mm Strichdicke, 50 Linien von 0,02 oder 0,04 mm pro cm, isolierte Punkte von ca. 0,1 mm Durchmesser, Zwischenräume von ca. 0,15 mm, Abstände von 0,07 mm Für die Betrachtung aus größerer Distanz erhöhen sich die Werte proportional. Diese Werte gelten nur für schwarze Vollfarbe, für alle helleren Druckfarben müssen die Elemente größer und die Abstände weiter sein. Zudem kann das Auflösungsvermögen von Person zu Person stark variieren. Falls wir nicht im Grenzbereich der visuellen Wahrnehmung arbeiten müssen, können wir uns auch an folgenden Größenordnungen orientieren: Punkt: bei Druckerzeugnissen und kontrastreicher Darstellung ist die Mindestgröße 0,25 mm, bei kontrastarmer Darstellung 0,45 mm (Web-Karten: Empfehlung = 1 mm) Flächen: Empfehlung von 0,09 mm² bei kontrastreicher Darstellung (Druckerzeugnis), bei Web-Anwendungen 4 mm². Für die Wahl der Schriftgröße sollten folgende Regeln beachtet werden: Stets die Anforderungen zur Barrierefreiheit berücksichtigen (vgl. nachfolgendes Kapitel), d.h. ein optimales Maß an Les- 14 http: / / www.univie.ac.at/ cartography/ lehre/ pskg/ unterlagen/ doc/ kap5.pdf <?page no="46"?> 2.2 Wahrnehmungskapazitäten des Menschen 47 barkeit für alle Nutzergruppen (z.B. Silver Surfer) gewährleisten Schriftgröße immer auf die Zielgruppe abstimmen Ebenso je nach Medium (z.B. Print- oder Onlinemedium) die adäquate Schriftgröße wählen. 2.2.2 Barrierefreiheit Laut statistischem Bundesamt leben in Deutschland rund 7,6 Millionen Menschen mit einer Schwerbehinderung (Stand 31.12.2015) 15 . Nicht jeder Behinderte ist dabei auf z.B. barrierefrei gestaltete Internetseiten angewiesen. Aber auch vollkommen gesunde Menschen können eingeschränkt sein - beispielsweise durch eine zwischenzeitlich veraltete Hardwareausstattung (z.B. Web-Content via Smartphones). Barrierefrei gestaltete Web-Auftritte sind somit für eine Vielzahl von potentiellen Benutzern wichtig, zumal hier zudem viele Informationen in Form von Grafiken bzw. sonstigen Visualisierungsprodukten kommuniziert werden. Die ersten Richtlinien für ein barrierefreies Internet wurden bereits 1999 in den USA veröffentlicht und 2002 im Rahmen der Barrierefreien Informationstechnik-Verordnung (BITV 16 ) auch in Deutschland eingeführt. Definition: Barrierefreiheit bedeutet, dass Gegenstände, Medien und Einrichtungen so gestaltet werden, dass sie von jedem Menschen unabhängig von einer eventuell vorhandenen Behinderung uneingeschränkt benutzt werden können. 15 https: / / www.destatis.de/ DE/ Publikationen/ Thematisch/ Gesund heit/ BehinderteMenschen/ SozialSchwerbehinderteKB52271011590 04.pdf? __blob=publicationFile 16 https: / / www.gesetze-im-internet.de/ bitv_2_0/ BJNR184300011. html <?page no="47"?> 48 2 Computervisualistik Es existieren unterschiedliche Arten relevanter Einschränkungen sowie entsprechende Lösungskonzepte: Sehbehinderungen: Lösungskonzept: Texte können z.B. ausgelesen werden, ggf. Probleme bei Grafiken) Farbenfehlsichtigkeit: Lösungskonzept: z.B. Style-Switcher (Benutzer kann aus verschiedenen Text- und Hintergrundfarben wählen) Kognitive Einschränkungen wie unterdurchschnittliche Lernfähigkeit, Aufmerksamkeitsmangel, geringe Merkfähigkeit: Lösungskonzept: z.B. klare Strukturen auf Webseiten, Vermeidung komplexer Texte Menschen mit Sprachproblemen (bspw. Fremdsprache oder bildungsferne Nutzer): Lösungskonzept: z.B. Vermeidung komplexer Texte, Verwendung anschaulicher Grafiken Photosensible Epilepsie: (bei nicht barrierefreien Interfaces schlimmstenfalls mit gesundheitlichen Folgen für den Betrachter 17 , z.B. durch intermittierende rote Lichter oder bestimmte geometrische Muster); Lösungskonzept: keine Verwendung entsprechender Gestaltungselemente, Animationen und sonstiger Techniken mit entsprechend nachgewiesenen Effekten Alterserscheinungen (Silver Surfer): Leiden häufig unter verschiedenen der genannten Einschränkungen (nachlassende Sehkraft, Hörvermögen, Feinmotorik, Konzentrationsfähigkeit), Zusätzlich oft kognitive Einschränkungen im Umgang mit Computern (Computer & Internet als Neuland); Lösungskonzept: z.B. eindeutige und leicht verständliche Struktur sowie einfache Navigation nötig Veraltete EDV-Ausstattung wie z.B. geringe Bandbreite beim Internetzugang, veraltete Software, Fehlen neuer Technologien, veraltete Monitore geringer Auflösung etc.; Lösungs- 17 https: / / www.menschendie.de/ epilepsie/ gesundheit/ diagnose/ lichtempfindliche-epilepsie-3787 <?page no="48"?> 2.3 Der Visualisierungsprozess 49 konzept: z.B. Vermeidung von High-end-Lösungen für Standardnutzer. Unabhängig vom darstellenden Medium sollte bei einer Visualisierung deshalb immer auch die Nutzergruppe bzw. deren mögliche Wahrnehmungseinschränkungen analysiert und ggf. berücksichtigt werden. Insbesondere hinsichtlich der Farbwahl ist zu berücksichtigen, dass diese nicht von allen Menschen als gleich empfunden wird (z.B. Fehlfarbsichtigkeit). Da ca. 8,5% der Menschen in Deutschland an Farbenfehlsichtigkeiten 18 leiden, zeigt dies, insbesondere auch bei der Umrechnung in absolute Zahlen, dass hier keine zu vernachlässigende Nutzergruppe betroffen ist und Barrierefreiheit einen hohen Stellenwert besitzt. Dabei tritt Farbfehlsichtigkeit häufig bei einem kleinen Gesichtsfeld auf (echte Farbenblindheit ist sehr selten). Insbesondere bei der Bildschirmarbeit, bei der nur eine eingeschränkte Verwendung des Gesichtsfeldes stattfindet, stellt sich dieses Problem deshalb oft. Der Verzicht auf Farbanwendungen oder die Wahl passender Farbkombinationen kann hier ein Lösungsweg zum Erreichen einer barrierefreien Anwendung sein. 2.3 Der Visualisierungsprozess Der Visualisierungsprozess setzt sich in Anlehnung an 19 im Wesentlichen aus den nachfolgend skizzierten Phasen, von der Erfassung der Rohdaten bis hin zur eigentlichen Bilderzeugung, zusammen. 18 https: / / www.medizinius.de/ korperteile-korperregionen/ augen/ farbenblindheit/ 19 Schumann H. & W. Müller (2000): Visualisierung. Grundlagen und allgemeine Methoden. Springer Verlag Berlin Heidelberg <?page no="49"?> 50 2 Computervisualistik Abb. 14: Die Visualisierungspipeline Die Beschreibung der einzelnen Phasen wollen wir nachfolgend -neben einer allgemeinen Betrachtungauch konkret am Beispiel der Erstellung eines Klimadiagramms verdeutlichen. Allgemeine Betrachtung der einzelnen Phasen: Rohdaten: Sichtung und Beschaffung bzw. Erzeugung der Datenbasis, aus deren Inhalt eine Visualisierung abgeleitet werden soll. Dies können u.a. Messwerte, Bilddateien, geometrische Objekte, statistische Kennzahlen etc. sein. Datenaufbereitung: Hierzu gehören im weitesten Sinne alle Daten-zu-Daten-Abbildungen, wie z.B. das Vervollständigen der Datenreihen, Formatkonvertierungen, Bereinigen von Messwerten, Interpolationen, Filtern und Schwellwertoperationen, Berechnung charakteristischer Merkmale, Klassifizierung, Clustering etc. Mapping: Das anschließende Mapping stellt das Hauptproblem bei der Visualisierung dar. Hierbei muss eine geeignete Abbildung des Informationsgehaltes der Daten auf Geometrie und weitere visuelle Attribute (Position, Größe, Helligkeitswert, Textur, Farbe, Orientierung, Form) durchgeführt werden. Über diese visuellen Attribute können sowohl Qualitäten als auch Quantitäten codiert werden. <?page no="50"?> 2.3 Der Visualisierungsprozess 51 Rendering: Bei der abschließenden Bilderzeugung wird aus den aufbereiteten Daten schließlich ein Bild generiert. Hier können wir unterschiedliche Arten von Bildern erzeugen: realitätsnahe Bilder, abstrahierende Bilder, „mentale“ Bilder, Animationen etc. Anwendungsbeispiel: Erstellung eines Klimadiagramms Ein Klimadiagramm ist eine grafische Darstellungsform der klimatischen Verhältnisse an einem bestimmten Ort im Jahresverlauf. Beim häufig verwendeten Typ nach Heinrich Walter und Helmut Lieth 20 werden traditionell die durchschnittlichen (langfristigen) Monatstemperaturen (T) dem langfristigen Mittelwert der monatlichen Gesamtniederschläge (N) im Jahresverlauf gegenübergestellt (= hygrothermisch). Die Darstellung der Werte wird für die Temperatur durch eine rote Kurve und für die Niederschläge entweder mittels einer blauen Säule oder einer blauen Kurve vorgenommen. T wird in °C angegeben und N in Millimeter mm (entspricht Liter pro Quadratmeter). Die Maßstäbe für die Einheiten von T und N stehen im Verhältnis 1: 2 (d.h. 10°C sind auf derselben Höhe der y-Achse verzeichnet wie 20 mm N). [Der Vollständigkeit halber sei zum Klimadiagramm noch erwähnt, dass ab 100 mm Niederschlag N in der Regel so dargestellt wird, dass die Skala in diesem oberen Bereich auf ein Fünftel der Höhe abgeflacht wird (ein Schritt auf der y- Achse entspricht dann 100 mm N statt vorher 20 mm N; dies ist für unser Beispiel aufgrund der geringeren Monatsniederschläge aber nicht relevant)]. Rohdaten: Um ein Klima charakterisieren zu können, benötigen wir meteorologische Messreihen einer Region, die mehr als drei Dekaden überspannen. In unserem Fall bedienen wir uns 20 https: / / de.wikipedia.org/ wiki/ Klimadiagramm#Walter/ Lieth- Klimadiagramm_(hygrothermisch) <?page no="51"?> 52 2 Computervisualistik der Messreihen des Deutschen Wetterdienstes (DWD), der über sein Climate Data Centre einen freien Zugang zu vielen Klimadaten ermöglicht hat. 21 Die Messreihen wurden nach Messstation vorselektiert (Saarbrücken-Ensheim) und über den gesamten bisherigen Messzeitraum (1.1.1951-15.2.2018) als CSV-Datei (CSV = character separated values) exportiert (24.200 Datensätze). Datenaufbereitung: Neben der Eingrenzung der auszuwertenden und darzustellenden Daten auf den gewünschten Zeitraum (1.1.1951-31.12.2017) müssen in dieser Phase sowohl die mittleren Monatstemperaturen als auch die monatlichen Niederschläge berechnet werden. Dies kann z.B. unter Verwendung eines Statistikpaketes, einer Tabellenkalkulations-Software oder auch mittels eigener Auswerteroutinen erfolgen. Mapping: Da die Visualisierung von Klimadaten über Klimadiagramme weitestgehend standardisiert ist, brauchen wir uns hier lediglich an den Vorgaben zu orientieren. Die Temperaturangaben visualisieren wir in Form eines Verlaufsdiagramms, die Niederschläge als Säulendiagramm mit absoluten Niederschlagshöhen pro Monat. Die Skalierung der Achsen erfolgt wie oben beschrieben. Abb. 15: Klimadiagramm für Saarbrücken (Datengrundlage: Deutscher Wetterdienst) 21 https: / / www.dwd.de/ DE/ leistungen/ cdcftp/ cdcftp.html <?page no="52"?> 2.4 Hinweise zum Visualisierungsdesign 53 Rendering: Die Erzeugung des finalen Diagramm-Bildes übernimmt das eingesetzte Grafikpaket. Das Ergebnis unseres Beispiels ist in vorstehender Abbildung zu finden. 2.4 Hinweise zum Visualisierungsdesign Das Erzeugen expressiver visueller Repräsentationen abstrakter Daten ist ein in hohem Maße kreativer und iterativer Prozess, der von vielen Faktoren beeinflusst wird. Zur Abschätzung der Eignung des gewählten Visualisierungsverfahrens ist ein Blick auf das Ziel der Visualisierung, die Fähigkeiten und Vorlieben des Anwenders sowie der Anwendungsumgebung (z.B. Konventionen, Metaphern, Normen), aber auch auf die technische Umgebung, in der die Visualisierung präsentiert wird (z.B. Smartphone, Beamer, Printmedium) sehr hilfreich. Neben allgemeinen Regeln ergeben sich aus dem jeweiligen Anwendungsfeld spezielle Anforderungen bzw. Erwartungen des Betrachters. Zwei wesentliche Grundprinzipien sollten jedoch immer beachtet werden: Beschränkung der Darstellung auf Information die erforderlich ist bzw. erwartet wird, sowie nur in der Genauigkeit, wie es zur Lösung der Aufgabe erforderlich ist. Vermeidung einer Überladung (Overfeaturing) der Grafik, um den gewünschten Informationstransport zum Betrachter nicht zu beeinträchtigen. Das Zitat von Jacques Bertin (1967) „A Graphic is not drawn once and for all“ 22 fasst in kompakter Weise das Grundproblem des Visualisierungsdesigns zusammen. 22 Bertin, Jaques (1981): Graphics and graphic information-processing. De Gruyter, Berlin New York <?page no="53"?> 54 2 Computervisualistik 2.5 Literatur Schumann H. & W. Müller (2000): Visualisierung. Grundlagen und allgemeine Methoden. Springer Verlag Berlin Heidelberg Goldstein, E. Bruce (2015): Wahrnehmungspsychologie. Der Grundkurs. 9. Auflage, Springer Berlin heidelberg Bertin, Jaques (1981): Graphics and graphic information-processing. De Gruyter, Berlin New York Lankau Ralf (2007): Lehrbuch Mediengestaltung. Grundlagen der Kommunikation und Visualisierung. dpunkt.verlag Heidelberg <?page no="54"?> 3 Diagrammtechniken Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie einen Überblick über die Vielfalt und Verschiedenheit verfügbarer Diagrammtypen besitzen, die Erkenntnis haben, dass nicht jeder Diagrammtyp in jedem Kontext einsetzbar ist, d.h. dass Voraussetzungen zum Einsatz bestimmter Diagrammtypen erforderlich sind, Ideen zum Design spezifischer Diagramme, Piktogramme oder auch Infografiken entwickeln können. Definition: „Ein Diagramm (v. griech.: diagramma = geometrische Figur, Umriss) ist allgemein eine grafische Darstellung von Daten, Sachverhalten oder Informationen. Je nach der Zielsetzung des Diagramms werden höchst unterschiedliche Typen eingesetzt. Die Bandbreite von bildhaften Elementen bis zu rein abstrakten Gebilden ist dabei sehr groß.“ 23 Betrachten wir die Diagrammtechniken genauer, so verlangt das Arbeitsfeld des Wissenschaftlers insbesondere die Erstellung von Business-Charts sowie Kompetenzen in der Visualisierung von zum Teil hochkomplexen Datensätzen. 23 https: / / de.wikipedia.org/ wiki/ Diagramm <?page no="55"?> 56 3 Diagrammtechniken Unabhängig von der Vielfalt der zur Verfügung stehenden Diagrammtechniken gilt für jede Visualisierung das Gebot der Lesbarkeit als oberste Maxime. Um diese zu gewährleisten, müssen Diagramme - neben dem darzustellenden Datenbereich - zumindest auch einen aussagekräftigen Titel, eine Legende sowie Achsenbeschriftungen enthalten. Es existieren eine hohe Vielfalt an verschiedenen Diagrammtypen, die in Abhängigkeit von den zugrundliegenden Daten (z.B. Punkt-, Linien-, Flächendaten, Dimensionalität etc.) und Fragestellungen gewählt werden können. Um den Rahmen der vorliegenden Publikation nicht zu sprengen, sind nachfolgend nur einige wenige Beispiele genannt, die auch mit Standardsoftwaresystemen wie z.B. Tabellenkalkulationssoftware oder Statistikpaketen realisiert werden können. Einen sehr guten und umfassenden Überblick zu verfügbaren Diagrammtechniken finden sie bei Harris 24 . 3.1 Business-Charts Verteilungsdiagramm: Wenn Daten als Anteile eines Ganzen (= 100%) präsentiert werden, so wählt man den Typ Kreisdiagramm oder (gestapeltes) Säulendiagramm. Bei einem drohenden Verlust der Übersichtlichkeit ist alternativ auch ein Kreis-in-Kreis-Diagramm wählbar. Eine Alternative zum Kreisdiagramm bildet dabei das Ringdiagramm, das ähnlich aussieht und ebenso interpretiert wird. Mehrere Messreihen lassen sich dabei gleichzeitig darstellen, indem man Kreise umeinander legt. Eine einfache Lesbarkeit ist hierbei oftmals jedoch nicht gegeben. 24 Harris, Robert L. (1999): Information Graphics. A Comprehensive Illustrated Reference. Oxford University Press, Oxford <?page no="56"?> 3.1 Business-Charts 57 Verlaufsdiagramm: Ist eine Variable gegeben, die sich z.B. im Verlauf der Zeit kontinuierlich ändert (z.B. Temperatur, Windstärke, Energieproduktion), so sind Verlaufsdiagramme die geeignete Wahl der Darstellung. Welcher Typ jeweils angewendet wird, hängt wiederum von der Art der Daten ab, die visualisiert werden sollen. Liegen Daten vor, die sich stetig verhalten (z.B. Temperatur), so kann auch linear (Liniendiagramm) oder polynomial (interpoliertes Punktediagramm) interpoliert werden, ohne die Messreihe ad absurdum zu führen. Wenn es sich bei den Daten zusätzlich noch um eine Stoffmenge handelt (z.B. Wasser beim Wasserstand), so stellen Flächendiagramme einen geeigneten Diagrammtypus dar. Bei Daten, die dazu neigen, große Sprünge aufzuweisen (z.B. Niederschlag im Verlauf), ist der Einsatz eines Punkte- oder Balkendiagramms angebracht. Sind hingegen Daten gegeben, die sich abhängig von zwei Variablen verändern, sind zweidimensionale Diagramme nicht mehr ausreichend. In diesem Fall ist das Oberflächendiagramm wählbar: Es präsentiert die Daten dreidimensional (zwei Verlaufsachsen und eine Ausprägungsachse). Verteilung im Verlauf: Oft sollen Verteilungen auch im Verlauf dargestellt werden. Geeignet hierfür ist z.B. das gestapelte Balkendiagramm, da innerhalb der Balken die Verteilung dargestellt werden kann. Auch animierte Diagramme können die Verteilung im Verlauf sehr anschaulich darstellen. Bereichs-Diagramm: Ein Bereichsdiagramm ist eine besondere Ausprägung des Flächendiagramms. Es zeigt eine Menge von Datenpunkten an, die jeweils durch mehrere Werte für dieselbe Kategorie definiert sind. Bereichsdiagramme werden häufig zur Darstellung von Daten verwendet, die Mindest- und Höchstwerte für jede Kategorie im Datenset enthalten. <?page no="57"?> 58 3 Diagrammtechniken Abb. 16: Spannweite der Einstiegsgehälter verschiedener Berufsgruppen dargestellt mittels Bereichsdiagramm (Datengrundlage: fiktiv) Netz-Diagramm: In einem Netzdiagramm oder auch Sterndiagramm werden die Werte von mehreren, gleichwertigen Kategorien in einer Spinnennetzform dargestellt. Es besteht aus mehreren Achsen, wobei jede Achse verschiedene oder aber die gleiche Skala besitzen kann. Die Daten werden dabei auf die jeweilige Achse geplottet und meistens mit Linien verbunden, sodass sich charakteristische Polygone bilden. Diese Technik eignet sich z.B. zur Visualisierung einer Parameterausprägung bei unterschiedlichen Messreihen (z.B. jahreszeitliche Verteilung von Niederschlägen verschiedener Regionen), aber auch zur Darstellung von Richtungsinformation (z.B. Windrichtungen an verschiedenen Standorten). <?page no="58"?> 3.1 Business-Charts 59 Abb. 17: Jahreszeitliche Niederschlagsverteilung ausgewählter Städte Box- & Whisker-Plot: Der Boxplot ist ein Diagrammtyp, der zur grafischen Darstellung der Verteilung eines mindestens ordinalskalierten Merkmals verwendet wird. Es fasst dabei verschiedene Streuungs- und Lagemaße in einer Darstellung zusammen, ohne dabei Annahmen über die zugrundeliegende Verteilungsfunktion zu machen. Box- & Whisker- Plots sind eine zentrale Visualisierungstechnik der deskriptiven Statistik. Ein Boxplot besteht dabei immer aus einem Rechteck, der sogenannten Box, welche sich z.B. vom unteren bis zum oberen Quartil der zugrundeliegenden Werte erstreckt (Maß für die Streuung der Werte), und zwei Linien, die dieses Rechteck verlängern. Letztere zeigen die außerhalb der Box liegenden Werte an. Zusätzlich zeigt ein Strich innerhalb der Box noch ein Lokationsmaß (z.B. arithmetisches Mittel oder Median), wobei die Position des selbigen innerhalb der Box auch Rückschlüsse auf die zugrundeliegende Verteilung der Daten zulässt. <?page no="59"?> 60 3 Diagrammtechniken Abb. 18: Box- & Whiskerplot zur deskriptiven Darstellung der Variabilität von Niederschlägen Neben den „klassischen“ Business-Charts existieren eine Vielzahl weiterer Diagrammtypen für die verschiedensten Anwendungsbereiche, wie z.B. Gantt-Charts im Projektmanagement, Mind Maps zur Erschließung von Themengebieten im z.B. Rahmen des Brainstormings, Risk Maps uvm. Abb. 19: Beispiel eines Gantt-Charts <?page no="60"?> 3.2 Piktogramme 61 3.2 Piktogramme Piktogramme oder Piktografiken verwenden Bilder, Symbole, Icons etc. anstelle bzw. zusätzlich zu den Standard-Grafikelementen. So können bspw. Säulen durch skalierbare Bilder oder durch eine symbolhafte Darstellung der Objekte, die darzustellen sind, ersetzt werden. Piktografiken werden häufig in Printmedien oder auch Präsentationen eingesetzt und bilden eine Vorstufe bzw. den Übergang zu den nachfolgend vorgestellten Infografiken. Die Vorteile der Verwendung von Piktogrammen liegen insbesondere in einer erhöhten Attraktivität der Grafik für den Betrachter sowie in einer verständlichen Kommunikation von Sachverhalten für einen großen Personenkreis, unabhängig von Sprachbarrieren, kulturellem Hintergrund und Bildungsstand. Abb. 20: Beispiel eines Piktogramms <?page no="61"?> 62 3 Diagrammtechniken Zur Darstellung der Attributausprägung (z.B. Stromverbrauch als Säulendiagramm) können die gewählten Bilder in Form von (mehreren) gestapelten Symbolen oder aber als (ein) skaliertes Symbol verwendet werden. In Abhängigkeit von Motiv und der Datenlage kann letztgenannte Variante aber zu stark verzerrten und dadurch ungeeigneten Darstellungen führen. 3.3 Infografiken Eine Infografik oder Informationsgrafik ist eine journalistische Darstellungsform, die Informationen visuell ansprechend aufbereitet, vornehmlich für Printmedien sowie für z.B. Nachrichtenproduktionen im Fernsehen. Ziel ist das Erreichen einer möglichst anschaulichen Vermittlung von Fakten für einen weit gefassten Nutzerkreis. Infografiken werden meist mit Vektorgrafikprogrammen erstellt, wobei häufig Hintergrundbilder zur Aufwertung der Darstellung, aber auch zusätzlich Piktogramme verwendet werden. Zur Erstellung von Infografiken existiert mittlerweile eine Fülle an Softwarewerkzeugen und Web-Diensten wie z.B. Infogram, Piktochart, Visme oder Easelly. Eine Übersicht zu den entsprechenden Tools findet sich z.B. bei 25 . 25 https: / / t3n.de/ news/ infografiken-selbst-erstellen-102-443392/ <?page no="62"?> 3.4 Literatur 63 Abb. 21: Beispiel einer einfachen Infografik 3.4 Literatur Harris, Robert L. (1999): Information Graphics. A Comprehensive Illustrated Reference. Oxford University Press, Oxford Heber, Raimar (2016): Infografik: Gute Geschichten erzählen mit komplexen Daten: Fakten und Zahlen spannend präsentieren! Rheinwerk Verlag GmbH, Bonn Ward M., G. Grinstein & D. Keim (2010): Interactive Data Visualisation. Foundations, Techniques, and Applications. A K Peters, Natik <?page no="64"?> 4 Geovisualisierung und Kartographie Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie die Eigenschaften von Geodaten beschreiben können, grundlegende Kenntnisse auf dem Gebiet der Visualisierung raumbezogener Daten mittels Kartenwerken besitzen, wesentliche Inhalte eines Kartenwerks benennen können, Grundsätze einer guten Kartengrafik kennen. Raumbezogene Information wird in idealer Weise in Form von Kartenwerken kommuniziert. Die Vielfalt an (karto)graphischen Gestaltungsmitteln wie z.B. Schrift, Punkte, Linien, Flächen, Symbole etc. erfordert dabei zwingend die Beachtung kartographischer Regeln, die trotz der hohen Informationsdichte in Kartenwerken eine gute Lesbarkeit ermöglichen sollen. Während bis vor wenigen Jahren die Erstellung von Kartenwerken nur den Spezialisten vorbehalten blieb, haben sich heute durch die allgemeine Verfügbarkeit von Geodaten und Kartensoftware die Grenzen zwischen Kartennutzern und -produzenten aufgelöst. Auch der häufig verwendete Begriff „Geovisualisierung“ weist auf die Weiterentwicklung der klassischen Kartographie hin. Die Kartographie als früher eigenständige Wissenschaftsdisziplin befasst sich mit dem Erfassen, Aufbereiten, Speichern, Bewerten und der kartographischen Darstellung von raumbezogenen Informationen. <?page no="65"?> 66 4 Geovisualisierung und Kartographie Grundsätzlich unterscheiden wir zwischen zwei Typen von Kartenwerken: topographische Karten: sie dienen in erster Linie der Orientierung im Raum sowie der räumlich-korrekten Verortung von Standorten, und angewandte, thematische Karten: diese dienen der Darstellung von statistischen Werten, von Einzelbeobachtungen, von komplexen Tatbeständen, begrifflichen Verallgemeinerungen sowie geistigen Auffassungen. Sie zeigen das Wissen, die Meinung und die Absicht des Autors. Durch die weite Verfügbarkeit von GIS-Technologien (GIS = Geographisches Informationssystem) sowie von Kartographie- Software ist die Erstellung ansprechender Kartenwerke nicht mehr einem kleinen Zirkel von Kartographen und Geographen vorbehalten, sondern Allgemeingut geworden. Definition: Ein Geoinformationssytem (GIS) ist ein Informationssystem, mit dem „raumbezogene Daten digital erfasst und redigiert, gespeichert und reorganisiert, modelliert und analysiert sowie alphanumerisch und graphisch präsentiert werden.“ 26 Neben dem Begriff der Kartographie hat sich mittlerweile das Forschungsgebiet sowie der Begriff der „Geovisualisierung“ etabliert, der das Verständnis der klassischen „Karte“ weitergehend fassen will und benachbarte Disziplinen wie z.B. Erdbeobachtung, Visualisierung und GeoInformationssysteme (GIS) mit berücksichtigt 27 . Eine zeitgemäße Visualisierung raumbezo- 26 Bill, Ralf (1994): Grundlagen der Geoinformationssysteme. Wichmann Verlag, Heidelberg 27 MacEachren A.M. & Kraak M.-J. (2001): Research Challanges in Geovizualisation. In: Cartography and Geographic Information Science, 28 (1) <?page no="66"?> 4.1 Geodaten 67 gener Information erfolgt in der Regel unter Verwendung von sogenannten digitalen Geodaten. 4.1 Geodaten Geodaten beschreiben raumbezogene Informationseinheiten bzw. topographische Objekte mit konkretem Bezug zur Erdoberfläche. Sie setzen sich zusammen aus: Geometriedaten: Beschreiben die räumliche Lage sowie die Form punkt-, linien- oder flächenhafter Informationsobjekte. Die Geometriedaten können dabei sowohl als Raster- (z.B. Luft-, Satellitenbilder) als auch als Vektordaten (z.B. Topografie) vorliegen Sachdaten (synonym: Attribute, thematische Daten): Repräsentieren sämtliche nichtgeometrische Eigenschaften; sie sind Träger der eigentlichen Fachinformation z.B. Bauwerkstyp, Landnutzung, Messwerte. Geodaten werden i.d.R. mit Hilfe von Geographischen Informationssystemen (GIS) modelliert, ausgewertet und visualisiert. Bekannte Softwaresysteme sind Produkte wie z.B. ArcGIS (ESRI), MapInfo oder auch QGIS (Open Source Projekt). Abb. 22: Verknüpfung von geometrischer und fachbezogener Information bei Geodaten <?page no="67"?> 68 4 Geovisualisierung und Kartographie Es existiert eine Vielzahl von Anbietern für Geodaten. Hier sind - was nationale Daten betrifft - an erster Stelle die Informationssysteme der Arbeitsgemeinschaft der Vermessungsverwaltungen in Deutschland (AdV 28 ) zu nennen. Diese stellen die sogenannten amtlichen Geobasisdaten bereit. Für den Anwendungsbereich des Raumwissenschaftlers bzw. Kartographen relevante Systeme sind dabei das Amtliche Topographisch-Kartographische Informationssystem (ATKIS): es stellt topographische und kartographische Informationen der Bundesrepublik Deutschland digital bereit. Hierzu zählen die objektstrukturierten digitalen Landschaftsmodelle, die digitalen Geländemodelle, Topographische Karten sowie Orthophotos (geometrisch korrigierte Luftbilder) das Amtliche Liegenschafts-Kataster-Informations-System (ALKIS): dieses ersetzt in Deutschland die Automatisierte Liegenschaftskarte und das Automatisierte Liegenschaftsbuch, indem es diese Informationen in einem System vereint. Wie der Name schon sagt, werden hier liegenschaftsbezogene Informationen (z.B. Parzellengrenzen, Gebäudegrundrisse etc.) vorgehalten. Dabei zeichnen sich die qualitätsgesicherten amtlichen Geodaten insbesondere durch eine hohe geometrische sowie semantische Genauigkeit aus. Weitere Anbieter von georeferenzierten Daten, die für die Erstellung von Kartenwerken verwendet werden können, sind z.B. die Industrie (z.B. GoogleMaps, ESRI, Telekom, Logistikunternehmen, Energieversorger, Marktforschungsunternehmen etc.), aber auch freie Quellen im Internet wie z.B. OpenStreetMap (OSM), UNEP etc. Anwendungsbeispiele für das analytische Arbeiten mit Geodaten finden sich z.B. in der Standortplanung, der Dokumenta- 28 http: / / www.adv-online.de/ Startseite/ <?page no="68"?> 4.2 Kartographische Grundlagen 69 tion und dem Management von Ver- und Entsorgungsinfrastrukturen (Leitungskataster), Sichtbarkeitsanalysen oder der Modellierung von Raum-Zeit-Phänomena, um nur einige wenige zu benennen. Unabhängig vom Anwendungsfall ist allen Anwendungen jedoch gemeinsam, dass als Kommunikationsprodukt für Sachverhalte (z.B. Ergebnisse von Raumanalysen, die Visualisierung der räumlichen Verteilung statistischer Werte etc.) ein thematisches Kartenwerk dient. Beim Entwurf solcher Kartenwerke bzw. Geovisualisierungen sind einige kartographische Regeln zu beachten, die nachfolgend skizziert werden. 4.2 Kartographische Grundlagen Ziel jeglicher Visualisierung raumbezogener Daten ist der Entwurf einer geeigneten Kartengraphik als Summe der verfügbaren grafischen Gestaltungsmöglichkeiten. Übergeordnetes Ziel im Kartendesign ist - analog der Ziele bei der Diagrammerstellung - die Realisierung einer effizienten, leicht verständlichen Kommunikation von raumbezogenen Sachverhalten. Hierbei sind - neben der Wahl eines geeigneten Maßstabs sowie einer geeigneten Projektion - die Auswahl und Integration der Kartenelemente in Abhängigkeit von ihrer Bedeutung relevant. Hierbei können wir auf eine Vielzahl an kartographischen Zeichen und Elementen (z.B. Punkt, Linie, Fläche, Schrift, Symbole etc.) sowie deren Variationsmöglichkeiten (z.B. Größe, Form, Farbe, Füllmuster etc.) zur Visualisierung qualitativer und quantitativer Daten zurückgreifen. Einen guten Überblick über die Vielfalt kartographischer Zeichen findet sich unter anderem bei Hake et al. Unabhängig von den vielfältigen Gestaltungsmöglichkeiten sollen Kartenwerke folgende Elemente aufweisen: Kartentitel: Beschreibt das Thema, den abgebildeten geographischen Bereich sowie den Maßstab <?page no="69"?> 70 4 Geovisualisierung und Kartographie Karteninhalt: Enthält die Summe aller kartographischen Gestaltungselemente als Hauptkarte, z.T. existieren auch Nebenkarten (z.B. Mini-Maps als Übersichtskarte) Kartenrandangaben: Hier finden sich Angaben zum Maßstab, eine Maßstabsleiste (reproduktionstechnisch wichtiger als die zahlenmäßige Maßstabsangabe), Nordpfeil, Angaben zum Autor sowie zum Zeitpunkt der Herausgabe bzw. Zeitbezug der Datenquelle sowie die Legende (Zeichenerklärungen) Kartennetz: Bei topographischen Karten sowie weiteren Kartenwerken die vorwiegend zur Orientierung im Gelände verwendet werden finden sich häufig auch Netzlinien oder Schnittkreuze, welche die geographische bzw. geodätische Lage der Punkte in einem definierten Raumbezugssystem beschreiben. Abb. 23: Formale und inhaltliche Bestandteile von Karten nach Hake 29 29 Hake G., Grünreich D. & Meng L. (2002): Kartographie: Visualisierung raum-zeitlicher Informationen (8. Auflage). De Gruyter Verlag, Berlin <?page no="70"?> 4.2 Kartographische Grundlagen 71 4.2.1 Grundsätze guter Kartengraphik Da Karten in erster Linie ein Kommunikationsmittel zum Transport raumbezogener Informationen zum Betrachter darstellen, müssen wir bei der graphischen Ausgestaltung ein paar grundlegende Regeln beachten: Generell gilt, dass gleiche Merkmalsausprägungen gleich, ähnliche Ausprägungen ähnlich, und verschiedene Sachverhalte auch unterschiedlich dargestellt werden sollten. Dabei muss die graphische Differenzierung der Merkmalsausprägungen eine gute Lesbarkeit gewährleisten. Es wird empfohlen, mit Signaturen zu arbeiten, die auch im Falle einer schwarzweißen Reproduktion ihre Aussagekraft nicht verlieren. Weiterhin sollten optische Täuschungen vermieden werden. Zum Beispiel erscheint ein gleicher Farbwert in dunkler Umgebung heller als in heller Umgebung. Abb. 24: Beispiel einer thematischen Karte <?page no="71"?> 72 4 Geovisualisierung und Kartographie Essentiell ist auch, dass die Erwartungen des Nutzers oder Betrachters berücksichtigt werden. Dies betrifft erwartete Farben bei der Darstellung von z.B. Siedlungs- und Landschaftselementen (z.B. Wald: grün, Wasser: blau, etc.) oder die in Deutschland übliche Nordausrichtung von Kartendarstellungen. Weitere wichtige kartographische Techniken, deren detaillierte Besprechung an dieser Stelle aber zu weit führen würde, sind die Generalisierung (Prozess zur Reduzierung des Informationsgehaltes kartographischer Information in Abhängigkeit von Maßstabsänderungen) sowie Klassifizierungsverfahren. Hierzu sei auf die weiterführende Literatur verwiesen. 4.3 Kartogramme Kartogramme sind eine besondere Ausprägung thematischer Karten, in denen quantitative oder qualitative Aussagen auf einer festgelegten Bezugsfläche dargestellt werden. So können bspw. eine einfache Einfärbung oder Texturwahl, aber auch komplexere Kreisdiagramme die Ausprägung bestimmter Parameter in einer zugrundeliegenden Raumeinheit angeben (z.B. länderbezogene Arbeitslosenquote). Die jeweilige Angabe gilt für das zugehörige Objekt (z.B. Flussabschnitt, Verwaltungseinheit, Stadt), ohne die ggf. vorhandenen internen Variationen zu beachten. Häufig werden objektbezogene statistische Angaben als Kartogramm dargestellt. Die überwiegende Zahl kartographischer Darstellungen sozioökonomischer Daten erfolgt dabei in Form von Bezugsflächenkarten. Die Farbabstufungen symbolisieren darin z.B. klassifizierte statistische Werte. Solche Karten bedienen sich in der Regel einer flächentreuen Kartengrundlage. Tatsächlich beziehen sich die Inhalte häufig jedoch nicht auf die Fläche, sondern auf die dort lebende Bevölkerung oder Teilmengen davon. Als eine interessante Alternative bietet sich daher die Darstellung der Bezugsflächen proportional zu ihrer Einwohnerzahl an. <?page no="72"?> 4.3 Kartogramme 73 Mit dem Begriff Kartogramm (kartographische Anamorphose) werden mittlerweile in der Regel absichtlich verzerrte Karten bezeichnet, deren räumliche Eigenschaften nicht direkt mit der Lage auf der Erdoberfläche, sondern mit dem Wert einer thematischen Variablen zusammenhängen 30 . Es existieren unterschiedliche Typen von Kartogrammen (nicht zusammenhängende, zusammenhängende und Dorling-Kartogramme), von denen jedes eine sehr unterschiedliche Art aufweist, Attribute von geographischen Objekten anzuzeigen. 4.3.1 Nicht-zusammenhängende Kartogramme Ein nicht-zusammenhängendes Kartogramm ist die einfachste Art eines Kartogramms. Hier müssen die geografischen Objekte keine Verbindung mit ihren benachbarten Objekten aufrechterhalten. Indem die Objekte von ihren benachbarten Objekten befreit werden, können sie in ihrer Größe wachsen oder schrumpfen und behalten immer noch ihre Form. Wenn der Schwerpunkt des Objekts beibehalten bleibt (ein Schwerpunkt ist der gewichtete Mittelpunkt eines Bereichsobjekts, d.h. die Mitte des Objekts verbleit am selben Ort), beginnen sich jedoch einige der Objekte zu überlappen, wenn die Objekte abhängig von der Attributausprägung wachsen. Im nicht-zusammenhängenden Kartogramm schrumpfen die Objekte nicht nur oder wachsen, sondern sie können sich auch in die eine oder andere Richtung bewegen, um eine Überlappung mit einem anderen Objekt zu vermeiden (Objektmittelpunkt wird entsprechend zu verschoben). Obwohl dies eine gewisse Abstandsverzerrung verursacht werden die dargestellten Größen der Objekte besser gesehen und können leichter als ein Attributwert interpretiert werden. 30 Burgdorf Markus, Verzerrungen von Raum und Wirklichkeit in der Bevölkerungskarographie; http: / / www.bbsr.bund.de/ BBSR/ DE/ Raumbeobachtung/ Ueber Raumbeobachtung/ Visualisierung/ Kartogramme/ VerzerrungenBev Geo.pdf? __blob=publicationFile&v=2 <?page no="73"?> 74 4 Geovisualisierung und Kartographie 4.3.2 Zusammenhängende Kartogramme In einem zusammenhängenden Kartogramm wird im Gegenteil zum vorher besprochenen Kartogramm-Typ die Topologie beibehalten (die Objekte bleiben miteinander verbunden), was häufig zu einer starken Verzerrung der Form führt. Dies führt zu einem schwierigen, aber faszinierenden Problem beim Erstellen von Kartogrammen. Der Kartograf muss zur Darstellung der Attributwerte hierbei den Objekten eine geeignete Größe geben, aber er muss auch die Form der Objekte so gut wie möglich beibehalten, damit das Kartogramm leicht interpretiert werden kann. Abb. 25: Flächenproportionale (links) bzw. bevölkerungsproportionale Darstellung der Arbeitslosenquote in den verschiedenen Bundesländern 4.3.3 Dorling-Kartogramm Dieser Kartogramm-Typ wurde nach seinem Erfinder Danny Dorling von der Universität Leeds benannt. Es erhält weder Form, noch Topologie noch Objektschwerpunkte. Um ein Dorling-Kartogramm zu erstellen, ersetzt der Kartograf die zu visualisierenden Objektgeometrien durch eine einheitliche Form, z.B. einen Kreis, der entsprechenden Größe. Die Formen <?page no="74"?> 4.4 Extrudierte Karten 75 werden frei bewegt (jedoch nur zur kürzesten Entfernung von ihren wahren Orten/ Positionen im Raum), sodass die volle Fläche jeder Form sichtbar ist. Die Größe der Form repräsentiert die Ausprägung des darzustellenden Attributes. Ein anderes Dorling-ähnliches Kartogramm ist das Demers Cartogram, welches Quadrate statt Kreise verwendet. Dies lässt weniger Lücken zwischen den Formen. Zudem wird hier oft die Distanz geopfert, um die Kontiguität zwischen Figuren aufrecht- und um bestimmte visuelle Hinweise beizubehalten. 4.4 Extrudierte Karten Extrusion bezeichnet in der Geometrie eine Dimensionserhöhung eines Elementes durch Parallelverschiebung im Raum. Durch Extrusion bspw. einer Fläche erhält man einen Körper mit dem Querschnitt der Fläche. Das Verfahren der Extrusion wird auch in der Kartographie zunehmend eingesetzt, um die Ausprägung selektierter Attribute ansprechend zu visualisieren. Hierbei wird analog den Kartogrammen ein Attributwert einem geometrischen Objekt (z.B. Verwaltungsgrenze) zugeordnet. Die Ausprägung des Attributwertes wird dabei als Extrusionshöhe verwendet. Durch die Kombination von Basishöhen und Extrusion können ansprechende 3D-Ansichten erstellt werden, ohne dass 3D- Eigenschaften der Objekte dafür erforderlich sind (dreidimensionale Symbologie aus zweidimensionalen Features). Alle grundlegenden Geometrietypen wie Punkte, Linien und Polygone können dabei extrudiert werden, wie nachfolgende Beispiele zeigen: Punkte: z.B. Darstellung von Städten als Punktobjekte, wobei die Bevölkerungszahl als Attribut zur Bestimmung der Extrusionshöhe gewählt wird. Linien: Linien-Objekte werden vertikal zu Wänden extrudiert. Somit können z.B. wichtige Grenzen in 3D umrandet <?page no="75"?> 76 4 Geovisualisierung und Kartographie werden, um vertikale Wände darzustellen, z. B. Flugsperrzonen und Versorgungsleitungen Polygone: Die Polygonextrusion ist die am häufigsten eingesetzte Variante der Erstellung extrudierter Karten. Sie kommt oft bei der Konvertierung von Gebäudeumrissen in 3D- Gebäude zum Einsatz. Sie kann jedoch auch zum Darstellen von repräsentativen Werten, z. B. von regionalen Immobilienpreisen, Bevölkerungsdichten oder sonstigen statistischen Werten verwendet werden. Abb. 26: Kartendarstellung mit extrudierten Geometrien der Landkreise bzw. kreisfreien Städte in Deutschland <?page no="76"?> 4.5 Literatur 77 Die obige Kartendarstellung zeigt den prozentualen Anteil an Einpersonenhaushalten bezogen auf die Verwaltungseinheit Landkreis bzw. kreisfreie Stadt im Jahre 2016. Je höher die Geometrie, desto mehr Einpersonenhaushalte existieren (Datenquelle: Statistisches Bundesamt 31 ). Zusätzlich zu der Höhe der Geometrie der Verwaltungsgrenzen wurde der Farbtonwert in Abhängigkeit von der Anzahl der Einpersonenhaushalte unterschiedlich gewählt. Dies unterstreicht zusätzlich die regionalen Unterschiede in der Werteausprägung. Das Auslesen von absoluten Zahlenwerten zur Situation der Einpersonenhaushalte ist in diesem Kartenbeispiel nicht möglich, da die Ausgangsdaten zum Erreichen einer geeigneten Darstellungsgeometrie vorab bearbeitet wurden. 4.5 Literatur Dent Borden D., Jeff Torguson & Thomas W. Hodler (2009): Cartography: Thematic Map Design 6th Edition. McGraw-Hill Companies, NewYork Hake G., Grünreich D. & Meng L. (2002): Kartographie: Visualisierung raum-zeitlicher Informationen (8. Auflage). De Gruyter Verlag, Berlin Olbrich G., Quick M. & Schweikart J. (2002): Desktop Mapping: Grundlagen und Praxis in Kartographie und GIS. Springer Verlag, Berlin Ruff, Ariane (2013): Geovisualisierung und thematische Kartographie. In: Fischer-Stabel, P. (Hrsg.): Umweltinformationssysteme - Grundlegende Konzepte und Anwendungen. Wichmann Verlag Berlin und Offenbach 31 https: / / www.destatis.de/ DE/ Startseite.html <?page no="78"?> 5 Generative Computergrafik Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie zentrale Einsatzbereiche der generativen Computergrafik kennen, einen Überblick über die verschiedenen geometrischen Modellierungsmethoden haben, die Komplexität der Erstellung realitätsnaher 3D- Szenen einschätzen können, Möglichkeiten und Grenzen der Erstellung realitätsnaher Computergrafiken kennen, sowie wesentliche Schritte bei der Erstellung von 3D- Stadtmodellen benennen können (Anwendungsbeispiel). Die generative Computergrafik befasst sich unter anderem mit computergestützter Visualisierung numerischer Daten für beliebige Objekte (z.B. der in den vorhergehenden Kapiteln besprochenen Diagrammtechnik, der Erstellung von Kartenwerken etc.). Dabei werden umfangreiche numerische Datenbestände (z.B. aus Datenbanken, Messnetzen) mit Hilfe grafischer Darstellungsmethoden (z.B. Bilder, Diagramme, Zeichnungen) so dargestellt, dass die in den Dateien enthaltenen Informationen in Form von künstlich erzeugten Bildern für den Anwender rasch erkennbar sind. Dabei können einzelne Objekte (Segmente) leicht transformiert werden (Skalierung, Translation etc.). Die grafische Darstellung muss dabei so konzipiert sein, dass die hinter den numerischen Daten stehenden Informationen in der Grafik spontan wahrgenommen und im gewünschten (richtigen) Sinne verstanden werden (visuelle Perzeption; Erfassung <?page no="79"?> 80 5 Generative Computergrafik des relevanten Sachverhalts mit einem Blick). Beispiele hierfür sind SVG-Elemente, CAD-Objekte, Geo-Daten (GIS), Zeichnungen, Business-Charts etc. Auf dem Gebiet der generativen Computergrafik können im Rahmen der 2Dbzw. 3D-Modellierung aber auch Objekte erstellt, im Raum platziert und bei Bedarf auch animiert werden. Eine Menge von 3D-Objekten, welche so in einem gedachten Würfel platziert sind, nennen wir dabei Szene. Deren 2D- Darstellung am Monitor zeigt dabei diese Szene, wie sie ein Betrachter von einem bestimmten Punkt aus wahrnehmen kann (z.B. Perspektivprojektion). 5.1 Geometrische Modellierung Sowohl in der Computergraphik als auch am Arbeitsplatz des Ingenieurs oder Wissenschaftlers spielt die 3D-Modellierung mittlerweile eine bedeutende Rolle. Hierbei werden Objekte rechnerintern erzeugt und mithilfe weiterer Techniken (z.B. Beleuchtungs- und Reflexionsmodell, Textur) möglichst realitätsnah repräsentiert. Diese Vorgehensweise ermöglicht die Betrachtung von Objekten aus beliebigen Blickwinkeln, ohne dass sich die Repräsentation der Objekte ändert. Grundsätzlich wird hierbei per Rendering 32 eine 3D-Szene dargestellt (bzw. ein Bild einer solchen 3D-Szene). Die zentrale Frage hierbei lautet: Wie erfolgt die Beschreibung der Szene? In der virtuellen Welt werden Objekte als Abbild realer Objekte wie Architektur, Objekte des täglichen Lebens, Maschinen etc. nachgebildet. Dabei besitzen diese Objekte bestimmte Oberflächeneigenschaften (z.B. eben, uneben), Volumenobjekte eine innere Struktur, realitätsnahe Objekte wie z.B. Wolken besitzen Fraktale (= natürliche/ künstliche/ geometrische Muster) etc. 32 Rendering bedeutet das Erzeugen eines Bildes aus einem Modell, Rohdaten etc. mithilfe eines Rechners (Bildsynthese) <?page no="80"?> 5.1 Geometrische Modellierung 81 Definition Geometrische Modellierung: Vorgang als auch Methoden und geeignete Strukturen zur Beschreibung der Form und der Position geometrischer Objekte in Computeranwendungen. Die Beschreibung einer 3D-Szene setzt sich dabei grundsätzlich zusammen aus der Szenen-Beschreibung (Graph-Form mit Objekten - 1D, 2D, 3D; Objekt-Attributen), aus Transformationen, der Beleuchtung sowie der Kameraposition. Die geometrische Modellierung kann dabei als interaktiver Vorgang am Rechner (z.B. in der Produktentwicklung), aber auch automatisiert durch z.B. 3D-Scanner (z.B. Architektur), Motion Capturing (z.B. Medizin, Computerspiele), Vermessungsverfahren (z.B. Geodäsie, Photogrammetrie), künstlich erzeugte Daten (z.B. Simulation) oder durch Ableitung geometrischer Modelle über die Bildanalyse aus Rastergrafiken (Foto, Video) erfolgen. 5.1.1 Objekte in der Szene Objekte einer Szene werden prinzipiell aus den vorhandenen graphischen Primitiven zusammengesetzt. Beispiele 2-dimensionaler Primitiva bei der geometrischen Modellierung sind Linien, Linienzüge, Polygone (Dreiecke, Vierecke etc.), aber auch Freiformkurven (z.B. Bézier-Kurven, B-Splines, NURBS). Beispiele 3-dimensionaler Primitiva sind z.B. alle 2D-Primitiven, Grundkörper wie Kugel, Quader, Zylinder, Kegel, Zylinder, Torus und Pyramide sowie Freiformflächen. Die Bildung von komplexen Geometrien erfolgt dabei durch hierarchische Konstruktion, zum Beispiel Punkte begrenzen Kanten, Kanten begrenzen Flächen, Flächen begrenzen Körper. <?page no="81"?> 82 5 Generative Computergrafik Abb. 27: Konstruktion komplexer Objekte aus graphischen Primitiven Das Arbeiten mit geometrischen Modellen basiert auf der Ausführung von Transformationen von Punkten, d.h. der Abbildung auf neue Koordinaten. Eine Transformation komplexer Objekte erfolgt so durch die Transformation der sie beschreibenden Punkte. Klassische Transformationsfunktionen hierbei sind: Translation: Verschiebung in eine bestimmte Richtung Skalierung: Vergrößerung oder Verkleinerung um einen bestimmten Faktor; Spezialfall Spiegelung mit Faktor -1 Rotation: Drehung bzgl. bestimmter Achse um einen bestimmten Winkel Scherung: Verformung entlang einer bestimmten Achse um einen definierten Faktor 5.2 Modellierungsmethoden Geometrische Modellierungsmethoden fassen verschiedene Beschreibungsmittel, insbesondere Datenstrukturen und Operationen, für geometrische Objekte zusammen. Nachfolgend sind einige Methoden aufgelistet: Kantenmodelle (wire frames): Darstellung eines Objektes nur durch die begrenzenden Kanten. <?page no="82"?> 5.2 Modellierungsmethoden 83 Flächenmodelle (polygon meshes): Definieren Objekte durch die Kombination von analytischen oder approximierenden Oberflächen (z.B. Bézier, Coons- oder Splineflächen). Es erfolgt eine direkte Zuordnung von Kanten zu Flächen. Volumen oder Massenberechnungen werden i.d.R. nicht unterstützt. Volumenmodelle (solid modeling): Objekte besitzen ein definiertes Volumen sowie geometrische und physikalische Eigenschaften. Die generierten Objekte sind vollständig beschrieben und eindeutig. 5.2.1 Kantenmodelle Kantenmodelle bzw. Drahtmodelle modellieren 2D- oder 3D- Objekte alleine durch Umrisskanten. In der Grundform enthalten sie keine Informationen über Flächen oder Volumen und sind deshalb unbrauchbar für die Schnittbildung. Vorteil: sehr einfaches und deshalb effizientes Modell Nachteil: Kantenmodelle sind mehrdeutig und schwer verifizierbar, da keine Information darüber codiert wird, welche Flächen (und damit indirekt Volumen) die Kanten begrenzen. Abb. 28: Mögliche Interpretation eines Würfels im Kantenmodell 5.2.2 Flächenmodelle Oberflächenmodelle beschreiben nur die sichtbaren Teile von 3D-Objekten und lassen das Innere unberücksichtigt. Die Art, wie die Oberfläche mit den Mitteln der Geometrie dargestellt wird, ist hier ein wesentliches Unterscheidungskriterium. Körper <?page no="83"?> 84 5 Generative Computergrafik werden durch Oberflächennetze abgebildet, nichtebene Flächen werden mittels ebener Flächenstücke approximiert. Die Darstellung eines 3D-Objektes erfolgt dabei durch die es begrenzenden Flächen (beliebige Polygone, Freiformflächen). Flächenmodelle erlauben so eine indirekte Modellierung von Körpern durch die Beschreibung der die Körper abschließenden Flächen. Die Boundary Representation (b-rep oder brep) ist eine Darstellungsform eines Flächenmodells, die begrenzende Oberflächenteile eines Körpers und ihre Lage zueinander topologisch beschreibt. Sie stellt die Grundlage vieler aktueller Grafik-Software dar. Vor allem wird diese Art der Modellierung in CAD-Systemen erfolgreich eingesetzt. Hierarchische Grundstrukturen zum Aufbau eines Körpers sind dabei: Schale (Shell): die Menge zusammenhängender Flächen, die einen Körper begrenzen Flächen (Face, Facettes) sind begrenzt durch deren Konturen Konturen (Loops): abgeschlossene Folgen von Kanten Kanten (Edges): durch Punkte begrenzte Linien oder geführte Kurven Punkte (Vertexes, Vertices) haben Koordinaten im 3-dimensionalen Raum Abb. 29: Beschreibung eines Würfels im Flächenmodell Der Objektaufbau kann dabei als Datenstruktur in Listen und Tabellen verwaltet werden (Knoten-, Kanten-, Flächen-, Volumenliste). <?page no="84"?> 5.2 Modellierungsmethoden 85 Abb. 30: Objektaufbau als Baumstruktur Abb. 31: Verwaltung des Objektaufbaus in Tabellen <?page no="85"?> 86 5 Generative Computergrafik 5.2.3 Volumenmodelle Volumenmodelle beschreiben 3D-Objekte durch die räumliche Zusammensetzung einzelner Teilvolumen. Volumenmodelle besitzen dabei den Vorteil, dass innenliegende Strukturen bei der Modellierung -im Gegensatz zu den vorgenannten Modellierungsmethodenebenfalls berücksichtigt werden. Eine Methode basiert dabei auf dem Voxel-Modell. Hierbei erfolgt eine Zerlegung von Körpern in Voxel (in Anlehnung an den 2D-Begriff Pixel (picture element) wird in 3D der Würfel als Voxel (volume element) bezeichnet) eines raum-zerlegenden Volumenrasters. Für jeden Punkt des dreidimensionalen Pixelraumes (Voxel) wird festgehalten, ob der Punkt in einem Körper liegt und wenn ja in welchem. In diesem Modell sind Boolesche Operationen und die visuelle Darstellung sehr einfach. Nachteil ist der große Speicherbedarf. Zur Lösung dieses Problems benutzt man eine Darstellung durch Octrees. Hier wird der betrachtete Raum, ein Würfel, jeweils rekursiv in 8 Oktanten unterteilt. Dies geschieht solange, bis entweder der betrachtete Oktant ganz gefüllt ist oder ganz leer ist, oder die maximale Tiefe erreicht ist. Abb. 32: Voxel-Modell <?page no="86"?> 5.3 Oberflächeneigenschaften 87 5.3 Oberflächeneigenschaften Bisher haben wir lediglich die Darstellung der Geometrie eines Objektes betrachtet. Dessen Darstellung und Aussehen ist aber maßgeblich durch die Oberfläche geprägt. Diese können wir über unterschiedliche, nachfolgend kurz skizzierte, Möglichkeiten gestalten: Farbe: Zuweisung einer konkreten Farbe für eine Oberfläche. Da durch eine Transparenz-Komponente auch die Möglichkeit besteht, verschiedenfarbige Bildpunkte wie in einem Malkasten zu mischen, wird diese Information ebenfalls mitgeführt (Alpha Blending) Textur: Objekte, die lediglich mit einer einfachen Farbzuweisung gerendert wurden, besitzen monotone Farbverläufe und erscheinen deshalb in der Regel künstlich. Reale Oberflächen wie z.B. Rasen, Holzbretter, Früchte etc. besitzen fast immer eine regelmäßige oder unregelmäßige Struktur, die auch als Textur bezeichnet wird. Alternativ zur Modellierung mittels einer einheitlichen Farbe kann die sichtbare Oberfläche also auch zusätzlich durch ein Muster (z.B. aus einer Pixelgrafik-Datei) beschrieben werden. Ein klassisches Beispiel für eine Textur ist ein normales Foto, welches auf ein Polygonnetz gemappt wird. Diese Technik ist auch als Foto- Texture Mapping bzw. Image Texturing bekannt. Struktur: Viele weitere Anwendungen von Texturen wurden zwischenzeitlich entwickelt, um die Struktur von Oberflächen möglichst realistisch darstellen zu können. Glanz- Texturen (Gloss Map), Umgebungs-Texturen (Environment Maps) oder auch Relief-Texturen kommen hierbei zu Einsatz, um nur einige wenige zu nennen. So können bspw. beim Bump-Mapping unabhängig von der Geometrie „kleinere Unebenheiten“ als Eigenschaften der Oberfläche modelliert werden, vergleichbar einer „Textur mit Höheninformationen“. <?page no="87"?> 88 5 Generative Computergrafik 5.4 Bildsynthese (Rendering) Das eigentliche Ziel der interaktiven 3D-Computergrafik stellt bekanntermaßen die Generierung eines Farbbildes am Bildschirmfenster dar. Unter der Bildsynthese bzw. dem Rendering verstehen wir somit den Prozess zur Erzeugung eines Bildes aus den eigentlichen Daten bzw. aus der aktuellen Szene. Hierbei müssen verschiedene Aufgaben gelöst werden: Beleuchtung: Die Berechnung der Lichtverteilung innerhalb der Szene, die sich unter anderem durch die indirekte Beleuchtung zwischen Körpern äußert. Zur Erzeugung möglichst wirklichkeitsnaher Bilder wird eine Vorschrift zur Berechnung der Farb- und Grauwerte der einzelnen Bildpunkte (= Beleuchtungsmodell) benötigt. In einem solchen Modell werden die Einflüsse der Lichtquellen (Lage, Größe, Stärke, spektrale Zusammensetzung) sowie der Oberflächenbeschaffenheit (Geometrie, Reflexionseigenschaften) auf die Farbe eines Bildpunktes erfasst (z.B. lokale Beleuchtungsmodelle, Raytracing). Sichtbarkeitsberechnung: Eine fotorealistische Bildqualität setzt die korrekte Ermittlung der von der Position des Betrachters aus sichtbaren, sowie die Beseitigung der unsichtbaren Bildteile, voraus (Hidden Line / Hidden Surface-Algorithmen). Daneben erfolgt eine Beseitigung der Rückseiten undurchsichtiger Körper, da diese unsichtbar sind (Backface Culling). Da letzgenannte große Bereiche einer Szene ausmachen können (bis zur Hälfte der vorkommenden Flächen), werden sie vor Beginn der Visibilitätsberechnungen identifiziert und von der weiteren Betrachtung ausgeschlossen. Der Hauptzweck dieses sogenannten Backface Cullings besteht darin, die Anzahl der Flächen für die nachfolgenden Bearbeitungsschritte (insbesondere das Shading) zu minimieren. Window-Viewport-Transformationen: an einem Fenster (window) wird die außerhalb liegende Information abgeschnitten (clipping). <?page no="88"?> 5.4 Bildsynthese (Rendering) 89 Shading: Simulation des Aussehens von Oberflächen, beeinflusst durch deren Materialeigenschaften. Nachfolgende Abbildung zeigt in Anlehnung an 33 den komplexen Workflow der Rendering-Pipeline ausgehend von der geometrischen Modellierung einzelner Objekte bis hin zur eigentlichen Bilderzeugung am Ende des Prozesses. Abb. 33: Zusammensetzung der Rendering-Pipeline Weiterführende Informationen zur Theorie der geometrischen Modellierung, zur Beschreibung ausgewählter Algorithmen der Computergrafik sowie zu Methoden zur Erzeugung realitätsnaher Szenen können der genannten weiterführenden Literatur entnommen werden. 33 Schlechtweg Stefan, http: / / www.mttcs.org/ Skripte/ Pra/ Material/ vorlesung4.pdf <?page no="89"?> 90 5 Generative Computergrafik 5.5 Anwendungsbeispiel: 3D-Stadtmodelle Insbesondere Stadt- und Raumplanung sowie Anwendungen im Umweltbereich, zunehmend aber auch cyber-physische Applikationen wie z.B. roomscale VR-Anwendungen (siehe Kapitel 8), nutzen geodaten-basierte Gelände- und Oberflächenmodelle, um eine möglichst realitätsnahe Arbeitsbzw. Spielumgebung modellieren zu können. Häufig werden diese aus Daten des Airborne Laser Scanning (ALS) abgeleitet und sind als Gebäude- (Qualität: LoD2) bzw. hochaufgelöste Geländemodelle mittlerweile als Standardprodukte der Landesvermessung - zumindest in Deutschland - fast flächendeckend verfügbar. Dabei können hochaufgelöste Gebäudebzw. Stadtmodelle mit einem hohen geometrischen Detailgrad sowohl aus den ALS-Rohdaten (i.A. Punktwolken) als auch durch eine Optimierung bereits vorprozessierter Modelle entwickelt werden, wie nachfolgend beschrieben. 5.5.1 Airborne Laser Scanning (ALS) Je nach Bedarf an 3D-Modellen wird das Geländebzw. Oberflächenmodell einer Region von Interesse auf unterschiedliche Art und Weise erzeugt. Bildflüge zur Erstellung von digitalen Luftbildern, die Ableitung vorhandener Detailinformationen aus amtlich anerkannten Datengrundlagen zum Gebäudebestand (Gebäudegrundrisse, automatisierte Liegenschaftskarten), aber auch insbesondere fernerkundungsbasierte Verfahren wie Sonarsysteme, Luftbildphotogrammetrie, Radarinterferometrie und Laserscanning können dabei als Lieferant für 3D-Informationen dienen. Insbesondere das flugzeuggetragene Laserscanning liefert hierbei flächendeckende Informationen, die in diesem Detailgrad eine nie dagewesene Datengrundlage für raumbezogene Analysen sowie geometrische Modelle vom Gebäudebestand einer Siedlung liefern können (Höhengenauigkeit ca. 10-30 cm). Einen ersten Eindruck über laufende Aktivitäten auf dem Gebiet <?page no="90"?> 5.5 Anwendungsbeispiel: 3D-Stadtmodelle 91 der flächendeckenden Modellierung des Gebäudebestandes kann der Leser in der Anwendung RLP in 3D 34 des Landesamtes für Vermessung und Geobasisinformation Rheinland-Pfalz gewinnen. Abb. 34: Fernerkundungsbasierte Ableitung eines 3D-Geländemodells des Vesuvs (Italien) 35 Das flugzeuggestützte Messen mithilfe von Laserlicht ist dabei eine Methode, die Entfernung des Geländes zum Flugzeug direkt zu bestimmen. Die Messgeräte (Laserscanner) sind in der vegetationsarmen Zeit in der Lage, Wald- und Krautschichten weitestgehend zu durchdringen. Zusätzlich zu den Objekthöhen des Bewuchses und den Gebäuden werden auf diesem Wege durch Auswertung der Signallaufzeiten bzw. der Phaseninformation auch die Geländehöhen erfasst. Das Ergebnis ist ein flächenhaftes dreidimensionales Abbild der Erdoberfläche. 34 http: / / www.rheinland-pfalz-in-3d.rlp.de/ 35 Datenquelle: Osservatorio Vesuviano http: / / www.ov.ingv.it/ ov/ <?page no="91"?> 92 5 Generative Computergrafik Abb. 35: Funktionsprinzip Airborne Laser Scanning (ALS) Um die genauen georeferenzierten Koordinaten (Länge, Breite und Höhe) eines von einem Laserimpuls erfassten Oberflächenpunktes bestimmen zu können, wird die Position des Flugzeugs durch GNSS (Global Navigation Satellite System) bestimmt. Weiterhin registriert ein Inertiales Navigations-System (INS) die Roll-, Nick- und Gierwinkel des Flugzeugs und somit auch die Richtung der Messung (Richtungsvektoren). Um ein möglichst gleichmäßiges und flächiges Punktemuster erfassen zu können, werden je nach Hersteller bis zu 100.000 Entfernungsmessungen pro Sekunde aufeinander folgend gesendet und empfangen. Dazu wird der Laserstrahl immer wieder quer zur Flugrichtung geschwenkt und über die Erdoberfläche geführt. In Kombination mit der Bewegung des Flugzeugs entstehen auf diese Weise Streifen von Geländehöhenwerten mit einer Punktdichte von etwa einem bis mehreren Punkten pro m² auf der Erdoberfläche. <?page no="92"?> 5.5 Anwendungsbeispiel: 3D-Stadtmodelle 93 Abb. 36: Signal-Laufzeit in Abhängigkeit von der Oberflächenbedeckung <?page no="93"?> 94 5 Generative Computergrafik Da die ausgesendeten Signale in Abhängigkeit von der Höhe von Objekten an der Erdoberfläche (z.B. Vegetation) unterschiedliche Signallaufzeiten haben, besteht die Möglichkeit, durch eine Auswertung letzterer auch über die Geländeoberkante (Last Pulse-Auswertung) hinausgehende Informationen zu Phänomena auf der Erdoberfläche gewinnen zu können (vgl. obige Abbilung, verändert nach 36 ). Dabei stecken die Analyse und Auswertung des Informationsgehaltes der ungefilterten Rohdaten noch in den Kinderschuhen. Gerade hier ist bei Anwendung entsprechender Auswertemethoden aber ein hoher Informationsgewinn zu erwarten 37 . 5.5.1.1 Begriffsklärung Level of Detail (LoD) Als Level of Detail (LOD) werden die verschiedenen Detailstufen bei der Darstellung virtueller Welten z.B. von Gebäuden bezeichnet. Insbesondere im Bereich der virtuellen dreidimensionalen Landschafts- und Stadtmodelle werden LoD-Konzepte eingesetzt, wobei für die Modellierungssprache CityGML folgende Detailstufen beschrieben wurden: LoD 0: Regionalmodell, Geländemodell mit Luftbildtextur LoD 1: Klötzchenmodell, Gebäudeblock (einfaches Extrudieren der Grundfläche) LoD 2: grobes 3D-Modell der Außenhülle mit standardisierten Dachstrukturen und einfachen Texturen LoD 3: Architekturmodell, realitätsnahes 3D-Modell der Außenhülle (z.B. Dachformen, Fenster, Höhen) mit Textur LoD 4: Innenraummodell, 3D-Modell des Gebäudes mit Etagen, Innenräumen etc. und Texturen 36 https: / / cloud.sdsc.edu/ v1/ AUTH_opentopography/ www/ short courses/ 16UNAVCO/ 16UNAVCO_Crosby_introALS_TLS.pdf 37 Hill, Jürgen (2016): mündl. Mitteilung zur künftigen Bedeutung von Daten des Laserscannings in der Vegetationsforschung; Umwelt- Campus Birkenfeld, 22. September 2016 <?page no="94"?> 5.5 Anwendungsbeispiel: 3D-Stadtmodelle 95 Abb. 37: Vergleich der Detailstufen im LoD-Konzept (LoD1 - LoD3) 5.5.1.2 ALS-Datenprodukt Punktwolke Die Messwerte der Befliegungskampagnen können dabei als Rohdaten getrennt nach Bodenpunkten (*.grd) und Nichtbodenpunkten (*.veg), als unregelmäßig verteilte Oberflächendaten separiert nach Gebäuden (*.kub), Brücken (*.bru) und restlicher Vegetation (*.vge), sowie als rasterpunktebasiertes Digitales Geländemodell (z.B. DGM1 mit einer Punktdichte von 1 Pkt./ m² und einer Höhengenauigkeit von ca. 1-2 dm) bezogen werden. Dabei ist beim DGM die Höhengenauigkeit der Gitterpunkte vom Gelände abhängig: wenig geneigtes Gelände mit geringem Bewuchs: Höhengenauigkeit < 0,15 m stark geneigtes Gelände mit geringem Bewuchs: Höhengenauigkeit < 0,3 m flach bis wenig geneigtes Gelände mit starkem Bewuchs: Höhengenauigkeit < 0,4 m. 5.5.1.3 LAS-Datenset Das LAS-Dateiformat (= Log Ascii Standard) als weiteres relevantes Datenformat im Umfeld des Laserscannings ist - generisch gesehen - ein offenes Dateiformat für den Austausch von dreidimensionalen Punktwolkendaten. Ursprünglich für den Austausch von Lidarpunkt-Cloud-Daten entwickelt, kann ein <?page no="95"?> 96 5 Generative Computergrafik LAS-Datenset auch Verweise auf Feature-Classes enthalten, in denen Oberflächeneigenschaften abgebildet sind. Als binäres Dateiformat ist es eine leistungsfähige Alternative zu einem generischen Datenaustausch im ASCII-Format, bei dem die Lidar-Daten spezifischen Informationen verloren gehen. 38 , 39 5.5.1.4 CityGML Durch die Verfügbarkeit geeigneter Prozessierungsketten und Austauschformate werden von den deutschen Vermessungsverwaltungen mittlerweile auch weitere, aus den ALS-Daten abgeleitete Produkte, zur weiteren Verwendung in der Geoinformationswirtschaft vertrieben. Insbesondere die Gebäudegeometrien in einer LoD2-Qualität sind hierbei für viele Anwendungsbereiche nützlich. Einen Eindruck über die Art und Qualität dieser Gebäudedaten liefert die Anwendung „Rheinland-Pfalz in 3D“ 40 des Landesamtes für Vermessung und Geobasisinformation Rheinland-Pfalz, die erste Anwendung dieser Art in Deutschland. Als Format für den Datenaustausch hat sich im Bereich 3D- Stadtmodelle das Modell CityGML herausgebildet. CityGML ist ein offenes Datenmodell und ein XML-basiertes Format für die Speicherung und den Austausch virtueller 3D-Stadtmodelle 41 . Es handelt sich um ein Anwendungsschema für die Geographic Markup Language Version 3.1.1 (GML3), den erweiterbaren internationalen Standard für den räumlichen Datenaustausch des Open Geospatial Consortium (OGC) und der ISO TC211. Ziel der Entwicklung von CityGML ist es, eine gemeinsame Definition der Grundentitäten, Attribute und Relationen eines 38 https: / / www.asprs.org/ committee-general/ laser-las-file-formatexchange-activities.html 39 http: / / desktop.arcgis.com/ de/ arcmap/ 10.3/ manage-data/ lasdataset/ what-is-a-las-dataset-.htm 40 http: / / www.rheinland-pfalz-in-3d.rlp.de/ 41 https: / / www.citygml.org/ <?page no="96"?> 5.5 Anwendungsbeispiel: 3D-Stadtmodelle 97 3D-Stadtmodells zu erreichen. Dies ist besonders wichtig in Bezug auf das nachhaltige Management von 3D-Stadtmodellen, welches eine Wiederverwendung der gleichen Daten in unterschiedlichen Anwendungsfeldern ermöglicht. Modelliert werden Stadt- und Landschaftsobjekte, insbesondere das Gelände, Gebäude, Wasser- und Verkehrsflächen, Vegetation, Stadtmöblierung und Landnutzungen. Jedes Objekt kann in unterschiedlichen Level of Detail vorkommen. Dabei werden neben der Geometrie und dem Aussehen insbesondere auch die Semantik und die Topologie der Objekte beschrieben. 5.5.2 Ableitung eines 3D-Stadtmodells aus ALS -Daten Mit der Verfügbarkeit von Daten des airborne Laserscannings wurde erstmalig möglich, eine effiziente und flächendeckende Ableitung von hochgenauen Gebäudegeometrien durchzuführen. Während traditionell lediglich Gebäudegrundrisse des Liegenschaftskatasters bzw. die daraus abgeleiteten Klötzchenmodelle als LoD1-Darstellung verfügbar waren (ohne Kenntnis der Gebäudehöhen sowie der Dachformen), können mittlerweile aus den ALS-Daten detailgenaue LoD3-Modelle abgeleitet werden. Im nachfolgenden Beispiel wird gezeigt, wie - ausgehend von den Daten des Laserscanning - ein 3D-Stadtmodell generiert werden kann. Die eingesetzte Modellierungssoftware war in diesem Fall das Produkt CityEngine des Herstellers ESRI. Schritt 1: Import LoD2-Modell: Um nicht bei den Rohdaten (Punktewolken) beginnen zu müssen, importieren wir in unserem Modellierungsbeispiel das von der Landesvermessungsverwaltung des Saarlandes bereits vorprozessierte LoD2-Modell der Gebäude der Region von Interesse (ROI) in unsere Anwendung. Das Modell wurde im CityGML- Format bereitgestellt. Durch das gewählte Datenformat sind die Flächenpolygone bereits in Gebäudegrundriss, Wände und Dachflächen klassifiziert. <?page no="97"?> 98 5 Generative Computergrafik Abb. 38: Vorprozessierter LoD2-Gebäudebestand der Region 42 Schritt 2: Import selektierter LAS-Punktwolken: Um zusätzliche Informationen zur Erstellung eines LoD3-Gebäudebestandes bzw. zur Identifizierung von Klassifikationsfehlern zu erlangen, besteht nun die Möglichkeit, als Gebäudepunkte vorklassifizierte Datenpunkte des LAS-Datenbestandes gefiltert einzulesen und in der aktuellen Szene darzustellen. Abb. 39: LoD-2-Modell kombiniert mit LAS-Dachpunktdaten 42 Quelle: Landesamt für Vermessung, Geoinformation und Landentwicklung des Saarlandes <?page no="98"?> 5.5 Anwendungsbeispiel: 3D-Stadtmodelle 99 So zeigt die vorstehende Abbildung anhand der Verteilung der Messpunkte sowohl am Burgdach als auch an dem Gebäude nordöstlich der Burg Optimierungsmöglichkeiten bei den Gebäudegeometrien hin zum LoD3-Modell. Schritt 3: Optimierung der Gebäude-Geometrien: In dieser Phase modellieren wir die einzelnen Gebäude so, wie dies im Rahmen des geometrischen Modellierens i.d.R. interaktiv durchgeführt wird. Objekte werden mittels der klassischen Grundfunktionen neu erstellt (z.B. Dachgauben), geändert oder auch gelöscht. Abb. 40: Modellierung fehlender Gebäudebestandteile Schritt 4: Um das Stadtmodell realistisch wirken zu lassen, müssen den Gebäudemodellen nun noch Texturen zugeordnet werden. Weiterhin positionieren wir eine Beleuchtungsquelle und wählen eine geeignete Horizontgestaltung, um den artifiziellen Charakter der Szene etwas abzumildern. Schließlich verwenden wir noch ein aktuelles Luftbild, um die Freiflächen zwischen den Gebäuden zu texturieren. <?page no="99"?> 100 5 Generative Computergrafik Abb. 41: Finales Stadtmodell mit Textur und Gebäudeöffnungen 5.6 Photogrammetrie Ein weiteres Verfahren, automatisiert geometrische Modelle von real existierenden Objekten abzuleiten, liefert die Photogrammetrie (Bildmessung). Sie stellt Methoden zur Vermessung von Objekten nach Lage und Form bereit, d.h. geometrische Aspekte stehen im Vordergrund der Bildauswertung (z.B. Messen von Einzelpunkten). Die Messungen erfolgen dabei nicht direkt am Objekt, sondern indirekt auf Bildern des Objekts. Wir bedienen uns dabei Techniken der Fernerkundung (remote sensing) sowie der Bildanalyse. Nach der Anzahl der verwendeten Bilder werden Verfahren der Einbild-, der Zweibildphotogrammetrie (Stereophotogrammetrie) und der Mehrbildmessung unterschieden. Zur Durchführung photogrammetrischer Auswertungen sind folgende Hilfsmittel erforderlich: Digitale Sensoren, Messkameras bzw. sonstige Abtaster im sichtbaren und nicht-sichtbaren elektromagnetischen Spektrum <?page no="100"?> 5.6 Photogrammetrie 101 Gerätetechnik zur Umsetzung der Bildinformation, z.B. digitale Stereoauswertegeräte Mathematische Verfahren zur Bildverarbeitung und -analyse. 5.6.1 Stereophotogrammetrie Ein klassisches Einsatzgebiet photogrammetrischer Verfahren ist die Luftbildmessung zur Ableitung von z.B. Höheninformation mittels der Stereo-Photogrammetrie. Folgende Eigenschaften sind Luftbildern dabei eigen: Standard-Luftbilder sind Aufnahmen, die mit einer senkrecht zur mittleren Geländeebene der Erdoberfläche ausgerichteten Kamera durchgeführt worden sind. Abb. 42: Zentralperspektivische Abbildung im Luftbild und Parallelprojektion bei der Kartenerstellung <?page no="101"?> 102 5 Generative Computergrafik Das Senkrechtluftbild stellt eine zentralperspektivische Abbildung des Geländes dar. Dies bedeutet, dass alle Geländepunkte ihren entsprechenden Bildpunkten durch gerade Strecken zugeordnet sind. Diese Strecken schneiden sich im Perspektivzentrum (Objektiv der Kamera). (Gegensatz: Parallelprojektion bei Karten) Die Zentralprojektion führt zu geometrisch bedingten Reliefverzerrungen und Maßstabsunterschieden in der Bildebene, die zu korrigieren sind Um stereoskopische Auswertungen zu ermöglichen, ist eine Überlappung benachbarter Aufnahmen von mindestens 60% (in Flugrichtung) erforderlich (Stereopaar). Die Ergebnisse der (stereoskopischen) Luftbild-Auswertung reichen dabei von der Erstellung entzerrter Luftbilder (Orthofotos) über die Ableitung digitaler Geländemodelle, sowie von 2D/ 3D-Koordinaten einzelner Landschaftsobjekte, bis hin zu perspektivischen Ansichten der Landschaft. 5.6.2 Nahbereichs-Photogrammetrie Im Gegensatz zur Luftbild-Photogrammetrie, die große Anforderungen hinsichtlich der erforderlichen Hard- und Software stellt, bietet die aktuell verstärkt nachgefragte Nahbereichs- Photogrammetrie ein Methodenset, das auch im Office-Bereich mit einfachem Equipment geometrische Modelle aus Bildinformationen abzuleiten ermöglicht (Mehrbild-Photogrammetrie). Nachfolgend ist die prinzipielle Vorgehensweise beschrieben: Vom zu modellierenden Objekt werden viele Fotos aus unterschiedlichen Perspektiven gemacht; beachte: die Software kann nur Objektbereiche rekonstruieren, die auch auf Bildern sichtbar sind (Blind-Zones führen zu Anomalien im Modell) Markante Merkmale in den Bildern (scharfe Kanten, hell/ dunkel-Muster, etc.) werden algorithmisch identifiziert Anschließend erfolgt die Berechnung der Form des 3D- Objektes; im Idealfall findet jedes markante Merkmal seinen <?page no="102"?> 5.7 Haptischer Ausdruck / 3D-Druck 103 Platz in der Szene (Structure from Motion SFM) Weiterer Vorteil: die Textur wird durch die Fotografie gleich miterfasst Während die Bilder mittels einer handelsüblichen Kamera erstellt werden können, wird zur Bildanalyse spezielle Software benötigt. Agisoft Photoscan, SF3M, VisualSFM (Linux) sowie Colmap mit openMVS sind Beispiele entsprechender Softwareprodukte. Überdies existieren auch einige Webservices, welche eine 3D-Objekterzeugung aus geeigneten Bilddaten ermöglichen (z.B. 123D Catch 43 , Regard3D 44 ) 5.7 Haptischer Ausdruck / 3D-Druck Neben der Präsentation von 3D-Modellen über Monitore oder sonstige Sichtgeräte wie z.B. Head Mounted Displays (HMD‘s) ist deren Ausgabe in Form von haptischen Ausdrucken über 3D-Drucker aufgrund der mittlerweile kostengünstigen Verfügbarkeit dieser Hardware auch im Alltag angekommen. Im Rahmen des Rapid Prototyping lassen sich so auch Ideen handfest realisieren und unter Einsatz geeigneten Materials auch Werkzeuge oder Ersatzteile herstellen. Als Übergabeformat der Modelldaten an den 3D-Drucker hat sich das STL-Format herausgebildet. Da der 3D-Druck in Ebenen erfolgt, schneidet das Druckprogramm das Modell in Schichten, die dann scheibchenweise aufeinander gedruckt werden. Die Genauigkeit, mit der gedruckt werden kann, die maximale Größe der Objekte, sowie die Anzahl der verfügbaren Druckköpfe (Extruder) sind dabei neben anderen (z.B. heizbare Basisplatte, Geschwindigkeit) wesentliche Leistungsmerkmale der Hardware. Für den 3D-Druck sind aktuell verschiedene Verfahren verfügbar, die sich sowohl in den Kriterien Maßhaltigkeit, mechani- 43 https: / / www.tinkercad.com/ 44 http: / / www.regard3d.org/ <?page no="103"?> 104 5 Generative Computergrafik sche Belastbarkeit, Fertigungsgeschwindigkeit als auch in den Produktionskosten unterscheiden: Fused Deposition Modeling (FDM): Objekte werden aus einem geschmolzenen Kunststofffaden (Filament) schichtweise modelliert; preisgünstiges Verfahren für den Massenmarkt. Multi Jet Modeling (MJM): Ähnlich einem Tintenstrahldrucker wird mittels Piezo-Druckkopf ein Modell aus lichtempfindlichem Kunststoff (Photo-Polymer) gedruckt. Der Kunststoff wird anschließend mit UV-Beleuchtung ausgehärtet. Color Jet Printing: Hier werden mit einem Thermotintenstrahl-Druckkopf farbige Bindemittel auf ein gipsartiges Pulverbett gedruckt, welches schichtweise aufgestockt wird. Stereolithographie (SLA): Dieses Verfahren arbeitet anstelle eines Druckkopfes mit einem Laser. In einem Kunststoffbad wird das Objekt durch UV-Licht in Ebenen an der Oberfläche ausgehärtet, während es in der Flüssigkeit langsam nach unten sinkt. Selektives Laser-Sintern (SLS): Ein Werkpulver aus metallischen oder keramischen Substanzen wird mit einem Laser für den Sinterprozess anbzw. aufgeschmolzen. Abb. 43: Haptischer Ausdruck des modellierten Gebäudebestandes (FDM- Druck) <?page no="104"?> 5.8 Literatur 105 5.8 Literatur Enanacao J., W. Strasser & R. Klein (1996): Graphische Datenverarbeitung 2. Modellierung komplexer Objekte und photorealistische Bilderzeugung. 4.Auflage. Oldenbourg Verlag München Wien Nischwitz A., M. Fischer, P. Haberäcker & G. Socher (2011): Computergrafik und Bildverarbeitung. Band 1: Computergrafik. 3. Auflage. Vieweg + Teubner Verlag, Wiesbaden Coors V., C. Andrae & K.-H. Böhm (2016): 3D-Stadtmodelle. Konzepte und Anwendungen mit CityGML. Wichmann Verlag Heidelberg Luhmann, Thomas (2018): Nahbereichsphotogrammetrie. Grundlagen - Methoden - Beispiele. Wichmann Verlag Heidelberg <?page no="106"?> 6 Bildbearbeitung Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie die Bedeutung der Begriffe Bildbearbeitung und Bildanalyse kennen, einen Überblick zu bildgebenden Techniken in unterschiedlichen Anwendungsfeldern haben, elementare Operationen zur Manipulation von Bilddaten verstehen und anwenden können, eine Vorgehensweise zur Ableitung von Fachinformation mittels Klassifikation von Multispektraldaten nachvollziehen können. Definition: Unter der Bildbearbeitung verstehen wir Methoden und Techniken zur Veränderung der Darstellung von Bildern mit dem Ziel einer besseren Wahrnehmung des Informationsgehaltes. Bilder (z.B. Fotos, Scans, TV- Bilder, Satellitenbilder) existieren a priori als n × m Bildpunkte. Anwendungsbereiche der Bildbearbeitung finden sich beispielsweise in der Industrie (z.B. Qualitätskontrolle), der Prozess- Automation („sehende“ Roboter), der Fernerkundung oder der Sicherheitstechnik, ober bei dem autonomen Fahren, um nur einige aktuelle Anwendungsfelder auf dem Gebiet der Ingenieurswissenschaften zu nennen. Ein anderer großer Produzent von Bildern ist die Medizin, die neben einer Vielzahl an Techniken zur Gewinnung von Bildmaterial (z.B. Computertomographie, Ultraschall, Röntgen etc.) <?page no="107"?> 108 6 Bildbearbeitung auch interdisziplinär an der Entwicklung von Algorithmen zur Bildverbesserung und Objekterkennung beteiligt ist. Weitere klassische Anwendungsfelder der Bildbe- und verarbeitung finden sich im Bereich der Medien, dem Dokumentenmanagement (z.B. OCR-Software) oder auch bei der Digitalfotografie u.a. im Freizeitbereich. Zur Ablage der Bildinformation stehen uns unterschiedliche Dateiformate zur Verfügung: RAW-Files: herstellerspezifische Bildformate, welche die unverarbeitete Information der Sensorik beinhalten, z.B. Nikon Electronic Format (NEF), Canon Raw (CRW, CR2) oder das Digital Negative Format (DNG) von Adobe, welches sich als öffentliches Archivformat für Digitalkamera-Rohdaten etabliert hat. Verlustfreie Dateiformate: erlauben Bilder verlustfrei auch komprimiert abzulegen, z.B. Tagged Image File Format, auch als GeoTIFF verfügbar, welches zusätzlich die Ablage von georeferenzierter Information erlaubt. Verlustbehaftete Dateiformate: erlauben eine starke Kompression. So ist eine Reduktion auf 20%-5% des ursprünglichen Bildumfangs möglich, z.B. Jpeg-Formate. Erweiterte Formate: Alle bearbeitungsspezifischen Informationen (Bildebenen, Farbkanäle, Masken etc.) werden abgespeichert; die Dateien sind z.T. recht umfangreich und nicht von allen Bildbearbeitungsprogrammen unterstützt. Bsp.: XCF-Formate (Gimp), PSD-Format (Photoshop Document Format). Wesentliche Bildcharakteristika sind, wie bereits besprochen, deren geometrische Auflösung (dpi, ppi) sowie die Anzahl der Farbkanäle und die Farbtiefe. <?page no="108"?> 6.1 Datenerfassung Rasterdaten 109 6.1 Datenerfassung Rasterdaten Rasterdaten werden durch eine Vielzahl bildgebender Verfahren erzeugt, von denen einige wenige nachfolgend kurz erwähnt sind: Scanner: Programm und Gerät zum Einlesen und Aufbereiten (Digitalisierung) von Texten, Bildern und Graphiken in einem Rechner. Scanner können nach ihrem Anwendungsbereich klassifiziert werden, z.B. Film-Scanner, Dokumenten-Scanner, Bar- Code-Leser, Buch-Scanner etc. Technische Kennzahlen sind u.a. das Abtastverfahren (Punkt, Zeile, Fläche, Durchlicht-, Auflicht-Scanner etc.), der Scan-Bereich, die optische Auflösung und Farbtiefe sowie Scan-Geschwindigkeit und Schnittstellen. Digitale Fotografie: Die Fotografie unterliegt den physikalischen Gesetzen des Lichts. Maßgeblich sind die Menge des Lichts (Blende) und die Dauer der Belichtung (Verschlusszeit). Ein hoher Blendenwert bedeutet, dass die Blende enger geschlossen ist, wodurch weniger Licht in die Kamera fallen kann. Bei einem niedrigen Blendenwert ist die Blende nahezu offen und lässt viel bis maximal viel Licht in die Kamera fallen. Die Verschlusszeit besagt, wie lange das Licht in die Kamera fallen kann, d.h. wie lange der Verschluss geöffnet ist. Es werden i.d.R. Wellenlängen zwischen 400 nm und 750 nm ausgewertet. Bei der digitalen Bilderzeugung handelt es sich um eine Bildwandlung, bei der eine Diskretisierung (Zerlegung in Bildpunkte) und Quantisierung (Umwandlung der Farbinformation in einen digitalen Wert) des analogen Bildes durchgeführt wird. Je nach Bauweise des Detektors (Sensors) kann Strahlung unterschiedlicher Wellenlänge nachgewiesen werden. Technische Kennzahlen von Digitalkameras sind u.a. die Größe und Auflösung des Chips, Kapazität und Schreibgeschwindigkeit des Speichermediums, die Qualität des Objektivs (z.B. Lichtstärke, Brennweite, Zoom), Blendenstufen sowie Einstellungen zur Lichtempfindlichkeit (ISO-Wertebereich), Bildstabilisator, Auslöseverzögerung sowie weitere Zusatzausstattungen. <?page no="109"?> 110 6 Bildbearbeitung Abb. 44: Nachtaufnahme unter Verwendung einer für das menschliche Auge kaum wahrnehmbaren IR-LED-Ausleuchtung (840 nm Wellenlänge) Thermografie: Die Thermografie macht sich zum Nutzen, dass jeder Köper oberhalb einer Temperatur des absoluten Nullpunktes (0° Kelvin) Wärmestrahlung abgibt. Je höher die Tem- Abb. 45: Thermografie-Aufnahme zur Visualisierung der Temperaturverteilung an einem Grundofen <?page no="110"?> 6.1 Datenerfassung Rasterdaten 111 peratur des Körpers ist, desto mehr Energie strahlt dieser ab. Die Thermografie ist somit ein berührungsloses Messverfahren zum Feststellen von Temperaturunterschieden. Die Kameras funktionieren ähnlich wie eine herkömmliche Videokamera. Sie besitzen jedoch Sensoren, die ausschließlich empfindlich für längerwelliges Licht sind (IR-A: 780 - 1400 nm, IR-B: 1400 - 3000 nm, IR-C: 3000 nm - 1 mm). Technisch wird zwischen gekühlten und ungekühlten Kamerasystemen unterschieden, die Einsatzfelder reichen dabei von der Kältetechnik und der Polarforschung (-120°C - -40°C) bis hin zu einem Temperaturbereich von +1200°C z.B. in der Verbrennungsforschung. Röntgen: Die medizinische Bildgebung beginnt 1895 mit Wilhelm Konrad Röntgen und der Entdeckung der Röntgenstrahlen (Nobelpreis 1901). Röntgenstrahlen durchdringen den menschlichen Körper und werden von unterschiedlichen Geweben unterschiedlich stark geschwächt. Erste Anwendungen benötigten Bestrahlungszeiten von ca. 20 Minuten. Heute sind Röntgenaufnahmen in Sekundenbruchteilen durchgeführt und gehören wie bekannt zur klinischen Routine 45 . Abb. 46: Röntgenaufnahmen einer Pferdezehe 45 Rascher-Frieshausen, Medizinische Bildbearbeitung. [Online] [Zitat vom: 28. 12 2010.] http: / / www.mevis-research.de/ ~richard/ bremerhaven/ current/ mbv/ handout1.pdf. <?page no="111"?> 112 6 Bildbearbeitung Ultraschall: (Sonografie, Echolotung) Schall mit Frequenzen oberhalb des Hörfrequenzbereichs des Menschen (Frequenzen ab etwa 16 kHz). Ultraschall wird je nach Material eines Hindernisses an diesem reflektiert, in ihm absorbiert, gestreut oder tritt hindurch (Transmission). In der Medizin ab 1942 zur Erkennung von Gehirntumoren eingesetzt (Sonografie). 3D-Ultraschall gehört heute zur klinischen Routine. Als Echolotung vor allem in der Hydrographie eingesetzt. Über die Laufzeitmessung eines Schallsignals kann die Wassertiefe errechnet werden. Abb. 47: Ultraschallaufnahme der Blase eines Hundes Computertomographie (CT): Beginnt im Jahre 1972 mit Arbeiten von Hounsfield und Ambrose. Verwendet Röntgenstrahlen, um Schnittbilder des Körpers zu erzeugen. Ermöglicht quantitative Aussagen (digital). Besitzt eine hohe Auflösung und liefert 3D-Bilder. Gehört zur klinischen Routine. Nobelpreis 1979 für Hounsfield und Cormack (Medizin) “for the development of computer assisted tomography.” <?page no="112"?> 6.2 Workflow der Bildbearbeitung 113 Abb. 48: Beispielaufnahme Computertomographie Magnetresonanz-Tomographie (MRT): Beginnt ebenfalls 1972. Verwendet magnetische Kernspinresonanz. Erstes Bild eines Wasserröhrchens 1973, erstes Bild einer Maus 1974, erstes Bild eines Fingers 1976 (40 Minuten Aufnahme). Heute Bildgewinnung in Sekundenbruchteilen. Gehört ebenfalls zur klinischen Routine. 6.2 Workflow der Bildbearbeitung Unabhängig von den jeweils individuellen und anwendungsspezifischen Erfordernissen bei der Bearbeitung bzw. der Aufbereitung des Bildmaterials existiert ein genereller Workflow der Bildbearbeitung, dessen einzelne Phasen nachfolgend kurz skizziert sind: Vorbereitende Arbeiten (falls erforderlich): Bild geradestellen (Transformationen); Rauschen reduzieren (Rauschen = nicht farbkorrekte Bildpunkte ohne Bezug zum Bildinhalt z.B. bei hoher ISO-Einstellung im dunklen Bildbereich; verschiedene <?page no="113"?> 114 6 Bildbearbeitung Formen: z.B. Salt & Pepper Rauschen); Moiré-Muster und Alias-Artefakte entfernen; Beschneidung des Bildes. Retusche und Fine Tuning: Tonwertkorrektur (Belichtungskorrektur, Farbbalance herstellen bzw. Farbstiche korrigieren etc.); Details aus Schatten herausholen; Kontrastverbesserung (z.B. mit Gradationskurven); Retusche, Korrektur der Perspektive, Schärfen etc. Ausgabe bzw. Druck Archivieren (Metadaten und Ablagesystem) Sowohl bei der Digitalfotografie im Freizeitbereich als auch bei der Gewinnung von Bildmaterial mittels professioneller bildgebender Verfahren ist der Versuchsaufbau, d.h. die überlegte Vorbereitung und sorgfältige Durchführung der Datenerfassung (Aufnahme) für die Brauchbarkeit des gewonnenen Bildmaterials entscheidend. Eine grundsätzliche Frage stellt sich bei allen Anwendungsfeldern: Wo steckt die Bildinformation? Die Bildinformation ist in den Tonwert-Differenzen codiert. Homogene Bilder sind ohne Information (siehe nachfolgende Abbildung, verändert nach 46 ). Das Ziel der klassischen Bildbearbeitung besteht also darin, je nach Bedarf Bildinformation (= Tonwertmuster) hervorzuheben oder zu unterdrücken. Abb. 49: Zusammenhang zwischen Variation der Tonwertmuster und der Bildinformation 46 Bonnnet, S., Filterung der räumlichen Frequenzen; http: / / slideplayer.org/ slide/ 210999/ <?page no="114"?> 6.2 Workflow der Bildbearbeitung 115 Zur Bearbeitung der Bildinformation in Form einer Bildverbesserung bzw. zur Vorbereitung der Bildanalyse können eine Vielzahl von Algorithmen, sogenannte Bildoperatoren, eingesetzt werden. Diese nehmen ein oder mehrere Eingangsbilder und produzieren ein Ausgangsbild. In Abhängigkeit vom Umfang der Berücksichtigung der Umgebungsinformation unterscheiden wir Punktoperatoren, lokale- und globale Operatoren. Abb. 50: Bildoperatoren und Umgebungsinformation 47 6.2.1 Punktoperatoren Unter Punktoperationen verstehen wir Änderungen von Bildpunktausprägungen ohne Berücksichtigung von Nachbarschaftsinformationen. Es existieren verschiedene Verfahren (z.B. Optimierung des Tonwert-Umfangs, Gradationskurven, Gamma-Korrektur etc.), mit deren Hilfe signifikante Bildverbesserungen erreicht werden können. Zentrales Werkzeug zu einer ersten Bewertung der Bildqualität sind hierbei Histogramme. Das Histogramm h(g) eines Bildes stellt die Häufigkeitsverteilung der Grauwerte eines Bildes bzw. eines Teilbildes dar. Es ermöglicht, Aussagen über die globale Charakteristik von Bildern (z.B. über-, unterbelichtet, farbstichig) zu treffen. 47 Enarnaco J., Strasser W.& R. Klein. Graphische Datenverarbeitung 2 - Modellierung komplexer Objekte und photorealistische Bilderzeugung. 4. Auflage. Oldenbourg Verlag, 1998 <?page no="115"?> 116 6 Bildbearbeitung Abb. 51: Häufigkeitsverteilung der Grauwerte eines Bildes Bei kumulativen Histogrammen wird die Anzahl der Grauwerte als Treppenkurve aufsummiert. Sie vereinfachen ebenfalls eine erste Beurteilung der Bildqualität. Um bei Bedarf nun den Tonwertumfang zu optimieren, bedient man sich sogenannter Grauwert- oder Tonwertmanipulationen. Diese ändern die Häufigkeitsverteilung der Grauwerte g in einem Bild. Gesucht wird hierbei die Transformationsfunktion: G' = T(g), G min <= g <= G max die jedem Grauwert g einen neuen Grauwert g' zuordnet. T sollte dabei folgende Eigenschaften erfüllen: T(g) ist eindeutig und monoton innerhalb des Intervalls [G min , G max ] (garantiert den Erhalt des Verlaufs von schwarz nach weiß) G min <= T(g) <= G max für G min <= g <= G max (verhindert eine Überschreitung des Grauwertintervalls) <?page no="116"?> 6.2 Workflow der Bildbearbeitung 117 Durch eine Bearbeitung des Histogramms können Lichter, Mitteltöne und Schatten leicht optimiert werden. So können bspw. über- oder unterbelichtete Bilder durch eine Tonwertverschiebung in Richtung Schatten bzw. Licht verbessert, oder aber durch ein Auseinanderziehen dicht zusammenliegender Grauwertbereiche die Erhöhung der Erkennbarkeit von Details erreicht werden. Die Tonwertkorrektur zählt zu den Maßnahmen, die bei fast allen Bildern eine qualitative Verbesserung herbeiführt. Bildbearbeitungssoftware ermöglicht i.d.R. eine einfache Optimierung des Tonwertumfangs durch die Anwendung von Gradationskurven (Synonym: Tonwertkurven). Gradationskurven: ermöglichen eine stufenlose Änderung der Tonwertbereiche die horizontale Achse zeigt den Tonwertumfang des Bildes vor der Änderung die vertikale Achse zeigt die Wirkung der Korrekturen an Lineare Tonwertkorrektur: globale Änderung an Helligkeit und Kontrast durch Positionsänderung einer geraden Tonwertkurve Nichtlineare Korrektur: z.B. S-Gradationskurve zur Kontrastverstärkung bzw. zum Erreichen spezieller Effekte (z.B. Solarisationseffekte) Da die Intensitätswahrnehmung des menschlichen Auges nicht linear ist (doppelte Helligkeit im physikalischen Sinne ist nicht gleich einer doppelten Helligkeitsempfindung im Auge), die Sensorik (z.B CCD-Chip, Elektronenstrahlröhre CRT) jedoch annähernd linear arbeitet, wurde eine Korrektur eingeführt, welche die menschlichen Sehgewohnheiten annähernd nachbildet. Diese nennt sich Gamma-Korrektur. Der Gamma-Begriff in der Fotografie bedeutet Anstieg, Gradient bzw. Kontrast. Bei der Gamma-Korrektur bestimmt der Gamma-Wert (γ) das <?page no="117"?> 118 6 Bildbearbeitung Verhältnis der Eingabezu den Ausgabewerten. Ein kleines Gamma hat dabei eine Aufhellung, ein großes Gamma ein Abdunkeln der Werte zur Folge. Die Gamma-Korrektur zählt zu den Verfahren der nichtlinearen Tonwertkorrekturen. Prinzip der Gammakorrektur: A = E γ , wobei A = Ausgangssignal, E = normiertes Eingangssignal im Intervall [0,1] Der Exponent Gamma (γ) gibt der Korrekturfunktion ihren Namen. Auswirkung bei γ = 1: Ausgangssignal = Eingangssignal Auswirkung bei γ < 1 : Beispiel: γ = 0,5 E = 0,5 (50% Helligkeit des Bildpunktes) A = O,5 0,5 = 0,71 (d.h. Ausgangspixel erhält Helligkeitswert von 71%) Auswirkung bei γ > 1 : Beispiel: γ = 2,0 E = 0,5 (50% Helligkeit des Bildpunktes) A = O,5 2 = 0,25 (d.h. Ausgangspixel erhält Helligkeitswert von 25%) Wird die Gammakorrektur zusätzlich noch mit einem Koeffizienten a durchgeführt, führt dies zu einer zusätzlichen Kontraständerung: A = a * E γ Wenn: a > 1: Kontrasterhöhung a < 1: Kontrastverminderung <?page no="118"?> 6.2 Workflow der Bildbearbeitung 119 Wird die Gammakorrektur mit einer Additionskonstanten b durchgeführt führt dies zu einer weiteren Helligkeitsänderung: A = b + E γ Wenn: B > 0 : heller B < 0: dunkler Bei den Tonwertkorrekturen werden i.d.R. alle Bildpunkte des Ausgangsbildes durch das gewählte Verfahren manipuliert, d.h. es erfolgt eine Bearbeitung des Gesamtbildes. Manche Bilder beinhalten jedoch zusätzliche Beeinträchtigungen in Teilbereichen wie z.B. Kratzer, Flecken, unerwünschte Schriftzüge in historischen Aufnahmen, oder aber auch Rote- Augen-Effekte. Zur Behebung solcher Störungen wird im Rahmen von Retusche-Arbeiten eine individuelle Änderung der Bildpunktinformation durchgeführt. 6.2.2 Lokale Operatoren / Filterung im Ortsbereich Lokale Operatoren verwenden im Gegensatz zu den im vorigen Kapitel besprochenen Punktoperatoren auch Umgebungsinformation, d.h. Pixelwerte der Nachbarschaft zur Berechnung eines neuen Tonwertes. Übliche Nachbarschaften im zweidimensionalen Raum sind 4, 8 oder 24 Bildpunkte. Je mehr Nachbarn berücksichtigt werden, desto größer wird der Rechenaufwand. Abb. 52: Übliche Nachbarschaften lokaler Operatoren <?page no="119"?> 120 6 Bildbearbeitung Die lokalen Operatoren arbeiten dabei nach dem Konzept der Moving Windows (gleitende Fenster, Masken): Um ein aktuelles Pixel wird ein Operator-Fenster geöffnet. Der Operator verknüpft die entsprechenden Tonwerte im Fensterbereich und erzeugt unter Anwendung eines definierten Algorithmus einen Ergebnistonwert. Dieser wird dann in den aktuellen Bildpunkt des Ergebnisbildes eingetragen. Zur Verdeutlichung sei hier die Funktionsweise des Mittelwert- Operators vorgestellt: Der Mittelwertoperator reduziert als Glättungsfilter oder Weichzeichner das Rauschen im Bild durch das Mitteln von Pixelwerten. Typische Maskendimensionen sind 3 × 3 bzw. 5 × 5 Pixel. Berechnungsprinzip: Der betreffende Pixelwert wird durch den Durchschnitt seiner Nachbarn und sich selbst ersetzt, d.h. es erfolgt eine Mittelwertbildung der Grauwerte aller Pixel innerhalb der Filtermaske durch Aufsummierung der Grauwerte und Division durch die Zellenzahl des Filters (9, 25 etc.). Dem entsprechenden Bildpunkt im Ergebnisbild wird der so berechnete neue Grauwert (Tonwert) zugewiesen. Ein Zusammenhang zwischen der Größe der Filtermaske und dem Einfluss der Nachbarschaften auf den neuen Tonwert wird hier offensichtlich. Abb. 53: Beispiel zur Berechnung eines neuen Pixelwertes durch den Mittelwertoperator <?page no="120"?> 6.2 Workflow der Bildbearbeitung 121 Obiges Beispiel zeigt die Tonwertänderung des zentralen Bildpunktes im Filter durch die Anwendung des Mittelwertoperators. Hat der Bildpunkt im Originalbild noch einen Tonwert von 255 (offensichtlich ein durch Rauschen bedingter Ausreißer), so erhält der korrespondierende Bildpunkt im Ergebnisbild den Wert 93. Die Anwendung des Medianfilters als alternatives Verfahren (Medianwert der Tonwerte aller Bildpunkte im Filter wird dem Bildpunkt im Ergebnisbild zugewiesen) würde dem Zielpixel den Wert 51 zuweisen, d.h. das Rauschen ebenfalls unterdrücken. Die Filtermasken (Moving Windows) laufen bei den meisten Filteroperationen vom Ursprung der Matrix (linke obere Ecke) ausgehend über die Zellen und berechnen jeweils den Wert des zentralen Pixels. Nicht erreichte Randpixel erhalten einen definierten Wert. Die aktuell am Markt verfügbaren Produkte zur Bildbearbeitung bieten eine große Vielzahl an unterschiedlichen lokalen Operatoren (Filtern) an, bei denen zusätzlich auch die Maskendimension variiert werden kann. Die unterschiedlichen Filter können wir in Bezug auf ihre Effekte in verschiedene Gruppen von lokalen Operatoren zusammenfassen: Glättungsfilter bzw. Weichzeichner: Glättungsfilter sollen Störungen, die z.B. durch Rauschen entstehen, vermindern. Ebenso können sie zur Herabsetzung der Variabilität eingesetzt werden (z.B. Bildglättung, Kantenglättung). Beispiele hierfür sind der Mittelwertoperator, der Gauß'sche Tiefpass- Filter, der Medianfilter etc. Filter zur Kontrastverstärkung: Praktisch alle Digitalfotos, die nicht im RAW-Format vorliegen, müssen geschärft (Scharfzeichnen, Schärfen) werden, da die meisten Digitalkameras mit Anti-Aliasing-Filter ausgestattet sind (Bilder erscheinen dadurch z.T. etwas defocussiert). Beim Schärfen gehen jedoch häufig kleinere Bilddetails verloren, was bei der Anwendung berücksichtigt werden sollte. Beispiele für Filter <?page no="121"?> 122 6 Bildbearbeitung zur Kontrastverstärkung sind der High-Pass-Filter, der Filter Unscharf Maskieren USM etc. Filter zur Kantendetektion: Die Kanten eines Bildes differenzieren letztlich die Bildinhalte. Eine Kante findet sich dort, wo sich Grauwerte schnell und signifikant ändern. Die Kantendetektion wird z.B. als vorbereitender Arbeitsschritt bei der Bild-Segmentierung eingesetzt. Beispiele für Filter zur Kantendetektion sind u.a. der Sobel-Operator, der Nullsummenfilter (z.B. Laplace-Filter), der Canny Edge Detector etc. Abb. 54: Bsp. Filteranwendung zur Kantendetektion; links: Ausgangsbild, rechts Ergebnis nach Anwendung des Sobel-Operators (inverse Darstellung) 6.2.3 Globale Operatoren Globale Operatoren betrachten für die Transformation eines jeden Pixels immer das gesamte Bild. Sie spielen vor allem in der wissenschaftlichen Bildverarbeitung eine Rolle. Bekannteste Verfahren sind z.B. die Fourier-Transformation (z.B. Entfernen von Rauschen, Bestimmung von Form-Merkmalen von Objekten), die Radon-Transformation (z.B. Computertomographie), oder auch die Wavelet-Transformation. Da eine Besprechung der Verfahren aufgrund deren hohen Komplexität den Rahmen dieses Kapitels sprengen würde, sei an dieser Stelle auf die weiterführende Literatur hingewiesen. <?page no="122"?> 6.3 Bildanalyse 123 6.3 Bildanalyse Aufgrund der Tatsache, dass die vorgenannten Operationen zum Teil auch in der Bildanalyse Verwendung finden, sei an dieser Stelle noch ein kurzer Exkurs in diesen Themenbereich gestattet, wenngleich er als Teilbereich des Forschungsgebietes Computer Vision nicht Gegenstand der eigentlichen Datenvisualisierung darstellt. Im Rahmen der Bildanalyse versuchen wir durch Zerlegung des Bildes in Urbilder bekannte graphische Objekte (Kreise, Dreiecke etc.) zu identifizieren und zum Aufbau bekannter Datenstrukturen zu verwenden. Dabei erfolgt die Objekterkennung in den Bildern durch einen Vergleich mit bekannten Zerlegungen. Demzufolge werden in diesem Arbeitsgebiet sowohl Methoden der Bildverarbeitung (z.B. Zerlegung) sowie der Computer- Grafik (z.B. Komposition der Urbilder) verwendet. Betrachten wir die Funktionsweise der Mustererkennung in der menschlichen Wahrnehmung: Wir konzentrieren uns beim Betrachten von Objekten sehr stark auf die Grenzen zwischen homogenen Regionen und können so anhand weniger einfacher Umrisse Objekte in der Realwelt gut erkennen. Die Beschreibung des Übergangsbereichs zwischen homogenen Bildregionen ist demzufolge eine wichtige Strukturinformation hin zur objektorientierten Beschreibungsweise. Übergangsbereiche zwischen homogenen Regionen in Bildern kann man sehr gut mittels Kanten definieren. Die Kantendetektion stellt somit eine wichtige Stufe in der Vorgehensweise zur Objekterkennung dar. Nachfolgend sind einige Schritte zur Vorbereitung und Durchführung einer Bildanalyse skizziert: Schritt 1: Kantendetektion Problem der Kantendetektion: Tatsächliche Kantenpunkte sollen nicht zurückgewiesen werden. Gleichzeitig sollen aber Punkte, die zu keiner Kante gehören, auch nicht als Kante erkannt werden (Problematik des Rauschens). Der Workflow zur Kantendetektion kann dabei folgendermaßen beschrieben werden: Der Glättung des Ausgangsbildes folgt eine Kantenverstär- <?page no="123"?> 124 6 Bildbearbeitung kung z.B. mittels Hochpass-Filter. Durch ein zu definierendes Schwellenwertverfahren erhalten wir schließlich ein Kantenbild. Schritt 2: Skelettierung Die Skelettierung stellt ebenfalls einen wichtigen Schritt zur Merkmalsextraktion und Mustererkennung dar. Unter einem Skelett eines Objektes verstehen wir die Repräsentation der Figur durch ihre Mittelachsen. Dabei wird der Abstand eines Punktes innerhalb einer Figur zu allen Randpunkten berechnet. Schritt 3: Bildsegmentierung und Merkmalsextraktion Bildsegmentierung bedeutet die Unterteilung des Bildes in Teilbereiche unterschiedlicher Bedeutung, z.B. Trennung von Text, Grafik und Hintergrund in der Dokumentenanalyse. Durch die Unterteilung des Bildes in Punkte, Linien und Flächen erfolgt eine erste Bedeutungszuweisung. Schritt 4: Klassifikation Die höherwertige Bedeutungszuweisung wird in nachfolgenden Klassifikationsschritten vollzogen. Dabei wird einzelnen Bildbereichen eine symbolische Bedeutung zugeordnet (z.B. bestimmter Buchstabe, Auto, rotes Blutkörperchen). Eine Unterteilung des Bildes erfolgt entweder anhand der Homogenität innerhalb einer Region oder anhand der Inhomogenität am Rande, wobei aber auch Kriterien wie die Lage im Bild oder die Veränderung zum vorherigen Bild bei Sequenzen eine Rolle spielt. Abb. 55: Prinzipielle Vorgehensweise bei der Mustererkennung <?page no="124"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 125 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung Die Fernerkundung (Remote Sensing) ist das Beobachten, Kartieren und Interpretieren von Erscheinungen auf der Erdoberfläche, ohne die Gebiete betreten zu müssen. Im weiteren Sinne umfasst der wissenschaftliche Einsatz der Fernerkundung das Aufnehmen, Prozessieren und Interpretieren von Bildern und Daten, die von flugzeug- oder satellitengetragenen Sensoren aufgenommen werden und die eine Wechselwirkung zwischen Objekt und elektromagnetischer Strahlung aufzeichnen. Vor allem in den Umweltwissenschaften stellt die Fernerkundung neben den vorwiegend geländebezogenen Methoden ein verbreitetes Verfahren der Informationsgewinnung dar. Die Komplexität der Fernerkundung einerseits und die Komplexität der Umwelt andererseits, erfordern hierbei eine multidisziplinäre Arbeitsweise. Das älteste bekannte Luftbild aus Deutschland wurde 1887 von einem Fesselballon über dem Ort Zehdenick nördlich von Berlin für forstliche Zwecke aufgenommen. Der Beginn des Zeitalters der Fernerkundung war gesetzt. Die Faszination, die sich aus dem Perspektivenwechsel ergibt, zusammen mit der Erkenntnis, per Luftbild die Vermessungen, Karten und Kataster schneller aktualisieren zu können, führten - neben der großen Bedeutung für militärische Zwecke - rasch zu einer Etablierung dieser neuen Technik, die sich zunächst als reine Photogrammetrie mit dem Vermessen und der Erstellung von Karten und Ortho-Luftbildern (= geometrisch korrigierte maßstabstreue Luftbilder) auseinandersetzte. Die wichtigsten technologischen Entwicklungen, die den heutigen Stand der Fernerkundungstechnik bestimmen, sind nach Stabel und Lengert 48 folgende: 48 Stabel E. & W. Lengert (2013): Fernerkundung und Erdbeobachtungssysteme.- In: Fischer-Stabel (Hrsg.): Umweltinformationssys- <?page no="125"?> 126 6 Bildbearbeitung die Ausnutzung von sichtbaren und nicht sichtbaren Bereichen des elektromagnetischen Spektrums (beispielsweise das reflektierte und thermale Infrarot, Mikrowellen) der Einsatz von nicht-fotografischen Aufnahmemethoden (z.B. Multispektralabtaster, Radiometer, Radar [radio detection and ranging], Lidar [light detection and ranging]) der Einsatz von Drohnen, Flugzeugen und Satelliten als Aufnahmeplattformen der Einsatz von Computern zur Bearbeitung und Interpretation von Fernerkundungsdaten. Im Hinblick auf die Sensorik unterscheidet man zwischen passiven und aktiven Fernerkundungssystemen. Passive Systeme registrieren die reflektierten oder emittierten Abstrahlungen von der Erdoberfläche (vergleichbar der Tageslicht-Fotografie), aktive Systeme, wie beispielsweise die Radar- und Lasersysteme, besitzen eine eigene Strahlungsquelle, deren reflektierte Signale am Sensor aufgezeichnet werden (vergleichbar der Blitzlicht- Fotografie). Durch die Unabhängigkeit von der Sonneneinstrahlung sind letztere auch zur Durchführung von Nachtaufnahmen geeignet. Neben der räumlichen (Maß der kleinsten identifizierbaren Fläche) und zeitlichen Auflösung (Häufigkeit wiederkehrender Aufnahmen der gleichen Fläche pro Zeiteinheit) ist die spektrale Auflösung ein wesentliches Kennzeichen von Fernerkundungsdaten. Die spektrale Auflösung bezeichnet die Wellenlängenbereiche (auch: Kanäle), die von einem Instrument aufgezeichnet werden können. Unterschiede existieren hier in der Anzahl der Kanäle (panchromatisch, multispektral oder hyperspektral), den aufzuzeichnenden Wellenlängenbereichen (z.B. Band 1: 0,45 - 0,55 µm) sowie der Bandweite (z.B. 100 nm). Enge Bandweiten indizieren feine spektrale Auflösungen. Bei hyperspektralen teme. Grundlegende Konzepte und Anwendungen. Wichmann Verlag, Heidelberg <?page no="126"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 127 Aufnahmesystemen wird die spektrale Information mittels einer großen Anzahl an ca. 10 - 20 nm breiten Bändern aufgezeichnet (z.B. Hymap mit 128 Bändern). Die spektralen Signaturen agieren hier ähnlich der „bar codes“ zur Identifizierung von Materialien. Bei Multispektralsystemen liegen die Bandweiten in der Regel bei 100 - 200 nm. Die Forschungs- und Anwendungsbereiche, die mittels Methoden der Fernerkundung bearbeitet werden, sind recht vielfältig und umfassen unter anderem nachfolgende Felder: Wetterbeobachtung und -vorhersage; Siedlungsentwicklung und Monitoring von Megacitys; Biomassen- und Waldschadenskartierungen, Erfassung von Meeresverschmutzung (z.B. Oil Spill Monitoring), Gewässerqualität und Meeresoberflächentemperatur, Landnutzungskartierungen, Ertragsschätzungen für die Landwirtschaft; topographische Vermessungen und Aktualisierung von Kartenwerken und Geoinformation; Risk-Monitoring (z.B. Hochwasser, Tsunamis, Erdbeben, Vulkanismus); Überwachung von Gletschern an Polkappen und im Hochgebirge; Erfassung von Geologie und Morphologie ausgewählter Landschaften, Unterstützung bei der Lagerstättenkunde; Beobachtung langsamer Hebungs- und Senkungsprozesse der Erdoberfläche (Subsidence, Upsidence) und vieles mehr. Unabhängig vom gewählten Anwendungsgebiet ist fast immer eine zusätzliche Validierung ausgewählter Phänomene im Gelände erforderlich. Es existieren dabei mittlerweile eine Vielzahl an Datenprovider für aktuelle Fernerkundungsdaten, z.B. die verschiedenen Missionen des Copernicus-Projektes 49 von EU und ESA, Airbus 50 , NASA 51 , das Earth Observation Center der DLR 52 oder auch Eumetsat 53 , um nur einige wenige zu nennen. 49 http: / / www.copernicus.eu/ 50 https: / / www.intelligence-airbusds.com/ 51 https: / / visibleearth.nasa.gov/ 52 http: / / www.dlr.de/ eoc/ 53 https: / / www.eumetsat.int/ <?page no="127"?> 128 6 Bildbearbeitung Neben der direkten Interpretation des gewonnenen und in Bildform aufbereiteten Datenmaterials durch die jeweiligen Experten werden häufig Verfahren der Bildverarbeitung und - analyse eingesetzt, um den Informationsgehalt der gewonnenen Daten automatisiert zu entschlüsseln bzw. zu visualisieren. Ein weit verbreitetes Verfahren der Informationsgewinnung, die Klassifikation von multispektralen Reflexionswerten, wird nachfolgend kurz skizziert. 6.4.1 Pixelbasierte Klassifikation multispektraler Daten Die Informationsextraktion aus Daten der Fernerkundung ist ein mehrstufiger Prozess, der über folgenden Workflow durchgeführt werden kann: image restoration: Bildkorrektur; individuelle Pixelwerte werden bearbeitet, z.B. Bereinigung von Datenfehlern die durch sensor- oder atmosphärische Effekte bedingt sein können image rectification: geometrische Entzerrung und Korrektur der Rohdaten sowie die Überführung der Daten in ein definiertes Geo-Koordinatensystem image enhancement: Bildverbesserung, insbesondere radiometrische Korrekturen, die der Verbesserung der Signal- Identifikation der aufgenommenen Objekte dienen. Dies können Operationen sein, die sowohl das gesamte Bild betreffen als auch nur lokal korrigieren. Bspw. kommen hier auch Verfahren wie Histogrammspreizung oder lokale Filteroperationen zum Einsatz (vgl. Abschnitt 6.2). Zusätzlich erfolgt in diesem Schritt auch eine Trennung zwischen erwünschter und unerwünschter Information image classification: In diesem Schritt wird die eigentliche Klassifikation der Bilddaten als anwendungsbezogenes thematisches Prozessieren durchgeführt. Dabei ist eine maximale Separation der Klassen bei gleichzeitig größtmöglicher interner Homogenität der Klassen angestrebt. <?page no="128"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 129 Abb. 56: Workflow der Klassifikation von Fernerkundungsdaten 6.4.2 Grundprinzip der Klassifikationsverfahren Ein Ziel der Analyse von Daten der Fernerkundung ist die Erfassung des aktuellen Zustandes bzw. der aktuellen Situation an der Erdoberfläche. Hierbei sollen aus dem Datenmaterial +/ homogene Einheiten (z.B. topographische Einheiten) abgeleitet werden, welche in Form von Objektklassen die realen Verhältnisse auf der Erde widerspiegeln. Eine Objektklasse stellt dabei eine vom Interpreten definierte Gruppe von Geo- Objekten dar, welche für die Zielsetzung der Analyse relevant ist (z.B. Nadelwälder, Laubwälder, Ackerflächen, Bebauung, Gesteinstypen, Bodenarten etc.). Dabei macht man sich im Rahmen der Klassifikation zu Nutze, dass im Idealfall jede Objektklasse durch eine ihr typische multispektrale Signatur im digitalen Bild charakterisiert ist. Dies bedeutet, dass jede Objektklasse ein typisches Reflexionsverhalten <?page no="129"?> 130 6 Bildbearbeitung in den unterschiedlichen spektralen Bereichen besitzt, welches am Sensor aufgezeichnet wird (vgl. nachfolgende Abbildung). Abb. 57: Reflexionsverhalten verschiedener Substrate Eine objektklassenspezifische Multispektralsignatur wird durch die statistische Verteilung der Pixelwerte einer jeden Klasse hervorgerufen. Nun kann man mit Hilfe statistischer Verfahren versuchen, alle Pixel eines multispektralen Bildes im Hinblick auf die Ausprägung ihrer Spektralsignatur zu untersuchen und anschließend den definierten Objektklassen zuzuordnen. Nachfolgende Abbildung verdeutlicht das Grundprinzip der Klassenbildung in einem zweidimensionalen Raum. Es wird deutlich, dass nur Kanalkombinationen für Klassifikationen günstig sind, die hinsichtlich der zu differenzierenden Objektklassen so wenig Mischpixel (d.h. Pixel die zwei bzw. mehreren Klassen zugeordnet werden können) wie möglich aufweisen. Je größer die Schnittmenge im Merkmalsraum, desto uneindeutiger die Klassenzuweisung von Pixelgruppen. <?page no="130"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 131 Abb. 58: Zweidimensionaler (multispektraler) Merkmalsraum Die mathematisch-statistische Analyse wird mit Hilfe von Klassifikatoren durchgeführt. Wir unterscheiden dabei zwischen Verfahren der unüberwachten, d.h. rein statistische Verfahren ohne Nutzerinteraktion (unsupervised), oder der überwachten (supervised) Klassifikation (interaktiv durch Sach- und Geländekenntnis des Nutzers gesteuert) über alle verfügbaren Kanäle (Merkmalsraum) sowie deren Derivate (z.B. Ratios). 54 Wie Sie unschwer erkennen können, hängt die Güte einer Klassifikation dabei wesentlich davon ab, wie eindeutig die Multispektralsignatur jeder Objektklasse ist. Weitere Kriterien, welche die Güte der Klassifikation beeinflussen, sind die Übereinstimmung der stichprobenhaft gewonnenen Geländekenntnis (ground truth) in einem Testgebiet mit den Ergebnissen der Klassifikation, sowie der verwendete Klassifikatoren-Typ (z.B. Cluster-Analyse, Maximum-Likelihood-Verfahren, Minimum- Distance-Verfahren). Durch die Problematik der Mischpixelsignaturen, aber auch durch normale Umwelteinflüsse wie Bodenfeuchtemuster an der 54 http: / / ivvgeo.uni-muenster.de/ vorlesung/ FE_Script/ 3_7.html <?page no="131"?> 132 6 Bildbearbeitung Erdoberfläche, unterschiedlich intensive Belichtung, Schatteneffekte o.ä. sind die Ziele einer Klassifikation (maximale Separation, Homogenität der Klassen, Vollständigkeit der Pixelzuordnung) zusammen nicht zu 100% erfüllbar. Abb. 59: Zusammenhang zwischen angestrebter Klassenhomogenität, bestmöglicher Klassentrennung und der vollständigen Zuordnung aller Pixel eines Bildes Die Nachteile pixelbasierter Verfahren werden bei der Anwendung dieser Verfahren auf hochaufgelöste Daten deutlich: Bei Vorliegen einer die Objektgröße unterschreitenden Bodenauflösung werden objektspezifische Variationen (z.B. Wasserpfützen bzw. Feuchtestellen auf Sportplätzen) als eigene Objekte erkannt und einer eigenen Objektkategorie zugeordnet. Der Anteil fehlklassifizierter Flächen kann damit signifikant ansteigen. Um trotzdem auch bei geometrisch hochaufgelösten Bildern gute Ergebnisse zu erhalten, werden bei den objektorientierten Verfahren - neben den spektralen - zusätzlich auch geometrische Eigenschaften berücksichtigt. Durch Texturanalysen und eine darauf aufbauende Segmentierung von Objekten wird das Ergebnis der Bildanalyse hierbei z.T. signifikant verbessert. 6.4.3 Überwachte Klassifikation Bei der überwachten Klassifikation werden durch Geländebegehung oder einer manuellen Analyse hochaufgelöster Luftbilder <?page no="132"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 133 zunächst sogenannte „Trainingsgebiete“ definiert. Deren Klassenzugehörigkeit ist bekannt, sodass diese zur Gewinnung von Referenzmustern der zu klassifizierenden Objekte herangezogen werden können (ground truth). In dieser Trainingsphase wird ein Teil des Expertenwissens in die Klassifikation integriert. Die Trainingsgebiete müssen bestimmten Kriterien genügen (u.a. möglichst homogene Objekte der Realwelt umfassen (z.B. Laubwald, Nadelwald, Maispflanzung, Versiegelungsflächen), um als eine ausreichende statistische Stichprobe gelten zu können. Dabei muss ein Kompromiss zwischen statistischer Aussagekraft, Homogenität und Zeitaufwand gefunden werden. „Für pixelbasierte Klassifikationen wird als Richtlinie das zehnbis hundertfache der verwendeten Klassifikationslayer angegeben. Weiterhin müssen die Trainingsgebiete möglichst alle Subtypen einer Klasse abdecken und räumlich gut über das Untersuchungsgebiet verteilt sein.“ 55 Im Minimum-Distance-Verfahren, einer einfachen Methode, welche schnell brauchbare Ergebnisse liefert, werden anschließend zunächst für die Trainingsgebiete jeder Objektklasse die Mittelwerte der einzelnen Spektralkanäle berechnet. Für jedes zu klassifizierende Bildelement wird dann der Abstand zu den Mittelpunkten aller Klassen berechnet. Das betreffende Pixel wird dann jener Klasse zugeteilt, zu deren Mittelpunkt der Abstand am geringsten ist. Zwar kommt es auch hier aufgrund der oft hohen spektralen Streuung innerhalb einer definierten Klasse zu Fehlzuordnungen von Pixeln, da die Klassifikation jedoch überwacht, d.h. unter Nutzerinteraktion durchgeführt wird, kann nun interaktiv die Wahl des Trainingsgebietes oder die Änderung der Bandkombination zu einer Verbesserung des Klassifikationsergebnis führen. 55 Hohnecker Ulrich (2005): Digitale Bildvearbeitung. In: Fischer- Stabel, P. (Hrsg.) (2005): Umweltinformationssysteme. Wichmann Verlag Heidelberg <?page no="133"?> 134 6 Bildbearbeitung Nachfolgende Abbildung zeigt generisch den Ablauf einer überwachten, pixelbasierten Klassifizierung von Fernerkundungsdaten. Abb. 60: Workflow-überwachte Klassifizierung in Anlehnung an Lillesand et al. 56 6.4.4 Anwendungsbeispiel: Erfassung von versiegelten Flächen 6.4.4.1 Hintergrund zur Problematik der Bodenversiegelung Die Inanspruchnahme neuer Flächen für Siedlung und Verkehr ist in Deutschland noch immer ungebremst. Zwar betrug der tägliche Flächenverbrauch im Jahr 2001 durchschnittlich nur noch 117 ha; 1997 bis 2000 waren dies noch 129 ha/ Tag, jedoch hat sich hierdurch die Siedlungs- und Verkehrsfläche im Jahr 2001 insgesamt um 428 km 2 vergrößert, sodass mittlerweile 12,4% der Bodenfläche Deutschlands für Siedlungs- und Verkehrsflächen in Anspruch genommen werden (RBZ 2003). Obwohl diese Angaben zwar erhebliche raumplanerische Relevanz besitzen, liefert die amtliche Statistik keine quantitativen und qualitativen Aussagen bzgl. des tatsächlichen Ausmaßes der Beeinträchtigung der Bodenfunktionalitäten durch Überbauung und Versiegelung. 56 Lillesand, T. & Kiefer, R., J. Chipman (2015): Remote Sensing and Image Interpretation. 7 th edition, Wiley, New York. <?page no="134"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 135 Dem vorsorgenden Bodenschutz mangelt es insoweit an flächendeckend vorliegenden und zudem aktuellen Informationen, um die in diversen amtlichen Statistiken und Publikationen immer wieder auftauchenden Angaben zum „Flächenverbrauch“ aus der Sicht des Bodenschutzes objektiv einordnen zu können. Zahlreiche internationale Konferenzen belegen den diesbezüglichen Handlungsbedarf (z.B. UN-Konferenz für Umwelt und Entwicklung in Rio de Janeiro (lokale Agenda 21), Habitat II in Istanbul 1996, Kapstadt 2002), der auch maßgeblich in der Nachhaltigkeitsstrategie des Bundes zum Ausdruck kommt. Mit dem Aufkommen neuer Sensoren sowohl im Bereich der spektralen als auch der geometrischen Auflösung bietet die Fernerkundung ein interessantes Methodenset auf dem Gebiet der operationellen flächenhaften Erfassung von Versiegelungsflächen an, und kann als Ausgangsbasis für vertiefende Untersuchungen und zur Maßnahmeneinleitung im kommunalen Bereich sowie auf Landesebene angesehen werden. Die Anforderungen an eine Erfassung der Versiegelungssituation sind aufgrund der Realisierbarkeit maßstabsabhängig zu betrachten. Im Bereich kleiner Untersuchungsmaßstäbe wird i.d.R. eine quantitative Unterscheidung nach Flächenanteilen (Prozentanteil versiegelt / unversiegelt) durchgeführt. Darüber hinaus können bei größeren Maßstabsbereichen neben der quantitativen Unterscheidung auch qualitative, funktionale Merkmale der Oberflächenmaterialien (material- und nutzungsabhängig) erfasst werden. 6.4.4.2 Erfassungsmethoden zur Bodenversiegelung Auf dem Gebiet der Erfassung der Bodenversiegelung existieren zwei Verfahrensgruppen, welche sich sowohl bzgl. des Arbeits- und Zeitaufwandes als auch bzgl. der erreichbaren geometrischen und semantischen (umweltfachlichen) Genauigkeit signifikant unterscheiden. Es sind dies die terrestrischen Erhebungsmethoden, sowie die <?page no="135"?> 136 6 Bildbearbeitung fernerkundungsbasierten Verfahren. Aufgrund der Vorteile der fernerkundungsbasierten Verfahren, die insbesondere in der Möglichkeit einer flächenhaften kostengünstigen Datenerfassung sowie auf dem Gebiet der Automatisierung in der Datenauswertung zu finden sind, ist deren Potenzial im Bereich der Erfassung der Bodenversiegelung enorm. Sie können z.B. für verschiedene Anwendungsbereiche des Stadt- Managements den Bedarf an aktualisierter Information decken. Vor allem in den sogenannten Megacities werden mittels der verfügbaren Sensoren bspw. hochexpansive Stadtregionen in ihrer Entwicklung überwacht (z.B. Cairo, Buenos Aires), urbane Siedlungsstrukturen analysiert oder Subsidence-Phänomene gemessen (z.B. Bangkok, Jakarta, Hanoi). Grundsätzlich muss zwischen drei Methoden der Bildauswertung unterschieden werden: Manuelle Bildauswertung analoger Daten (Stereoskop, Bilder u. Karten), computergestützte Auswertung digitaler und digitalisierter Daten (on-screen digitizing), und automatisierte digitale Bildanalyse in einem Computersystem mit geeigneter Software. Insbesondere bei den beiden ersten Formen der visuellen Bildinterpretation ist hinsichtlich der zu erwartenden Qualität des Ergebnisses eine direkte Abhängigkeit von der Erfahrung und den Vorkenntnissen des Interpreten gegeben. Erfahrene Anwender erreichen hier Fehlerquoten < 3% (Lohmann 57 ), die mit Methoden der vollständig automatisierten digitalen Bildverarbeitung i.d.R. nicht zu erreichen sind. Für ein hochwertiges Ergebnis einer visuellen Auswertung detaillierter Bilddaten ist die Abgrenzung einzelner Objekte von 57 Lohmann, P. (1997): GIS gestützte Erhebung von Abwassergebühren in einer Kommune. In: Breuer, T., C. Gläßer & C. Jürgens (Hrsg.): Fernerkundung in urbanen Räumen. Regensburg, Selbstverlag der Universität Regensburg. <?page no="136"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 137 hoher Bedeutung. Die Detektion von Kanten (signifikanter Kontrast) ist eine bewährte Methode zur Betonung der Umrissstrukturen einzelner Objekte. Der Laplace-Filter zur Kantenverstärkung wird in urbanen Gebieten hierbei empfohlen, da von der Laufrichtung der Bildobjekte unabhängige Ergebnisse geliefert werden. Der Sobel-Filter ist in diesem Anwendungsfeld ebenfalls zur Detektion vertikaler und horizontaler Kanten gut geeignet. Allen Verfahren zur Versiegelungserhebung ist gemein, dass sie neben anderen Daten auch einen Vegetationsindex verwenden. Dies basiert auf der Annahme, dass vegetationsbestandene Flächen größtenteils komplementär zur versiegelten Fläche auftreten. Nachfolgend wird das Prinzip des Vegetationsindex beschrieben. 6.4.4.3 Vegetationsindex NDVI Vegetationsbestandene Flächen können Äcker, Wiesen, Wälder oder aber auch Sukzessionsflächen sein. Im urbanen Bereich treten sie in Form von Park- und Schrebergartenanlagen, Straßenrandbegrünung oder auch kleineren Waldflächen auf. Insbesondere in den gemäßigten Breiten mit überwiegend tropophilen Gehölzen ist eine starke Abhängigkeit des Rückstrahlverhaltens von der jahreszeitlich bedingten Vegetationsperiode abhängig. Das Reflexionsmaximum von Vegetation liegt bei 800 nm und größer. Grüne Pflanzen absorbieren im sichtbaren Licht einen Teil der einfallenden Strahlung (Photosynthese), beim Übergang zum Infrarot (700 nm) nimmt die Reflexion jedoch stark zu und liegt im gesamten Infrarotbereich zwischen 40- 50%. Da die Lichtabsorption versiegelter und offener Bodenflächen über den gesamten Bereich gleichmäßig ansteigt, lassen sich diese Flächentypen eindeutig von den Vegetationsbereichen abtrennen. Häufige Verwendung findet in diesem Zusammenhang der Normalized Difference Vegetation Index (NDVI). Er ist ein Quotient, der die Differenz zwischen nahem Infrarot und sichtbarem Rot durch die Summe der reflektierten Strahlung aus <?page no="137"?> 138 6 Bildbearbeitung beiden Kanälen dividiert. Ausgehend von der Annahme, dass versiegelte Flächen im Allgemeinen wenig Vegetationsbestand aufweisen, wurden solche Indizes bereits früh zur Trennung und Qualifizierung von vegetationsbestandenen und versiegelten Flächen eingesetzt. Neben dem NDVI wurden noch weitere Vegetationsindices entwickelt (z.B. green vegetation index, perpendicular vegetation index, transformierter NDVI (TND- VI), ratio-vegetation index RVI), die sich alle den Reflexionsunterschied zwischen sichtbarem Rot und nahen Infrarot zu Nutze machen. Mit folgender Formel wurde bspw. der NDVI von IKONOS- Fernerkundungsdaten bestimmt: NDVI IKONOSGRAYSCALE = (1+((NIR-RED)/ (NIR+RED)))*128 Die Erstellung eines Vegetationsindex zählt zu den Verfahren der Bildverbesserung, da sich durch die einfache rechnerische Verknüpfung (Addition bzw. Subtraktion der Werte von zwei oder mehr Kanälen) oder eine Verhältnisbildung zweier Kanäle (Rationing) Phänomene besser hervorheben (z.B. Vegetation bzw. Biomasse) oder unterdrücken (z.B. Schatteneffekte) lassen. Nach der NDVI-Bestimmung wurden die Ergebnisse klassifiziert und in Kombination mit weiteren Geodaten den Objektklassen „versiegelter Bereich“, „Wasser“, „Bäume & Sträucher“, „Wiese“ sowie „offene Böden“ zugeordnet. Neben der hochgenauen Identifizierung der versiegelten Flächen für z.B. kommunale Anwendungen war die Erstellung einer Übersichtskarte, in der Versiegelungsklassen des Untersuchungsgebiets im Maßstabsbereich 1 : 25.000 dargestellt werden, angestrebt. Hierfür wurde mittels Majority-Filter ein filterbasiertes Verfahren eingesetzt, welches durch eine Nachbarschaftsanalyse die Versiegelungsklassen berechnet. Hierbei wurden das NDVI-Raster zuerst in drei Gruppen reklassifiziert (Wasser = 1, versiegelt = 10, unversiegelt = 150). Im Anschluss daran wurde eine 3 × 3bzw. 5 × 5-Filtermatrix definiert, welche anhand der Umgebungsdaten dem zentralen Pixel den arithmetischen Mittelwert der im Filterbereich vorgefundenen Pixelwerte zuordnet. <?page no="138"?> 6.4 Bildanalyse am Beispiel von Daten der Fernerkundung 139 6.4.4.4 Ergebnisse Die nachfolgend abgebildete Karte zeigt den aus multispektraldaten abgeleiteten Versiegelungsgrad im Stadtgebiet von Mainz, aufgeteilt in sieben Versiegelungsklassen (unversiegelt bis vollversiegelt), überlagert mit dem Straßennetz aus dem ATKIS- System (Amtliches Topographisch-Kartographisches Informationssystem). Deutlich sind im Innenstadtbereich die Park- und Grünanlagen zu erkennen. Abb. 61: Versiegelungsgrad der Stadt Mainz (Stand 2004) abgeleitet aus IKONOS-Satellitendaten Vergleicht man das Ergebnis der satellitengestützten Versiegelungsauswertung mit den Daten des ATKIS-Systems, so erkennt man in den verschiedenen ATKIS-Objekten zwar eine Vielzahl semantischer Informationen die im Klassifikationsergebnis nicht enthalten sind (z.B. Sportplatz, Hafenanlagen etc.), bezüglich der fragestellungsbezogenen Information (Grad der tatsäch- <?page no="139"?> 140 6 Bildbearbeitung lichen Versiegelung) sind die Daten der Fernerkundung jedoch wesentlich genauer und sicher auch aktueller. Nachfolgende Abbildung stellt beispielhaft die erwähnten Datengrundlagen (ATKIS, Satellitenauswertung, Versiegelungskarte der Stadt Mainz) anhand eines Ausschnitts aus dem Bereich des nordöstlichen Stadtzentrums gegenüber. Abb. 62: Gegenüberstellung von ATKIS-Information, Versiegelungsklassen der Satellitenbildauswertung (Mitte) und der Versiegelungskarte der Stadt Mainz (Stadtzentrum Mainz-NO) Neben den erwähnten Unterschieden zwischen dem Ergebnis der ausgewerteten Satellitendaten und der Darstellung der versiegelungsbezogenen Information aus dem ATKIS-Datenbestand zeigt auch ein Vergleich mit der Karte des Versiegelungszustandes der Stadt Mainz (Stand: 1991), dass durch die Analyse der Erdbeobachtungsdaten die Versiegelungssituation wesentlich differenzierter erfasst werden konnte 58 . 58 Fischer-Stabel P., K. Schäfer & S. Wannemacher (2004): Satellitenbasierte Erfassung von Versiegelungsflächen - Entwicklung eines operationellen Auswerteverfahrens. Ministerium für Umwelt und Forsten Rheinland-Pfalz, Forschungsbericht AZ 1075-89780-15, Mainz <?page no="140"?> 6.5 Weitere ausgewählte Operationen mit Bildern 141 6.5 Weitere ausgewählte Operationen mit Bildern Bisher hatten wir die Vorteile der Sensorik gegenüber dem menschlichen Auge besprochen (z.B. Spektralbereich). Es existieren teilweise aber auch Beschränkungen der Kameratechnik, denen das Auge nicht unterliegt. Als Beispiele seien hier z.B. das Sehfeld sowie der mittels Auge wahrnehmbare Kontrastbereich erwähnt. Zur Umgehung dieser technischen Beschränkungen existieren jedoch Verfahren, die nachfolgend besprochen werden. 6.5.1 Stitching Vergleichen wir das menschliche Sehfeld (~ 135 × 190°) mit demjenigen einer handelsüblichen Digitalkamera ( ~ 35 × 50 °), so erkennen wir auf den ersten Blick den Vorteil des menschlichen Auges. Die Frage, die sich dem Fotografen stellt, lautet nun, wie wir aus verschiedenen Einzelaufnahmen Szenen erzeugen können, die in ihrer horizontalen und vertikalen Ausdehnung dem menschlichen Sehfeld entsprechen. Eine Lösung bietet die Methode des Stitching an. Stitching bezeichnet in der Fotografie das Erstellen einer großen Fotografie aus verschiedenen kleineren Einzelaufnahmen. Der Begriff „Stitch“ bedeutet übersetzt aus dem Englischen „nähen“ oder „zusammenheften“ (to stitch together). Stitching wird vorwiegend für Aufnahmen genutzt, welche aufgrund ihrer Dimensionen nicht mittels einer Fotografie erfasst werden können. Anwendungsfelder: Zusammensetzen von Einzelaufnahmen zu einem Panorama (z. B. Landschaftspanoramas) Zusammensetzen von Einzelaufnahmen eines großen Objekts (z. B. Architekturaufnahmen) Erstellung einer hochaufgelösten Bilddatei. Auf diese Weise kann die ggf. unzureichende Bildauflösung von digitalen <?page no="141"?> 142 6 Bildbearbeitung Kameras durch nachträgliches Verarbeiten erweitert werden. Damit wird die Möglichkeit geschaffen, hochaufgelöste großformatige Aufnahmen zu erstellen. Stitching erfordert die Erstellung aller Teilbilder vom gleichen Aufnahmestandpunkt sowie überlappende Bildbereiche zur Identifikation korrespondierender Bildelemente. Der Stitching- Prozess verläuft dabei in drei Schritten: Erkennen korrespondierender Objektelemente (z.B. RAN- SAC-Algorithmus) Umrechnung der Ausgangsbilder in das gleiche kartesische Koordinatensystem Zusammensetzen der Teilbilder (mit einer meist notwendigen Belichtungskorrektur). Für die Umrechnung der 2D-Abbildung in ein kartesisches Koordinatensystem gibt es mehrere Möglichkeiten mit unterschiedlichen Stärken und Schwächen. Bei diesen Projektionen wird aber nicht die Art der 3D-2D-Reduktion verändert, d.h. es erfolgt keine Veränderung von Verdeckungen sowie keine Veränderungen von Größenverhältnissen zwischen Objekten unterschiedlicher Entfernungen. Ebenso erfolgt keine Veränderung der Lage unterschiedlicher Objekte. Bei stark entzerrten Projektionen kann dies zu ungewohnten Bildern führen. Abb. 63: Landschaftspanorama als (vorläufiges) Ergebnis eines Stitching- Prozesses (Nachbearbeitung erforderlich) 6.5.2 Mosaicing Ein ähnliches Verfahren, welches insbesondere auch in der Fernerkundung (z.B. Erdbeobachtung mittels Satellitenbildern) <?page no="142"?> 6.5 Weitere ausgewählte Operationen mit Bildern 143 eingesetzt wird ist das Mosaicing von unterschiedlichen Bildern. Das Problem besteht darin, dass es nicht immer möglich ist, eine Szene vollständig scharf abzubilden (z.B. Fehlfokussierung, Schärfentiefe, Bewegungsunschärfe, Wolkenbedeckung etc.). Der Lösungsansatz liegt dabei in einer Kombination mehrerer teilweise unscharfer Bilder hin zu einem scharfen Bild begründet. Beim Mosaicing werden also - ähnlich dem Stitching - verschiedene Bilder miteinander verschmolzen. Mit diesem Verfahren werden zwei bzw. mehrere Bilder in Bildpyramiden zerlegt, mit Hilfe einer Maske gewichtet und aufsummiert. Anschließend wird das Bild rekonstruiert und eventuell nachbearbeitet. Wir unterscheiden dabei zwei Vorgehensweisen: Direktes Verfahren: alle Pixelinformation wird verwendet. Es wird eine Überlagerung und anschließende Mittelwertbildung der Pixelinformation durchgeführt Feature-basiertes Verfahren: Erkennen scharfer Bildteile; Erkennen von Zusammenhängen zwischen Bildteilen (siehe RANSAC-Algorithmus); Zusammensetzen der jeweils schärfsten Bildteile (Verschmelzen der Bildteile = Image Blending); geometrische Korrektur falls nötig (Image Warping = Verzerrung) 6.5.3 High Dynamic Range (HDR)-Fotografie Der Begriff Dynamic Range bedeutet so viel wie Dynamikbereich eines Bildes. Er ist gleichbedeutend mit dem Begriff Kontrastumfang. Der Kontrastumfang eines Bildes wird durch das Verhältnis von den hellsten zu den dunkelsten Farbwerten bestimmt. Dieses Verhältnis wird durch ein Quotient beschrieben. Bei einem Bild mit einem Kontrastverhältnis von 10: 1 ist der hellste Punkt um ein zehnfaches höher als der dunkelste. Das reine Schwarz wird bei dieser Rechnung nicht hinzugezogen, da für Schwarz kein Vergleichswert existiert. <?page no="143"?> 144 6 Bildbearbeitung Abb. 64: Beispiel Kontrastumfang (10 : 1) Betrachten wir die Helligkeitsunterschiede an einem sonnigen Tag bzw. wenn eine direkte Lichtquelle sichtbar ist, so ist ein Kontrastumfang bzw. ein Kontrastverhältnis von bis zu 1.000.000 : 1 durchaus möglich 59 . Aber auch wenn wir uns nicht im Extrembereich bewegen, hat eine Standardszene für das menschliche Auge einen Kontrastumfang von ca. 10.000 : 1. Die Sensorik in Standard-Kamerasystemen bildet demgegenüber jedoch lediglich ein Kontrastverhältnis von 1.000 : 1 ab (LDR- Kamera = Low Dynamic Range). Bis heute ist es noch nicht möglich, das gesamte Helligkeitsspektrum einer Szene in einer Fotografie festzuhalten. Die Idee hinter der HDR-Fotografie besteht nun darin, HDR- Bilder zu erzeugen, um den Kontrastumfang an die Realität anzupassen. High Dynamic Range Image bedeutet dementsprechend so viel wie: Hochkontrastbild. Es existieren unterschiedliche Möglichkeiten der Erzeugung von HDR-Bildern: Spezialkameras: aktuell sind Bildsensoren in Entwicklung, die ein Bild mit vollem Dynamikumfang direkt erfassen können mittels 3D-Computergrafiken künstlich erzeugen indem HDR-Bilder aus Bildern mit einem geringen Dynamikumfang (so genannten Low-Dynamic-Range (LDR)-Bildern) zusammengefügt werden, erhöht sich ihr Kontrastumfang. Durch dieses Verfahren werden die Helligkeitsunterschiede eines Bildes realitätsnäher dargestellt. 59 Busse Dirk (2010): High Dynamic Range Imaging. Bachelorarbeit, Umwelt-Campus Birkenfeld, Hochschule Trier, Trier <?page no="144"?> 6.5 Weitere ausgewählte Operationen mit Bildern 145 Abb. 65 : Prinzip der Erzeugung von HDR-Bildern mittels einer LDR- Kamera 60 Prinzipielle Vorgehensweise zur Erzeugung von HDR-Bildern: eine Szene wird mehrmals mit unterschiedlichen Belichtungszeiten aufgenommen jedes Bild enthält dadurch unterschiedliche Pixel, die über- oder unterbelichtet wurden es wird davon ausgegangen, dass die Helligkeit und Farbe der meisten Pixel in mindestens einem Bild der Serie korrekt wiedergegeben wird. jedes Einzelbild wird auf die gleiche Helligkeitseinheit gebracht, indem man die Pixelwerte durch die Belichtungszeit teilt. Erzeugung eines finalen HDR-Bildes, indem der Mittelwert der Einzelbilder unter Ausschluss der über- und unterbelichteten Pixel berechnet wird. HDR-Bilder können durchaus manuell erzeugt werden. Aktuelle Kamera- und Softwaresysteme in Kameras bzw. Smartphones ermöglichen jedoch zunehmend die Erstellung von HDR- Bildern ohne Nutzerinteraktion. Der Anwendungsbereich von HDR-Bildern ist recht vielfältig und reicht von der Vermeidung von Über-und Unterbelichtung, sowie zur realitätsnahen Darstellung fotografischer Szenen in 60 Busse Dirk (2010): High Dynamic Range Imaging. Bachelorarbeit, Umwelt-Campus Birkenfeld, Hochschule Trier, Trier <?page no="145"?> 146 6 Bildbearbeitung der Digitalfotografie, über den Einsatz in der Werbe-Industrie (z.B. Darstellung von Ausblicken aus Fenstern, bei denen sowohl der Raum als auch der Außenbereich geeignet abgebildet werden), bis hin zur 3D-Modellierung, um realistische Spiegelung und Ausleuchtungseffekte zu erreichen. 6.5.4 Morphing Morphing beschreibt ursprünglich den Prozess eines fließenden Übergangs von einem Ausgangszu einem Endzustand. Wir verstehen darunter auf dem Gebiet der Visualisierung eine Animationstechnik zur Produktion von Metamorphosen, fiktiven Porträts etc. Um eine solche Metamorphose von z.B. Gesichtern durchzuführen benötigen wir zwei Ausgangsbilder, die sich in Größe und Auflösung ähneln. Nach einer ggf. erforderlichen Angleichung der Tonwerte sowie der Umsetzung weiterer bildverbessernder Maßnahmen werden in beiden Bildern Fixpunkte definiert, die im Rahmen des Morphing-Prozesses zusammengeführt werden sollen. Je mehr Bildpunkte in diesem Schritt gewählt werden, desto störungsfreier verläuft schließlich die final durchzuführende Verschmelzung beider Bilder. 6.6 Weiterführende Literatur Enarnaco J., Strasser W.& R. Klein. Graphische Datenverarbeitung 2 - Modellierung komplexer Objekte und photorealistische Bilderzeugung. 4. Auflage.Oldenbourg Verlag, 1998 Jähne Bernd (2012): Digitale Bildverarbeitung und Bildgewinnung. 7. Auflage.Springer Verlag, Heidelberg Lillesand, T. & Kiefer, R., J. Chipman (2015): Remote Sensing and Image Interpretation. 7 th edition, Wiley, New York. Nischwitz A., M. Fischer, P. Haberäcker & G. Socher (2011): Computergrafik und Bildverarbeitung. Band 2: Bildverarbeitung. 3. Auflage. Vieweg + Teubner Verlag, Wiesbaden <?page no="146"?> 7 Augmented Reality Augmented Reality (deutsch: erweiterte Realität) bezeichnet eine Technologie, die es ermöglicht, die reale Umgebung der Nutzenden durch die Einblendung von digitalen Inhalten zu erweitern. Das folgende Kapitel bietet einen Einstieg in die Grundlagen von Augmented Reality. Dabei wird zunächst auf die allgemeinen Aspekte und Merkmale der Technologie eingegangen. Außerdem werden die vielfältigen Anwendungsmöglichkeiten der Technologie betrachtet. Im Anschluss folgt eine Einführung in die technischen Hintergründe sowie eine aktuelle Übersicht über hilfreiche Entwicklerwerkzeuge aus dem Augmented Reality Bereich. Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie die grundlegenden Prinzipien von Augmented Reality verstehen Anwendungsfelder von Augmented Reality einschätzen können einen Überblick über den aktuellen Stand der Technik sowie über aktuelle Entwicklerwerkzeuge haben die technischen Möglichkeiten und Grenzen von Augmented Reality einordnen können <?page no="147"?> 148 7 Augmented Reality 7.1 Begriffsklärung Unter dem Begriff Augmented Reality (kurz: AR) werden verschiedene technische Verfahren und Prinzipien mit dem gemeinsamen Ziel zusammengefasst, die Wahrnehmung der realen Umwelt durch synthetische Bestandteile zu erweitern. Konzeptionell sind hierbei zwar Erweiterungen für alle menschlichen Sinne denkbar, im Folgenden wird jedoch nur der bedeutendste Bereich der visuellen AR behandelt. Dabei werden digitale Objekte in Echtzeit in die direkte Umgebung des Anwenders projiziert. Auch wenn die Technologie erst in den letzten Jahren einer breiteren Öffentlichkeit zugänglich wurde, besteht das Grundkonzept schon deutlich länger. Eine der verbreitetsten Definitionen stammt aus einer Veröffentlichung von Ronald Azuma 61 aus dem Jahre 1997. In Abgrenzung zu dem verwandten Konzept der virtuellen Realität (Virtual Reality) beschreibt Azuma Augmented Reality sinngemäß wie folgt: Während der Nutzer bei Virtual Reality (VR) in eine gänzlich virtuelle Welt eintaucht, bleibt bei Augmented Reality die reale Umgebung der Anwendenden präsent. Diese wird jedoch durch die Einbindung von digitalen Inhalten erweitert. Hieraus lässt sich auch die Bezeichnung Augmented Reality herleiten: AR-Anwendungen ergänzen („augmentieren“) die Realität des Anwenders, statt diese komplett durch eine virtuelle Welt zu ersetzen. Idealerweise erscheint es für den Nutzenden so, als würden die realen und die digitalen Objekte im selben Raum existieren. Die Art der möglichen Erweiterungen ist sehr vielfältig. Von reinen Textbausteinen bis hin zu komplexen 3D- Modellen ist grundsätzlich alles möglich, was mit Hilfe eines 61 Azuma, R. T. (1997). A survey of augmented reality. Presence: Teleoperators & Virtual Environments, 6(4), (S. 355-385). <?page no="148"?> 7.1 Begriffsklärung 149 Rechners visualisiert werden kann. Auch die Darstellung der digitalen Inhalte kann auf sehr unterschiedliche Weise erfolgen. Insgesamt lassen sich dennoch einige grundlegenden Merkmale bei allen Augmented-Reality-Systemen ausmachen. Wichtige Eigenschaften von Augmented Reality sind: Visuelle Kombination von realen und virtuellen Objekten Glaubhafte Platzierung der virtuellen Objekte im dreidimensionalen Raum Echtzeit und Interaktivität Der letzte Punkt verdeutlicht, dass beispielsweise Spezialeffekte und Computeranimationen bei Filmen nicht zum Augmented- Reality-Bereich zählen. Zwar werden dabei auch Aufnahmen der realen Welt durch digitale Modelle erweitert, diese Überblendungen erfolgen jedoch nicht in Echtzeit und ohne Interaktionsmöglichkeiten für den Anwender. Häufig taucht im Kontext von Augmented Reality auch der Begriff Mixed Reality (MR) auf, welcher grundsätzlich alle Anwendungsformen zwischen rein realer und rein virtueller Welt umfasst. Der Zusammenhang zwischen den unterschiedlichen Technologien wird durch das weit verbreitete Reality-Virtuality- Kontinuum von Milgram und Kishino 62 aus dem Jahre 1994 verdeutlicht, welches in der folgenden Grafik zu erkennen ist. Abb. 66: Realitäts-Virtualitäts-Kontinuum nach Milgram und Kishino 62 Milgram, P., & Kishino, F. (1994). A taxonomy of mixed reality visual displays. IEICE Transactions on Information and Systems, 77(12), (S. 1321-1329). <?page no="149"?> 150 7 Augmented Reality Der Mixed-Reality-Bereich umfasst demnach neben Augmented Reality auch die sogenannte Erweiterte Virtualität (Augmented Virtuality). Unter diesem Begriff sind Anwendungen zu verstehen, die zwar in einer vorwiegend virtuellen Umgebung stattfinden, aber durch Aspekte der realen Welt ergänzt werden. Die Bezeichnung Augmented Virtuality wird heute allerdings kaum noch genutzt. Die Begriffe Augmented Reality und Mixed Reality hingegen werden inzwischen weitgehend synonym verwendet. 7.2 Historische Entwicklung und Anwendungsbereiche Erste AR-Anwendungen wurden vereinzelt schon in den 1990er Jahren veröffentlicht. Das AR-System Virtual Fixtures 63 , welches zum Training von Piloten der amerikanischen Luftwaffe verwendet wurde, gilt als eines der frühesten Augmented- Reality-Systeme. Zunächst bleibt die Technologie jedoch weitgehend den Fachleuten aus Forschung und Militär vorbehalten. Einem größeren Publikum können die Vorteile des AR-Prinzips erstmals 1998 dargeboten werden, als die Amerikanische Football-Liga beginnt, bei Live-Übertragungen eine virtuelle Referenz-Linie in das Spielfeld einzublenden. Erste tatsächlich interaktive Endnutzeranwendungen tauchen allerdings erst vermehrt ab Ende der ersten Dekade des 21. Jahrhunderts auf. Dies liegt vor allem an den fortgeschrittenen Entwicklungen bei Soft- und Hardware, insbesondere im mobilen Bereich. AR-Apps und -Spiele erfreuen sich mittlerweile großer Beliebtheit. Das in neuster Zeit wohl bekannteste Beispiel hierfür lieferte das Smartphone-Spiel Pokémon Go 64 , bei dem der Spieler in seinem Wohnzimmer oder im Stadtpark virtuelle Monster einfangen kann. Zwischenzeitlich spielten das Spiel etwa 30 Millionen 63 Rosenberg, L. B. (1993). Virtual fixtures: Perceptual tools for telerobotic manipulation. In: Virtual Reality Annual International Symposium (S. 76-82). IEEE. 64 Pokémon Go: https: / / www.pokemongo.com/ <?page no="150"?> 7.2 Historische Entwicklung und Anwendungsbereiche 151 Nutzer. Neben reinem Entertainment bietet Augmented Reality zahlreiche weitere Anwendungsfelder. Einen weiteren großen Anwendungsbereich bilden Werbung und Marketing. Möbel aus dem Möbelhaus können per Smartphone-App schon vor der Bestellung digital im Zimmer platziert werden. Bei einem amerikanischen Schuhhersteller können Kunden die Schuhe vor dem Online-Kauf bereits digital anprobieren. Desweiteren werden Augmented-Reality-Verfahren auch in der Industrie und in der Medizin angewendet. So wurde etwa in einem Hamburger Krankenhaus erfolgreich eine vom Fraunhofer-Institut entwickelte AR-Software zur visuellen Unterstützung von Leberoperationen getestet 65 . Grundsätzlich sind die Anwendungsfelder von Augmented Reality sehr vielfältig. Die folgende Liste fasst die wichtigsten Bereiche mit kurzen Anwendungsbeispielen zusammen. Anwendungsbereiche von Augmented Reality: Architektur: Realistische dreidimensionale Darstellung von Bauvorhaben und Architekturprojekten direkt eingeblendet an dem geplanten Ort Automobilindustrie: Einsatz von AR bei der Herstellung von Fahrzeugen sowie als Mehrwert für Kunden, beispielsweise durch AR gestützte Hilfe bei der Wartung des Fahrzeugs oder bei der Navigation Entertainment: Spiele und Unterhaltungsanwendungen die AR-Technologie in das Spielprinzip integrieren Industrie und Fertigung: Unterstützung von Mitarbeitern bei komplexen Fertigungsprozessen durch Einblendung interaktiver, kontextbezogener Anleitungen und hilfreicher Informationen 65 Pressemitteilung Fraunhofer MEVIS (2013): Tablet PC Supports Liver Surgeons - New app from Fraunhofer MEVIS tested for the first time during an operation in Germany, URL: http: / / www. mevis.fraunhofer.de/ content/ dam/ mevis/ Documents/ English/ Pre ssReleases/ 130820-iPad-Liver-OP-en.pdf (Stand: 27.01.2018). <?page no="151"?> 152 7 Augmented Reality Kunst und Kultur: Nutzung der Technik im kulturellen Kontext, beispielsweise für Kunstinstallation oder zur virtuellen Ergänzung von Exponaten in einem Museum Medizin: Unterstützung von Ärzten bei operativen Eingriffen durch die Darstellung von eigentlich verdeckten Körperregionen und Organen des Patienten Militär: Einsatz von AR zu Trainingszwecken oder zur Unterstützung von Soldaten im Einsatz Werbung und Marketing: Nutzung der Technik zu Marketingzwecken, beispielsweise durch virtuelle Produktplatzierungen oder digitale Vorschau von Produkten in der echten Umwelt des Nutzers Die oben genannten Anwendungsgebiete von Augmented Reality unterscheiden sich neben den verschiedenen Zielsetzungen auch durch unterschiedliche technische Anforderungen. Einen Einstieg in die verschiedenen technischen Möglichkeiten und Konzepte aus dem Augmented-Reality-Bereich bietet der nachfolgende Abschnitt. 7.3 Grundlagen 7.3.1 AR-Systeme Unter einem AR-System versteht man die Zusammenstellung aller benötigten technischen Komponenten zur vollständigen Realisierung einer Augmented-Reality-Anwendung. Dies umfasst die benötigte Software sowie die erforderlichen Geräte und Hardwarebestandteile. Das AR-System bildet somit die technische Grundlage einer Augmented-Reality-Anwendung. Die einzelnen Funktionen und technischen Ausprägungen eines AR- Systems können je nach Anwendungsbereich sehr unterschiedlich sein. Einige grundlegende Anforderungen haben jedoch alle AR-Systeme gemeinsam. Diese lassen sich grob in die folgenden drei Bereiche eingliedern: <?page no="152"?> 7.3 Grundlagen 153 Darstellung Tracking Interaktion Zum einen muss das AR-System eine Darstellungsmöglichkeit (z. B. ein Display) bereitstellen, um die virtuellen Objekte visualisieren zu können. Um diese Objekte auch perspektivisch korrekt in die reale Umwelt zu integrieren, muss das System außerdem stets die Bewegung des Gerätes im Raum mitverfolgen. Dieses Prinzip wird als Tracking bezeichnet. Des Weiteren muss das System auch Möglichkeiten der Nutzerinteraktion bereitstellen. Die einzelnen Anforderungen werden in den folgenden Abschnitten näher betrachtet. 7.3.2 Darstellung Für den Aufbau eines AR-Systems ist insbesondere die Art der Darstellung entscheidend, in welcher die digitalen Inhalte für den Anwender sichtbar gemacht werden. Hierbei kann im Wesentlichen zwischen drei Visualisierungstypen unterschieden werden 66 . Visualisierungsmöglichkeiten für Augmented Reality: Darstellung über ein Video-Display: Digitale Inhalte werden auf einem Display durch die Einblendung über dem Live-Video sichtbar (z. B. Kamera-Vorschau eines Smartphones). Darstellung durch Projektion: Digitale Inhalte werden über Projektion direkt auf die reale Umwelt projiziert (z. B. über einen Beamer). Darstellung über Displaybrille: Digitale Inhalte werden direkt ins Sichtfeld des Betrachtenden projiziert. Je nach Art der AR-Darstellung werden unterschiedliche AR- Systeme benötigt. Für die derzeit verbreitetste Variante, der 66 Vgl. Broll, W. (2013). Augmentierte Realität. In: Virtual und Augmented Reality (VR/ AR) (S. 248ff.). Springer Berlin Heidelberg. <?page no="153"?> 154 7 Augmented Reality Darstellung mittels Video-Display, reicht meist schon ein gängiges Smartphone oder ein Tablet in Kombination mit einer entsprechenden AR-Software aus. Der Nutzende verwendet hierbei das Gerät als eine Art Schaufenster, durch welches er seine Umgebung betrachtet. Die digitalen Inhalte werden dann in Echtzeit über dem Videobild des Gerätes eingeblendet. Eine weitere Darstellungsmöglichkeit liegt in der Verwendung eines Projektors, welche die Erweiterungen auf eine reale Oberfläche projiziert. Hier gibt es allerdings einige Einschränkungen. Eine freie Positionierung virtueller 3D-Objekte ist beispielsweise nicht möglich, da nur die Oberfläche erweitert werden kann, auf die der Projektor ausgerichtet ist. Die im Sinne der Immersion bestmögliche Darstellungsform von Augmented Reality bieten spezielle Displaybrillen, sogenannte Head-Mounted-Displays. Bei Head-Mounted-Displays (kurz: HMDs) handelt es sich um Display-Brillen, die speziell zur Darstellung von Virtual- oder Augmented-Reality-Anwendungen entwickelt wurden. Im Kontext von Augmented Reality wird diesbezüglich auch häufig von Smart-Glasses oder Mixed-Reality-Glasses gesprochen. Der Vorteil bei diesen Geräten liegt darin, dass die digitalen Inhalte direkt ins Blickfeld des Nutzers projiziert werden können. Zum einen verstärkt dies die Glaubwürdigkeit der virtuellen Erweiterungen, zum anderen kann der Anwender seine Umwelt auf diese Weise direkt und ohne Umweg über einen Bildschirm betrachten. Das erste auf dem freien Markt verfügbare Gerät dieser Art die Datenbrille „Google Glass“ 67 . Mittlerweile sind viele weitere Geräte auf dem Markt oder in der Entwicklung, wie etwa die HoloLens 68 (Microsoft), die Magic-Leap 69 oder die Mixed- Reality-Glasses von Meta 70 . 67 Google Glass: http: / / www.google.com/ glass/ 68 Microsoft HoloLens: http: / / www.microsoft.com/ hololens 69 Magic Leap: http: / / www.magicleap.com/ 70 Meta: http: / / www.metavision.com/ <?page no="154"?> 7.3 Grundlagen 155 Eine Schwäche dieser Geräte liegt darin, dass meist ein halbtransparentes Display erforderlich ist. Daher wird die Umgebung stets etwas abgedunkelt wahrgenommen (ähnlich dem Tragen einer Sonnenbrille). Außerdem sind durch das transparente Display zwangsläufig auch die virtuellen Objekte etwas durchsichtig, vergleichbar einem Hologramm. Auf eine besondere Projektionstechnik setzt die AR-Brille Magic-Leap. Hier werden die virtuellen Erweiterungen über einen Projektor direkt auf die Netzhaut der Augen projiziert (Retinal Projection). Auf diese Weise kann auf ein Display komplett verzichtet werden. 7.3.3 Interaktion Wie schon zuvor beschrieben, ist die Möglichkeit der Nutzerinteraktion ein wichtiger Bestandteil eines Augmented-Reality- Systems. Selbst wenn ein AR-System in der Lage wäre, digitale Erweiterungen fotorealistisch zu integrieren, stößt die Technologie spätestens dann an ihre Grenzen, wenn der Nutzer versucht, ein virtuelles Objekt zu ertasten oder es zu ergreifen. Um mit den virtuellen Elementen interagieren zu können, muss ein AR-System daher eigene Interaktionskonzepte und Steuerelemente bereitstellen. Im einfachsten Fall kann die Nutzerinteraktion eines AR-Systems über einen Touchscreen realisiert werden, wie beispielsweise bei Augmented-Reality-Apps auf dem Smartphone oder auf dem Tablet. Hier können interaktive Inhalte direkt auf dem Display ausgewählt und gesteuert werden. Bei AR-Brillen (HMDs) ist die Interaktion hingegen eine größere Herausforderung, da virtuelle Inhalte nicht wie beim Smartphone über einen Bildschirm gesteuert werden können. Als Alternative bietet sich hier eine gestenbasierte Steuerung an. Auf eine solche Steuerung setzt beispielsweise die HoloLens von Microsoft. Nutzer können hier Objekte auswählen, indem sie das Objekt in ihrem Blickfeld fokussieren und anschließend das Objekt mit einer Fingergeste auswählen (ähnlich dem Verfahren <?page no="155"?> 156 7 Augmented Reality eines Mausklicks). Die Erkennung funktioniert dabei über eingebaute Sensoren, welche mit der Kinect-Steuerung für die Spielekonsole X-Box vergleichbar sind. Neben Hand- und Fingergesten können zur Steuerung von Augmented-Reality-Systemen prinzipiell auch die Bewegung der Augen eingesetzt werden. Das von Google übernommene Unternehmen Eyefluence konzentriert sich speziell auf diesen Bereich. Des Weiteren können auch eine Sprachsteuerung oder zusätzliche Hardware-Controller eingesetzt werden, um eine Kommunikation zwischen AR-System und Anwender zu ermöglichen. 7.3.4 Tracking Aus technischer Sicht liegt die wohl größte Herausforderung bei Augmented Reality darin, die digitalen Inhalte an der gewünschten Stelle perspektivisch korrekt in die reale Szene zu integrieren. Dazu muss die Position des Modelles bei Veränderung des Blickwinkels ständig neu berechnet und entsprechend angepasst werden. Hierfür ist eine Echtzeitabschätzung der Lage des Gerätes im Raum notwendig. Aus Translation und Rotation (jeweils drei Achsen) ergeben sich insgesamt sechs Freiheitsgrade (6 Degrees of Freedom), welche für eine vollständige Lagebestimmung abgeschätzt werden müssen (6 DoF Pose Estimation). Die folgende Abbildung verdeutlicht die Freiheitsgrade im dreidimensionalen Raum. Abb. 67: Die sechs Freiheitsgrade im dreidimensionalen Raum <?page no="156"?> 7.4 Trackingverfahren 157 Die Echtzeit-Abschätzung dieser Freiheitsgrade, aus der sich die Lage und die Position des Gerätes im Raum ergeben, wird als Tracking (deutsch: Verfolgung) bezeichnet. Die Qualität des Trackings ist ausschlaggebend für eine glaubhafte Positionierung der virtuellen Objekte. Zur Durchführung des Trackings gibt es unterschiedliche technische Ansätze. In den folgenden Abschnitten werden die gängigsten Verfahren dafür vorgestellt. 7.4 Trackingverfahren 7.4.1 Markerbasiert Der wohl einfachste Ansatz besteht in der Verwendung von optischen Markern, auch Fiducial Marker genannt. Diese Marker setzen sich meist aus schwarzweißen Mustern zusammen, welche einem gewöhnlichen QR-Code ähneln. Abb. 68: Beispiele für kontrastbasierte optische Marker Die obige Abbildung zeigt eine Auswahl von typischen optischen Markern, welche zum Tracking eingesetzt werden können. Vereinfacht lässt sich die Funktionsweise wie folgt beschreiben: Mit Hilfe von Verfahren aus dem maschinellen Sehen (Computer-Vision) wird zunächst das Kamerabild untersucht. Wenn eine der vorher definierten Marker gefunden wurde, kann anhand der Position der Eckpunkte auch die relative Lage der Kamera bestimmt werden. Die errechnete Kameraposition kann dann auf die digitale Kamera übertragen werden. <?page no="157"?> 158 7 Augmented Reality Abb. 69: Markerbasiertes Tracking Nachteil dieses Verfahren ist, dass die Positionierung nur funktioniert, solange der Marker in ausreichender Größe im Bildfeld des Gerätes zu erkennen ist. 7.4.2 Natürliche Marker (merkmalsbasiert) Neben den oben beschriebenen einfachen Bildmarkern können auch sonstige Bilder und Texturen für das Tracking verwendet werden. Hierfür müssen aus dem jeweiligen Bild zunächst spezifische Merkmale extrahiert werden. Dazu werden typischerweise Algorithmen aus dem OpenCV-Framework, wie beispielsweise Kantendetektoren, genutzt. Werden genügend Merkmale im Kamerabild wiedererkannt, kann analog zum markerbasierten Tracking die Kamerapose abgeschätzt werden. Daher ist es wichtig, dass das ausgewählte Bild eine ausreiche Anzahl an kontrastreichen Merkmalspunkten aufweist. Kontrastarme Bilder mit repetitiven Strukturen eignen sich hingegen nicht. Ein wesentlicher Vorteil beim merkmalsbasiertem Tracking liegt darin, dass kein gesonderter Marker notwendig ist. Es können ohnehin vorhandene Oberflächentexturen wie Schriftzüge, Logos oder Katalogseiten als Marker eingesetzt werden. Daher wird das Verfahren auch als Natural Feature Tracking bezeichnet. <?page no="158"?> 7.4 Trackingverfahren 159 7.4.3 Dreidimensionale Marker Das Konzept, Objekte anhand ihrer natürlichen Merkmale zu erkennen, kann prinzipiell nicht nur bei 2D-Bilddaten, sondern auch bei 3D-Geometrien angewendet werden. Die folgende Abbildung zeigt das Tracking eines 3D-Objektes, in diesem Fall das Modell einer Burg. Die kleinen Kreuze indizieren die Merkmalspunkte, anhand derer die Software die Position des Modells berechnet. Abb. 70: Tracking eines 3D-Objektes mit dem ARMedia SDK Die Verwendung von dreidimensionalen Markern wird häufig auch als 3D-Object-Tracking oder als 3D-Object-Recognition bezeichnet. Die Herausforderungen zur Erkennung von 3D- Objekten sind im Vergleich zu zweidimensionalen Flächen allerdings deutlich komplexer. Daher sind in diesem Fall auch deutlich umfangreichere mathematische Modelle nötig. Häufig werden zur Erkennung von 3D-Objekten Bilddatenbanken verwendet, die Ansichten des Zielobjektes aus vielen verschiedenen Perspektiven beinhalten. <?page no="159"?> 160 7 Augmented Reality 7.4.4 Markerloses Tracking mit SLAM Beim sogenannten SLAM-Tracking (Simultaneous Localization and Mapping) handelt es sich um eine weitere Form von optischem Tracking. Das Prinzip stammt ursprünglich aus der Robotik, wird mittlerweile aber auch vermehrt für AR-Anwendungen eingesetzt. Die Besonderheit beim SLAM-Tracking besteht darin, dass vor der Verwendung keine Informationen über die Umgebung vorausgesetzt werden. Es werden also, im Gegensatz zu den vorher beschriebenen Verfahren, keine vorher definierten Marker oder Objekte wiedererkannt. Ziel dieser Algorithmen ist es somit, sich in einer unbekannten Umgebung orientieren zu können. Generell wird zwischen zwei Typen von visuellen SLAM-Algorithmen unterschieden: monokulare und binokulare Algorithmen. Grundsätzlich können mit binokularen Ansätzen exaktere Ergebnisse erzielt werden, da mehr Information zur Verfügung steht. Allerdings ist bei den meisten Endgeräten (z. B. Smartphones) keine Stereo-Kamera vorhanden, weshalb in diesem Bereich häufig doch auf monokulare Verfahren zurückgegriffen werden muss. Vereinfacht lässt sich der Prozess dabei wie folgt erklären: Aus dem Kamerabild werden zunächst Merkmale extrahiert. Die Position der einzelnen Merkmale (Feature Points) wird mit dem jeweils vorherigen Kamerabild verglichen. Die relative Entfernung der einzelnen Merkmale untereinander kann dann mit Hilfe von Computer- Vision-Algorithmen abgeschätzt werden, wodurch sich wiederum die eigene Bewegung herleiten lässt. Viele SLAM-Algorithmen sind unter Open-Source-Lizenzen im Internet veröffentlicht. Einige verbreitete Varianten sind etwa LSD-SLAM 71 , ORB-SLAM 72 oder PTAM 73 (Parallel Tracking and Mapping). 71 LSD-SLAM: http: / / vision.in.tum.de/ lsdslam/ 72 ORB-SLAM: http: / / webdiis.unizar.es/ ~raulmur/ orbslam/ 73 PTAM: http: / / www.robots.ox.ac.uk/ ~gk/ PTAM/ <?page no="160"?> 7.4 Trackingverfahren 161 7.4.5 Nicht-optisches Tracking Zusätzlich zu den oben beschriebenen optischen Verfahren kann die Lage des Mobilgerätes auch über interne Sensoren bestimmt werden. Viele Mobilgeräte verfügen über Inertialsensoren (englisch: Inertial Measurement Unit, kurz IMU), mit welchen der Neigungswinkel des Gerätes bestimmt werden kann. Bei Mobilgeräten wird diesbezüglich auch vom sogenannten Gyrosensor gesprochen. Über diesen können alle drei rotorischen Freiheitsgrade gemessen werden, allerdings nur relativ zur ursprünglichen Position. In Kombination mit Beschleunigungssensor und Magnetometer kann jedoch auch die absolute Orientierung des Gerätes im globalen Koordinatensystem bestimmt werden. Durch Standortsensoren wie GPS oder GLONASS können theoretisch auch die übrigen drei Freiheitsgrade der Translation bestimmt werden. Bei allen genannten Sensoren ist jedoch mit Messfehlern und Ungenauigkeiten zu rechnen. Beim Messen der Neigung über den Gyrosensor existiert ein kumulatives Delta, was bei längerer Laufzeit zu Driftfehlern führt. Auch die Daten des Magnetometers sind störanfällig. Beispielsweise können die Sensordaten durch künstliche Magnetfelder in ihrem Umfeld verfälscht werden. Ebenso ist bei der Positionsbestimmung durch GPS mit Abweichungen zu rechnen. Laut einer Studie des Fachmagazins Inside GNSS 74 aus dem Jahr 2014 lag die Standardabweichung der Position beim Samsung Galaxy S5 (GPS und GLONASS) in freien Flächen bei etwa 2,5 Metern (Länge und Breite) beziehungsweise 4,5 Metern (Höhe). In urbanen Gebieten mit zahlreichen hohen Gebäuden war die Abweichung bei Länge und Breite fast doppelt so hoch. Zusätzlich wird ein flüssiges Tracking durch langsame Aktualisierungsraten von typischerweise nur 1, 5 oder 10 Hertz erschwert. Trotz dieser Schwierigkeiten bieten positionsbasierte Verfahren auch Vorteile. Beispielsweise 74 Petovello, M. (2014). What Are the Actual Performances of GNSS Positioning Using Smartphone Technology? InsideGNSS, 9, S. 34- 37. <?page no="161"?> 162 7 Augmented Reality bietet das Prinzip, digitale Inhalte und Modelle auf Grundlage einer GPS-Koordinate zu positionieren, eine einfache Integration der Inhalte und somit eine hohe Skalierbarkeit. 7.4.6 Kombination verschiedener Verfahren Um ein möglichst robustes Tracking zu erzielen, werden in der Praxis meist mehrere Verfahren und Sensoren in Kombination eingesetzt (Sensorfusion). Dabei werden mathematische Modelle verwendet, um die Daten der einzelnen Verfahren zu einem möglichst plausiblen Gesamtergebnis zu kombinieren. In den meisten Fällen wird hierfür auf den sogenannten Kalman-Filter zurückgegriffen. Der Kalman-Filter ist ein iterativer mathematischer Prozess, welcher es ermöglicht, aus mehreren Eingangssignalen ein möglichst genaues Gesamtsignal (z. B. Position) abzuschätzen und gleichzeitig Messfehler und Ungenauigkeiten einzelner Sensoren zu minimieren. In speziell für Augmented Reality entwickelten Geräten (z. B. HMDs, Smart Glasses etc.) sind außerdem meist zusätzliche Sensoren integriert. Häufig werden beispielsweise 3D-Kameras verwendet, um zusätzliche Informationen über die Umgebung zu sammeln und somit das Tracking zu verbessern. 7.5 Entwicklerwerkzeuge 7.5.1 Android Mit dem Projekt „Tango“ 75 startete Google im Jahr 2016 eine erste eigene Augmented-Reality-Plattform. Diese hatte jedoch sehr spezielle Hardwareanforderungen und wurde daher nur von sehr wenigen Geräten unterstützt. Auf dem Markt konnte sich die Plattform nicht durchsetzen, weshalb sie zwischenzeitlich aufgegeben wurde. Stattdessen veröffentlichte Google im Jahr 2017 eine neue Augmented-Reality-Plattform namens AR- 75 Projekt Tango: http: / / developers.google.com/ tango/ <?page no="162"?> 7.5 Entwicklerwerkzeuge 163 Core 76 , welche laut Google langfristig von allen Android- Smartphones und Tablets ab Version 7.0 (Nougat) unterstützt werden soll. Teil der Plattform ist eine Entwicklerbibliothek (Software Development Kit), mit der es Entwicklern vergleichsweise einfach ermöglicht wird, eigene Augmented- Reality-Anwendungen zu erstellen. Als Entwicklungsumgebungen werden Android Studio, die Unreal Engine und die Unity- Plattform unterstützt. 7.5.2 iOS Auch Apple verfolgt seit 2017 für sein mobiles Betriebssystem iOS ein eigenes Augmented-Reality-Programm. Der Konzern investierte schon länger in die Technologie und sorgte bereits 2015 durch die Übernahme des deutschen Augmented-Reality- Spezialisten Metaio in der Branche für Aufsehen. Das mit iOS Version 11 eingeführte Framework namens ARKit 77 ermöglicht die Entwicklung von Augmented Reality Anwendungen für das iPhone (ab Modell 6s) und das iPad Pro. Laut Apple funktioniert das Tracking auf dem iPhone X besonders gut, da das Gerät dazu eigens mit einer Tiefenkamera ausgestattet wurde (TrueDepth-Kamera). Für das Tracking wird eine eigene Technologie namens Visual Inertial Odometry verwendet. Die Technik kombiniert Messdaten interner Lagesensoren mit einem optischen Tracker (SLAM-Verfahren). Interessant ist außerdem, dass über den Kamerasensor auch die Lichtverhältnisse analysiert werden, um auch die Beleuchtung der virtuellen Objekte daran anzupassen zu können. 7.5.3 Facebook AR Studio Dass Facebook mehr ist als ein soziales Netzwerk, zeigen unter anderem die Pläne des Unternehmens bezüglich Augmented 76 ARCore: http: / / developers.google.com/ ar/ 77 ARKit: http: / / developer.apple.com/ arkit/ <?page no="163"?> 164 7 Augmented Reality Reality. Facebook bietet mit dem AR Studio 78 bereits eine eigene Entwicklerbibliothek in dem Bereich an. Die Plattform ist spezialisiert auf das Tracking von Gesichtern und ermöglicht es, Gesichter von Personen in Live-Videos zu erkennen und mit verschiedensten Effekten zu erweitern. Auch wenn sich AR Studio bisher auf diese Art von Kamera-Effekten beschränkt, wurden bereits weitere Funktionen angekündigt. Da sich Facebook strategisch in dem Bereich Augmented Reality etablieren will, ist langfristig mit einer umfangreichen AR-Plattform zu rechnen. 7.5.4 Windows Mixed Reality Microsoft bietet für seine AR-Brille HoloLens ein eigenes Entwicklerportal mit umfangreicher Dokumentation, Videotutorials und Entwicklertools an. Die Plattform namens Windows Mixed Reality 79 (früherer Name: Windows Holographic) wurde zusammen mit Windows 10 veröffentlicht und beinhaltet nützliche Werkzeuge zur Erstellung von HoloLens-Anwendungen unter Windows. Dazu zählt unter anderem ein HoloLens- Emulator, mit dem das Headset auf einem Desktop-PC simuliert werden kann. Die nötigen Software-Development-Kits können der integrierten Entwicklungsumgebung Microsoft Visual Studio 2017 verwendet werden. Insgesamt ist die Holo- Lens gut in das Windows-Ökosystem integriert. Viele Anwendungen und Apps aus dem Windows-Store können auch ohne zusätzliche Anpassungen mit der HoloLens verwendet werden. 7.5.5 Software-Bibliotheken Bei der Entwicklung von Augmented Reality Anwendungen kann neben den spezifischen Entwicklerwerkzeugen der einzelnen Plattformen auch auf eine Vielzahl von speziellen Frame- 78 AR Studio: http: / / developers.facebook.com/ products/ ar-studio/ 79 Windows Mixed Reality: http: / / developer.microsoft.com/ dede/ windows/ mixed-reality <?page no="164"?> 7.5 Entwicklerwerkzeuge 165 works und Softwarebibliotheken für Augmented Reality zurückgegriffen werden. Die folgende Tabelle liefert eine Auswahl von verbreiteten Anbietern aus diesem Bereich. Tab. 1: Augmented Reality Frameworks Framework Tracking-Verfahren Webseite Vuforia 2D Marker, 3D Objekte www.vuforia.com Wikitude 2D Marker, SLAM, Geoposition www.wikitude.com Kudan AR 2D Marker, SLAM www.kudan.eu ARToolkit 2D Marker www.artoolkit.org ARmedia SDK 2D Marker, 3D Objekte, Geoposition dev.inglobetechnologies.com EasyAR 2D Marker, 3D Objekte, SLAM www.easyar.com Layar SDK 2D Marker, Geoposition www.layar.com Eines der verbreitetsten Frameworks aus dieser Liste ist das Vuforia SDK. Laut der Unternehmens-Webseite wurden mittlerweile über 50.000 Apps mithilfe der Software entwickelt (Stand: Januar 2018). Für das Tracking werden zweidimensionale Bildmarker sowie einfache 3D-Objekte unterstützt. Auch Wikitude ist ein viel verwendetes AR-Framework. Ursprünglich richtete sich das Unternehmen mit einem geobasierten AR-Browser lediglich an Endbenutzer. Später folgte mit dem Wikitude SDK auch eine umfangreiche Entwicklerbibliothek, die neben dem geobasierten Ansatz auch zweidimensionale Bildmarker und markerlose Trackingverfahren (SLAM) beinhaltet. Das ARToolkit ist das einzige Open-Source-Framework (GNU v3 Lizenz) in der Liste. Die Software wurde bereits 2001 veröffentlicht und seitdem stets weiter entwickelt. <?page no="165"?> 166 7 Augmented Reality Bei den meisten AR-Frameworks werden die mobilen Betriebssysteme Android und iOS unterstützt. Außerdem wird häufig auch eine zusätzliche Erweiterung für die Unity-Plattform angeboten. 7.5.6 Unity Bei Unity 80 handelt es sich um eine verbreitete Spiele-Engine, welche es unter verhältnismäßig geringem Aufwand ermöglicht, plattformunabhängige 3D-Anwendungen zu entwickeln. Die Unity-Plattform stellt eine eigene 3D-Engine mit dazugehörigem Editor bereit. Die Anwendungslogik kann in Java-Script oder C# entwickelt werden. Zu den unterstützten Zielplattformen zählen unter anderem Windows, Android, iOS und Linux. Unity ist somit zwar keine AR-spezifische Software, jedoch ist die Plattform im Augmented-Reality-Bereich sehr verbreitet. Dies liegt zum einen an der Vielzahl an unterstützen Betriebssystemen und zum anderen an der 3D-Engine, welche ideale Voraussetzungen zur Entwicklung von dreidimensionalen Augmented-Reality-Anwendungen bietet. Aufgrund dieser Vorteile bieten zahlreiche AR-Frameworks auch zusätzliche Erweiterungen für den Unity-Editor an. Beispielsweise empfiehlt Microsoft die Verwendung von Unity als schnellsten Pfad zur Entwicklung einer Mixed-Reality-App. Das AR-Framework Vuforia ist sogar eine strategische Partnerschaft mit Unity eingegangen, um die eigene Software noch besser in den Unity-Editor integrieren zu können. 7.6 Ausblick Augmented Reality zählt zweifelsfrei zu einem der größten Technologietrends der letzten Jahre. Schon heute gibt es unzählige AR-Apps und -Systeme für die verschiedensten Anwen- 80 Unity (Spiel-Engine): http: / / unity3d.com <?page no="166"?> 7.7 Literatur 167 dungsgebiete. Von einer weitgehend unbekannten Nischentechnologie hat sich das Verfahren in den letzten Jahren zu einem millionenschweren Markt entwickelt. Laut einer Studie der Deutschen Bank wird der Weltmarkt für den Augmented- Reality-Bereich im Jahr 2020 bei etwa 7,5 Milliarden Euro liegen 81 . Trotzdem dürfte der Einsatz der Technologie für die meisten Menschen bisher eher die Ausnahme sein. Dies könnte sich zukünftig jedoch ändern. Neben den wirtschaftlichen Möglichkeiten birgt die Technologie das Potenzial, den Alltag der Menschen auf grundlegende Weise zu verändern. In einem jüngst veröffentlichten Interview beschreibt Apple-Chef Tim Cook Augmented Reality als ebenso bahnbrechende Idee wie das Smartphone. Neben Apple setzen auch Facebook, Google und Microsoft mit eigenen Plattformen auf die Technik. Durch speziell für AR-Zwecke optimierte Hardware ist im mobilen Bereich schon bald mit deutlichen Verbesserungen der Trackingverfahren zu rechnen. Neben dem Smartphone werden im Augmented-Reality-Bereich zukünftig vor allem spezielle Display-Brillen eine zunehmende Rolle spielen. Derzeit kommt die erste Generation der sogenannten Mixed-Reality-Brillen auf den Markt. Diese Geräte werden es in Zukunft ermöglichen, die reale Welt noch glaubhafter mit der digitalen Welt verschmelzen zu lassen. 7.7 Literatur Mehler-Bicher, Anett & Steiger, Lothar (2014): Augmented Reality - Theorie und Praxis. Walter de Gruyter GmbH & Co KG Schmalstieg, Dieter & Hollerer, Tobias (2016). Augmented Reality: Principles and Practice. Addison-Wesley Professional. 81 Heng, S. & Hörster, Ann-Kathrin (2015): Augmented Reality - Bei Spezialanwendungen sollte Deutschland von dynamischem Zukunftsmarkt profitieren können. DB Research. <?page no="167"?> 168 7 Augmented Reality Peddie, Jon. (2017). Augmented Reality: Where We Will All Live. Springer. Dörner, Ralf, Wolfgang Broll, Paul Grimm (2013). Augmentierte Realität. In: Virtual und Augmented Reality (VR/ AR) (S. 241- 294). Springer Berlin Heidelberg. <?page no="168"?> 8 Virtual Reality (VR) Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie die grundlegenden Prinzipien von Virtual Reality verstehen Anwendungsfelder von Virtual Reality einschätzen können einen Überblick über den aktuellen Stand der Technik sowie über aktuelle Entwicklerwerkzeuge haben die technischen Möglichkeiten und Grenzen von Virtual Reality-Anwendungen einordnen können 8.1 Begriffserklärung War bislang Virtual Reality den meisten Menschen nur aus der Science-Fiction bekannt, so ist spätestens seit Anfang des Jahres 2016 Virtuelle Realität, kurz VR, nicht mehr nur ein Thema für Technikbegeisterte. Mittlerweile ist bezahlbare und technisch fortgeschrittene Virtuelle Realität in den ersten Wohnzimmern angekommen. Bei Virtueller Realität geht es, wie der Name schon sagt, um die Erzeugung einer für den Rezipienten möglichst glaubwürdigen virtuellen Wirklichkeit. Da Menschen sehr stark visuell veranlagt sind, wird dies in aller Regel durch die Erzeugung optischer Reize erreicht und gegebenenfalls durch akustische oder haptische Effekte bzw. auch olfaktorisch ergänzt. Unter dem Begriff VR wird eine ganze <?page no="169"?> 170 8 Virtual Reality (VR) Bandbreite an Techniken, von 360°-Videos für Smartphones, über Virtual-Reality-Brillen bis hin zu ganzen Räumen, deren Wände als Projektionsflächen dienen, zusammengefasst. Während VR früher meist durch Projektionen an die Wände eines Raums, in sogenannten CAVEs 82 , erzeugt wurde, nutzt die neue Generation massentauglicher Systeme zur Erzeugung von Virtueller Realität in der Regel sogenannte Head-Mounted- Displays, kurz HMDs. Umgangssprachlich werden diese Geräte auch VR-Brillen genannt, da sie ähnlich einer Brille getragen werden. Im Gegensatz zu Brillen handelt es sich hierbei jedoch nicht um durchsichtige Gläser, sondern um kleine grafische Displays. Da diese Displays nahezu das gesamte Blickfeld des Anwenders mit der stereoskopischen Anzeige einer virtuellen Umgebung ausfüllen, welche außerdem den Kopfbewegungen des Anwenders folgt, entsteht der glaubhafte Eindruck, sich tatsächlich in der dargestellten Wirklichkeit zu befinden. Diese Systeme haben gegenüber anderen Lösungen den Vorteil, dass sie verhältnismäßig kostengünstig sind und, da sie das gesamte Blickfeld ausfüllen, eine sehr hohe Immersion ermöglichen. Abb. 71: Funktionsprinzip Virtual Reality 82 https: / / www.aec.at/ center/ ausstellungen/ deep-space/ <?page no="170"?> 8.2 Historische Entwicklung 171 Mittlerweile wird VR zunehmend in verschiedenen Anwendungsbereichen genutzt, und immer neue Branchen entdecken den Nutzen der Technologie für sich. Während die Vorzüge von VR als Unterhaltungsmedium in Form von Filmen, Spielen oder Erkundungstouren am offensichtlichsten sind, hat die Technologie auch in vielen anderen Einsatzfeldern einiges zu bieten. So werden zum Beispiel im Maschinenbau, in der Bildung, in der Architektur, im Handel und sogar in der Medizin (u.a. als Therapiemittel) bereits heute VR-Systeme erfolgreich eingesetzt. 8.2 Historische Entwicklung Durch den aktuellen Vormarsch von VR könnte leicht der Eindruck entstehen, es handle sich dabei um eine gänzlich neue Technologie, doch erste Visionen und Versuche virtuelle Wirklichkeiten zu erschaffen gibt es bereits seit Jahrzehnten. Was die Entwicklung von VR lange Zeit ausbremste, war das Fehlen der nötigen technischen Innovationen. Dieser Umstand hat sich aber nach und nach, zuerst im wissenschaftlichen und militärischen Bereich und schließlich in den letzten Jahren auch für Endkunden geändert. Obwohl die NASA bereits Mitte der neunziger Jahre VR-Systeme für den wissenschaftlichen Einsatz entwickelte, verhinderten noch für viele Jahre die hohen Kosten für die dafür benötigte Hardware eine weitere Verbreitung der Technologie. Stand heute (Januar 2018) können bereits Smartphones mit entsprechendem Zubehör echte VR darstellen. Handelsübliche PCs, ausgestattet mit leistungsstarker Hardware, ermöglichen darüber hinaus fortgeschrittene Erfahrungen wie zum Beispiel raumfüllende VR mit Echtzeit-Tracking. Im Folgenden wird die historische Entwicklung von VR anhand einiger Meilensteine, von ersten Visionen und technischen Entwicklungen, über verschiedene Realisierungsversuche bis hin zu heutigen VR-Systemen für Heimanwender dargestellt. <?page no="171"?> 172 8 Virtual Reality (VR) 1860er Der französische avantgardistische Dramatiker Antonin Artaud vertrat im Hinblick auf Theater den Standpunkt, dass Illusion und Realität keine Gegensätze seien. Übertragen auf das Thema VR bedeutet dies, dass eine glaubwürdige Illusion in den Augen des jeweiligen Betrachters zur Realität werden kann. 1932 Der amerikanische Physiker Edwin Herbert Land entwickelt den Polaroid-Filter. Dabei werden zwei von verschiedenen Punkten aufgenommene Bilder übereinander projiziert und je eins für jedes Auge sichtbar gemacht, um in Bildern Tiefe darzustellen. Diese Technik kommt noch heute bei 3D- Filmen zum Einsatz, und die Stereoskopie bildet zugleich die Grundlage für heutige VR-Brillen. 1935 Der US-amerikanische Science-Fiction Autor Stanley G. Weinbaum beschreibt in seiner Kurzgeschichte „Pygmalion’s Spectacles“ eine Maschine für virtuelle Realität, die holographische Erlebnisse darstellen und zudem olfaktorische und haptische Reize übertragen konnte. 1946 ENIAC, die erste elektrische Rechenmaschine und Vorläufer heutiger Computer, wird fertiggestellt. Sie hatte eine Größe von über 160 Quadratmetern und wog circa 30 Tonnen. Ursprünglich wurde die Maschine für den zweiten Weltkrieg gebaut, kam aber später für diverse andere Zwecke wie beispielsweise Wettervorhersagen zum Einsatz. 1962 Der Kameramann und Virtual Reality-Pionier Morton Heilig entwickelt einen ersten multisensorischen Virtual-Reality- Automaten, den Sensorama. Dabei handelte es sich um eine Art stereoskopisches Geruchskino, das verschiedene Gerü- <?page no="172"?> 8.2 Historische Entwicklung 173 che sowie Wind erzeugen konnte und außerdem über eine Rüttelmechanik verfügte. Wegen der damals noch primitiven technischen Möglichkeiten und dem hohen Betriebsaufwand blieb es allerdings bei einem Prototypen. 1968 Das erste Head Mounted Display, genannt „The Sword of Damocles“, wird zur Darstellung eines im Raum schwebenden Drahtgitterwürfels verwendet. Die Grundlage bildet ein fünf Jahre zuvor von dem Wissenschaftler Ivan Edward Sutherland entwickeltes interaktives Grafikprogramm namens „Sketchpad“. Das HMD war allerdings so schwer, dass es mittels einer Konstruktion an der Decke des Raums befestigt werden musste. 1985 Die NASA startet zwei VR-Projekte, das Virtual Environment Display-System (VIVED) zum Training von Astronauten und zur Fernsteuerung von Robotern und das Virtual Planetary Exploration-Project (VPE) zur dreidimensionalen und interaktiven Visualisierung von Daten einer Mars-Sonde. 1989 Der Zukunftsforscher Jaron Lanier formuliert mit den Worten „[eine] computergenerierte Umgebung, die die verschiedenen Sinne eines Nutzers stimuliert und Interaktionen erlaubt, wenn möglich in Echtzeit.“ seine Vision heutiger VR- Systeme. 1992 An der University of Illinois in Chicago präsentieren der Kunstprofessor Daniel Sandin und die beiden Informatiker Tom DeFanti und Carolina Cruz-Neira die Cave Automatic Virtual Environment (CAVE). Dabei handelt es sich um einen Raum, dessen sämtliche Flächen zur Projektion verwendet werden, um so eine virtuelle Umgebung zu erzeugen. <?page no="173"?> 174 8 Virtual Reality (VR) 1993-95 Unternehmen wie Nintendo oder Sega bringen die ersten Head-Mounted-Displays für Videospiele auf den Markt. Wegen zu hoher Preise und mangelnder technischer Ausgereiftheit - einige Geräte hatten eine Displayauflösung von lediglich 320 × 200 Pixeln - konnte sich jedoch keines der Produkte etablieren. 1996 Mit Voodoo-Graphics kommt der erste 3D-Grafikchip für den nicht-professionellen Einsatz auf den Markt und legt damit den Grundstein für moderne Grafikkarten - einer Komponente von entscheidender Bedeutung für moderne VR. 2000 Im Auftrag der US-Airforce wird im Rahmen des Virtual Cockpit Optimization Program 83 (VCOP) ein HMD entwickelt, welches sich zwar mit einer Displayauflösung von 1920 × 1080 Pixeln auf dem Niveau heutiger VR-Brillen bewegte, zu jener Zeit aber für den durchschnittlichen Heimanwender noch unbezahlbar war. 2010 Google veröffentlicht einen stereoskopischen 3D-Modus für das drei Jahre zuvor veröffentlichte Street View und bietet somit eine theoretisch VR-kompatible Darstellung und die Grundlage für das Ende 2016 erschienene Google Earth VR 84 . 2012 Der Designer Palmer Luckey entwickelt den ersten Prototypen der Oculus Rift, eines VR-Headsets explizit für Computerspiele, und präsentiert ihn auf der E3. Zur Finanzierung wird eine Crowdfunding-Kampagne auf Kickstarter platziert. 83 http: / / www.aviationtoday.com/ 2001/ 03/ 01/ the-u-s-armys-virtualcockpit/ 84 https: / / vr.google.com/ earth/ <?page no="174"?> 8.3 Anwendungsbeispiele 175 2015 Der Hardware-Hersteller HTC und Valve, der Betreiber der Spiele-Plattform Steam, kündigen ihr VR-System HTC Vive an. 2016 Nacheinander kommen im März Oculus Rift, im April HTC Vive und im Oktober Playstation VR auf den Markt für Endkunden. Vor allem Playstation VR wird durch die vergleichsweise preiswerte Hardware, mit alleine bis Ende 2016 750.000 verkauften Einheiten, ein voller Erfolg. 8.3 Anwendungsbeispiele Die Bereiche, in denen VR sinnvoll eingesetzt werden kann, sind vielfältig. Sie reichen vom Einsatz als Entertainment- oder Gaming-Medium über die Verwendung in der Industrie, im Marketing, in der Bildung, bis hin zum Einsatz in der Medizin als Therapiemittel. In diesem Abschnitt werden exemplarisch einige Beispiele für den Einsatz von VR in verschiedenen Bereichen aufgezeigt. Die ersten fortschrittlichen VR-Anwendungen wurden im militärischen Umfeld entwickelt, da dort die benötigten Mittel für die anfangs noch sehr aufwändige und teure Technologie zur Verfügung standen. Hier fand VR vor allem als Umgebung für die Ausbildung und Simulation Verwendung. Beispielsweise konnte das Führen und Warten verschiedenster Fahrzeuge virtuell trainiert werden. In Form von Flugsimulatoren fand VR auch früh den Weg in die Pilotenausbildung und für verschiedenen Simulationen zur NASA. Im militärischen Bereich dient VR auch der Simulation von Gefechtssituationen zum Trainieren der Entscheidungsfindung in Stresssituationen. Der naheliegendste Verwendungszweck einer Technologie, die den Anwender in jede nur denkbare virtuelle Umgebung beför- <?page no="175"?> 176 8 Virtual Reality (VR) dern und mit ihr interagieren lassen, kann ist naturgemäß der als Entertainment-Medium. Von einfachen 360°-Bildern und Videos für Smartphones bis hin zu eindrucksvollen Videospielen in VR mit leistungsstarker Hardware kann VR fast jeden Aspekt digitaler Unterhaltung bereichern. Bei den Anwendungen handelt es sich dabei in erster Linie um Mini- und Gelegenheitsspiele sowie um Sightseeing- und Edutainment-Anwendungen. Ende 2017 erschienen darüber hinaus die ersten AAA-Games, die für VR portiert wurden. „AAA“ (oder „Triple-A“) ist ein informeller Klassifikationsbegriff für Videospiele mit einem sehr hohen Produktions- und Promotion-Budget. Eigens für VR produzierte Games dieser Kategorie sind momentan wegen des noch überschaubaren Markts vorerst nicht in Aussicht. Zusätzlich zu solchen interaktiven Anwendungen werden 360°- Videos ein zunehmend größeres Thema. Denkbar sind zukünftig auch Spielfilme in VR, wobei hier der Produktionsaufwand deutlich höher wäre als bei einem herkömmlichen Film, oder Live-Übertragungen von Events. Hierbei ist die amerikanische Profi-Basketballliga ein Vorreiter, die seit der Spielzeit 2016-17 ausgewählte Spiele in einer 360°-Perspektive online überträgt. Solche Entertainment-Anwendungen sind zudem derzeit der Hauptgrund für die Verbreitung von VR im privaten Bereich und dienen somit als Wegbereiter für weitere Anwendungen. In der Industrie wird VR bereits für verschiedene Aufgaben verwendet. Ob beim Entwurf von Design-Prototypen, bei Messe-Exponaten oder bei der Kundenpräsentation bringt VR eine Vielzahl von Vorzügen mit. So können beispielsweise Design- Prototypen in einer realitätsnahen Darstellung begutachtet und diskutiert werden, ohne sie erst produzieren zu müssen, wodurch sowohl Zeit als auch Material gespart werden können. Im Maschinenbau kann VR in fast allen Produktionsschritten, von der Konzeption, über die Simulation und die Qualitätssicherung bis hin zum Verkauf, verwendet werden. Auch auf Messen und bei Kundenpräsentationen kann VR durch die gute Portabilität sowie die überzeugende Darstellung von Produkten punkten. Mit wachsender Verbreitung von VR-Systemen durch sinkende <?page no="176"?> 8.3 Anwendungsbeispiele 177 Anschaffungskosten und fortschreitende Entwicklung kann die Technologie außerdem genutzt werden, um Produkte für Endkunden über das Internet zu präsentieren. Auch als Bildungsmedium bietet VR viele Vorzüge gegenüber bisher verwendeten Medien. Geeignete Themengebiete können mit Hilfe von VR ansprechend präsentiert und vermittelt werden, wodurch das Interesse und die Motivation der Auszubildenden gesteigert werden können und damit letztendlich auch der Lernerfolg besser ausfällt. Denkbar wäre zum Beispiel der Einsatz von Google-Earth-ähnlichen Anwendungen im Geographieunterricht, virtuelles Sezieren von Tieren oder Pflanzen im Biologieunterricht und sogar die Darstellung von höherdimensionalen Funktionen im Mathematikunterricht. Mit rechtem Maß eingesetzt hat VR auch hier ein großes Potenzial. Sogar in der Medizin eröffnet VR neue Möglichkeiten, sowohl als Therapiemittel als auch als Tool für Ärzte sowie in der Ausbildung angehender Mediziner. Studierende können beispielsweise virtuell Leichen sezieren oder Operationen simulieren, was eine effizientere und kostengünstigere Ausbildung ermöglicht. Genauso können praktizierende Ärzte bei der Diagnosestellung auf virtuelle Darstellungen der Symptome zurückgreifen oder sich in VR auf komplizierte Operationen vorbereiten. Auch ferngesteuerte Operationen durch Roboter können von einer immersiven Darstellung der Szenerie für den ausführenden Mediziner profitieren. Ein weiteres großes Einsatzfeld ist die VR-unterstützte Therapie verschiedenster Krankheiten, darunter Suchterkrankungen, Phobien oder bei chronischen Schmerzen. Suchtpatienten können in virtuellen Umgebungen trainieren, ihrem Verlangen zu widerstehen. Phobiker können in einer sicheren und trotzdem glaubhaften Umgebung mit ihren Ängsten konfrontiert werden. Sogar beim Lindern von Schmerzen konnten mit VR bereits sehr positive Effekte erzielt werden. Bei Opfern von schweren Verbrennungen, die sich während eines Verbandwechsels in einer virtuellen Schneelandschaft aufhielten, konnten die Schmerzen um fast die Hälfte reduziert werden, was in etwa dem Effekt einer Dosis Morphium ent- <?page no="177"?> 178 8 Virtual Reality (VR) spricht. Sogar Alzheimerpatienten sprachen positiv auf virtuelle Rekonstruktionen von Orten aus ihrer Kindheit an. Auch VR-gestützte virtuelle Präsenz könnte bereits in naher Zukunft ein großes Thema werden. Dabei können sich Menschen ähnlich wie in sozialen Netzwerken oder Foren virtuell begegnen und kommunizieren. Denkbare Szenarien hierfür wären neben Social Media und Gaming zum Beispiel Meetings, Konferenzen oder sogar Messen. Somit könnte bei Bedarf auf weite Anreisen und den damit verbundenen großen Zeitaufwand verzichtet werden, ohne dabei die Distanz einer Telefon- oder Videokonferenz in Kauf nehmen zu müssen. Verbunden mit erweiterten Körper- und Gesichtstracking könnten sich Beteiligte, repräsentiert durch ihre Avatare, virtuell am selben Ort aufhalten und dabei ähnlich gut miteinander interagieren als wenn sie sich tatsächlich gemeinsam in einem Raum befänden. Dazu kämen außerdem die nahezu unbegrenzten darstellerischen Möglichkeiten einer virtuellen Umgebung. Selbstverständlich waren dies nur einige Beispiele, wie VR gewinnbringend eingesetzt werden kann. Und es kommen ständig neue Ideen hinzu, zumal die Technologie als Massenmedium noch in den Kinderschuhen steckt. Bisher bekannte Fälle machen jedoch deutlich, dass es sich ob der vielen Vorzüge, welche die Technologie mit sich bringt, lohnt, in nahezu allen Bereichen des Lebens mit dem Einsatz von VR zu experimentieren. 8.4 Erstellung von VR-Anwendungen VR-Inhalte sind äußerst vielgestaltig und reichen von vergleichsweise einfachen 360°-Bildern und Videos bis hin zu umfangreichen und komplexen interaktiven Simulationen oder Videospielen. Ähnlich vielseitig sind auch die Herangehensweisen und die benötigten Tools für das Erstellen solcher Inhalte. <?page no="178"?> 8.4 Erstellung von VR-Anwendungen 179 8.4.1 Allgemeines zu Erstellung von Inhalten Nicht-interaktive Inhalte wie Bilder oder Videos können mittlerweile von handelsüblichen (Smartphone-)Kameras „onthe-fly“ generiert werden. Auch die meisten Softwaretools für Bildbearbeitung und Videoschnitt im professionellen Bereich unterstützen das Arbeiten mit solchen 360°-Medien. Deutlich komplexer wird der Prozess, wenn interaktive, nichtlineare Anwendungen erstellt werden sollen. Da solche Anwendungen, egal ob Spiel oder Simulation, bezüglich ihrer Beschaffenheit, Inhalte (z.B. virtuelle Welt, Benutzer-Avatar, virtuelle Objekte/ Personen) und Interaktionen (z.B. eine etwaige Handlung, …) Videospielen sehr ähnlich sind, gilt dies auch für ihre Erstellung. Folglich bieten sich für diesen Zweck so genannte Spiel-Engines oder Game-Engines an. Dabei handelt es sich um Softwaretoolboxen, die verschiedene Funktionen für das Erstellen von Videospielen bereitstellen. Es gibt eine Vielzahl solcher Tools, wobei viele große Entwicklerstudios ihre Software nur für eigene Produktionen verwenden. Daneben gibt es aber auch einige Studios, die ihre Engines unter bestimmten Bedingungen öffentlich verfügbar machen, darunter die Epic Games Unreal Engine 85 oder Cryteks CryEngine 86 . Außerdem gibt es auch einige Open-Source-Engines wie Blender 87 oder die Java-basierte jMonkeyEngine 88 . Die VR-spezifischen Funktionen wie bspw. das duale Rendering der Bildausgabe für die Darstellung mit VR-HMDs und das Tracking der VR-Controller wird in der Regel von speziellen Plugins übernommen, so dass der eigentliche Arbeitsprozess beim Erstellen einer solchen Anwendung demjenigen beim Erstellen eines Videospiels sehr ähnlich ist. 85 https: / / www.unrealengine.com 86 https: / / www.cryengine.com 87 https: / / www.blender.org 88 http: / / jmonkeyengine.org <?page no="179"?> 180 8 Virtual Reality (VR) In aller Regel muss eine virtuelle Umgebung in Form von 3D- Modellen erstellt oder anderweitig bezogen werden. Das gleiche gilt für sämtliche in der Szene enthaltenen Objekte oder Personen. Ein vollständig sichtbarer Anwender-Avatar dagegen macht ohne ein vollständiges Körpertracking, das derzeit von keinem handelsüblichen VR-System unterstützt wird, wenig Sinn, so dass häufig nur etwaig Controller und hin und wieder auch die Hände und Unterarme des Anwenders in VR visualisiert werden. Ein weiterer Kernbereich ist die Programmierung des Logikparts. Dies umfasst unter anderem mögliche Interaktionen des Anwenders mit der virtuellen Umgebung, das Mapping verschiedener Aktionen auf vorhandene Controller und generell der inhaltliche Ablauf der Anwendung. Dies wird in der Regel durch das Schreiben von Programmcode in einer bestimmten unterstützten Programmiersprache erreicht. Einige Engines bieten jedoch auch vereinfachte visuelle Programmierschnittstellen, so dass im Zweifel auch ohne „echte“ Programmierkenntnisse in der Engine programmiert werden kann. Ein für VR-Anwendungen besonders wichtiger Aspekt ist die Performance der Anwendung im Hinblick auf die erreichte Bildrate. Wenn es sich um eine interaktive, nicht-lineare Anwendung handelt, muss die gesamte graphische Ausgabe zur Laufzeit gerendert werden. Je mehr und je detailliertere Objekte in der Szene enthalten sind, desto größer wird der verursachte Rechenaufwand für die Grafikhardware und desto geringer wird die Anzahl der gerenderten Bilder pro Sekunde. Da Menschen erst ab circa 25 Bildern pro Sekunde eine fließende Bewegung erkennen, sollte die Bildrate möglichst zu keinem Zeitpunkt unter diese Schwelle fallen. <?page no="180"?> 8.4 Erstellung von VR-Anwendungen 181 Abb. 72: Workflow zur Erstellung von einfachen VR-Inhalten mit einer Game-Engine Während eine zu niedrige Bildrate bei herkömmlichen nicht- VR-Anwendungen nur ein störendes Ärgernis für den Nutzer ist, kann sie in VR eine sogenannte Motion-Sickness auslösen. Dies kann zu Unwohlsein, Kopfschmerzen, Schwindel und sogar zum Erbrechen führen. Aus diesem Grund sollte die Reduzierung von Faktoren, die zu einem unnötig hohen Rechenaufwand beim Rendern führen, während der gesamten Produktion im Auge behalten werden. 8.4.2 Beispiel: Interaktive Historytainment-Anwendung Zur Veranschaulichung folgt nun die kurze Beschreibung der Umsetzung einer interaktiven VR-Anwendung mit einer Game- Engine, in diesem Fall der CryEngine. Die hier beschriebene Anwendung ermöglicht die Besichtigung einer historischen Römersiedlung in VR mit der HTC Vive. Dabei können sich Nutzer frei in der Siedlung umherbewegen und erhalten dabei Informationen über die Anlage in Text- und Audioform. Ein erster Schritt ist die Erstellung bzw. Beschaffung der für die 3D-Szene benötigten Objekte inklusive der zugehörigen Texturen. Im Fall der Römersiedlung umfassten diese die verschiedenen Gebäudestrukturen, eine Vielzahl an Pflanzen und Vegetation, Texttafeln für Informationen und verschiedene kleinere <?page no="181"?> 182 8 Virtual Reality (VR) Objekte wie Eimer, Zäune oder Holzstapel, welche der Szene Atmosphäre und Authentizität verleihen. Diese Objekte müssen entweder selbst modelliert oder gekauft werden. Zum Modellieren bieten sich Tools wie Autodesk Maya 89 , Cinema 4D 90 oder freie Software wie Blender an. Außerdem gibt es in Verbindung mit den verfügbaren Engines oft sogenannte Asset-Packs, Bibliotheken mit Objekten und Texturen, die, wie auch die Engines, unter Einhaltung der jeweiligen Lizenzbestimmungen verwendet werden können. Im Fall der CryEngine enthalten diese Packs unter anderem eine umfangreiche Sammlung an Pflanzen und Texturen. In der Engine kann dann die virtuelle Szene aufgebaut werden. Dazu bieten moderne Engines visuelle Editoren, in denen Objekte wie Gegenstände, Charaktere, Vegetation, aber auch Licht- und Soundquellen, Event-Trigger oder Area-Objekte direkt in einer vorgerenderten Ansicht der Szene platziert werden können. Das Terrain kann entweder zufallsgeneriert, per Hand mit Sculpting-Tools geformt oder aus einer Heightmap generiert werden. Eine Heightmap ist dabei eine Rastergrafik, deren einzelne Bildpunkte Höheninformationen enthalten, die als Grauwerte dargestellt werden können. Im Fall der Römersiedlung wurde diese Technik verwendet, um das tatsächliche Gelände vor Ort sehr genau nachzubilden. Der Logikpart der Anwendung - darunter fällt unter anderem der Ablauf der Anwendung durch die Steuerung von Events und der Nutzerinteraktionen - muss programmiert werden. Dies kann entweder durch das Schreiben von Programmcode realisiert werden oder, im Fall der CryEngine, durch visuelle Programmierung, das sogenannte Flowgraph-System. Dabei können aus Knoten, die jeweils spezielle Funktionen erfüllen und über Ein- und Ausgängen miteinander verknüpft werden, se- 89 https: / / www.autodesk.de/ products/ maya/ overview 90 https: / / www.maxon.net/ de/ produkte/ cinema-4d/ cinema-4d/ <?page no="182"?> 8.5 Aktuelle Marktübersicht 183 quentielle Abläufe programmiert werden, ohne selbst Code zu schreiben. VR-spezifische Funktionalitäten wie das Tracking des HMDs und der Controller werden von einem VR-Plugin bereitgestellt. Dieses Plugin stellt, sowohl im Code als auch als Flowgraph- Knoten, Schnittstellen für den Programmierer bereit, über welche zum Beispiel die Trackingdaten der VR-Hardware abgerufen werden können. In der beschriebenen VR-Anwendung wurde die Fortbewegung neben der begrenzten Bewegung im Roomscale-Tracking- Bereich durch eine eigens programmierte Teleport-Funktion realisiert. Dabei kann der Nutzer durch das Drücken und Gedrückthalten des Vive-Controller-Touchpads einen leuchtenden Zielstrahl erzeugen, welcher den Controller verlängert. Mit diesem Strahl kann der Nutzer dann auf eine Stelle auf dem Boden zielen, wo daraufhin ein leuchtender Kegel erscheint. Lässt der Nutzer das Touchpad los, wird er in der Szene augenblicklich an diese Position teleportiert. Dieses Verfahren ermöglicht eine praktikable und schonende Fortbewegung in der virtuellen Szene. Die fertige Anwendung muss dann nur noch gepackt und exportiert werden und kann dann auf anderen Rechnern in Verbindung mit der HTC Vive ausgeführt werden. Details zur Umsetzung einer VR-Anwendung mit einer Game-Engine können den online verfügbaren Dokumentationen und Tutorials entnommen werden. 8.5 Aktuelle Marktübersicht Seitdem 2012 die Oculus Rift angekündigt wurde, sind verschiedene VR-Systeme in unterschiedlichen Preis- und Leistungsklassen auf den Markt gekommen. Für leistungsstarke Hardware erschienen im Jahr 2016 nacheinander die Oculus Rift, HTC Vive und Playstation VR, 2017 gefolgt von Microsofts Windows Mixed Reality, allesamt mit zusätzlichem Motion-Tracking. <?page no="183"?> 184 8 Virtual Reality (VR) Für Smartphones erschien bereits 2014 das sehr einfache Google Cardboard, gefolgt von Samsungs Gear VR im Jahr 2015 und Google Daydream im Jahr 2016. Exemplarisch werden diese Systeme im Folgenden kurz vorgestellt, insbesondere mit Blick auf die Unterschiede und ihre jeweilige Leistungsfähigkeit. 8.5.1 Mobile VR Bei dem bereits 2014 erschienen Google Cardboard handelt es sich ursprünglich um eine preisgünstige Kartonhalterung mit zwei Sammellinsen, mit denen Smartphones wie eine Brille getragen werden können und mithilfe einer entsprechenden Android- App eine VR-Ausgabe ermöglicht wird. Später wurde das Produkt in verschiedenen Varianten auch mit höherwertigeren Materialien erstellt, die zwischen 7 und 60 Dollar kosten. Dabei handelt es sich jedoch nach wie vor um sehr einfache VR, da das System bei der Darstellung auf die teils eher dürftige Rechenleistung der verwendeten Smartphones angewiesen ist. Abb. 73: Mobile Virtual Reality Samsungs Gear VR ist Teil einer Serie von Wearables, die im November 2015 erschien und Stand Ende 2017 über 5 Millionen-mal verkauft wurde. Das Gerät wurde von Samsung zusammen mit Oculus VR entwickelt und unterstützt eine Reihe von Samsung-Smartphones. Der anfängliche Verkaufspreis betrug 100 USD. Das System verfügt über einen Rotationssensor und einen verbauten Touch-Controller zur Bedienung. Geeignete VR-Apps können über Oculus Home, einen Software- Store, den auch Oculus‘ Rift System verwendet, bezogen werden. Da es nur mit ausgewählten Samsung Smartphones aus dem höheren Preissegment kompatibel ist, ist Gear VR leistungstechnisch über Googles Cardboard einzuordnen. <?page no="184"?> 8.5 Aktuelle Marktübersicht 185 Google Daydream ist ein mit Samsungs Gear vergleichbares System, das Google 2016 auf den Markt brachte. Im Gegensatz zum günstigeren Google Cardboard unterstützt Daydream nur einige ausgewählte High-End-Smartphones mit aktuellen Android- Versionen und ist daher leistungstechnisch, wie auch Gear VR, höher anzusiedeln. Zum Release wurde das System für 80 USD verkauft. Kompatible Apps sind unter anderem Googles Dienste wie YouTube, Google Maps Street View oder Google Play Movies & TV, dazu kommen weitere Apps, die mit Googles Daydream SDK entwickelt wurden. 8.5.2 High-End-VR Im höheren Preis- und Leistungs-Segment dominieren derzeit Sonys Playstation VR, HTCs Vive und Oculus VRs Rift den Markt. Playstation VR ist dabei mit fast 500.000 verkauften Exemplaren der Marktführer, vor der Oculus Rift mit 210.000 ausgelieferten Einheiten und der HTC Vive mit 160.000 verkauften Exemplaren (Stand Dezember 2017). Zuerst erschien Ende März 2016 die Oculus Rift mit einem Verkaufspreis von 600 USD. Das HMD hat eine Auflösung von 2160 × 1200 Pixeln, was pro Auge einer Auflösung von 1080 × 1200 Pixeln entspricht. Zur Bedienung wurden anfangs mitgelieferte Xbox One-Gamecontroller verwendet, bis im Dezember 2016 schließlich eigene Motion-Touch-Controller und ein Roomscale-Tracking-System eingeführt wurden. Diese zusätzliche Hardware wird separat zum HMD verkauft, wodurch sich der Preis für das Gesamtsystem noch einmal erhöht. Für den Betrieb der Rift wird ein Windows-PC mit einer entsprechend leistungsstarken Grafikkarte benötigt (mindestens NVIDIA GeForce GTX 770). HTCs Vive wurde kurz darauf Anfang April 2016 mit einem initialen Verkaufspreis von 800 USD veröffentlicht. Die Auflösung ist identisch zu der der Oculus Rift, und auch für die Vive wird eine leistungsstarke Grafikkarte (mindestens NVIDIA GeForce GTX 1060) benötigt. Angekündigt wurde die Vive so- <?page no="185"?> 186 8 Virtual Reality (VR) wohl für Windows als auch für Linux. Zum Zeitpunkt des Release wurde das VR-System jedoch nur von Windows-PCs unterstützt. Linux wird zwar mittlerweile (Stand Ende 2017) zum Teil unterstützt, allerdings bestehen noch einige Probleme. Die Auswahl an kompatiblen Anwendungen ist ebenfalls noch stark begrenzt. Seit Herbst 2017 wird die Vive außerdem von Apples MacOS unterstützt. Im Gegensatz zur Rift enthielt der Lieferumfang der Vive von Anfang an zwei Motion-Touch-Controller sowie ein vollständiges Roomscale-Tracking-System, womit mithilfe von zwei diagonal gegenüberliegenden Infrarotsensoren die Position und damit die Bewegungen der beiden Controller und des Headsets und damit auch des Nutzers im Raum getrackt werden kann. Anwendungen können über die Spieleplattform Steam sowie den Viveport, ein Store speziell für die Vive, bezogen werden. Eine Vive Pro mit unter anderem einem kabellosen HMD und einer mit 2880 × 1600 Pixeln deutlich höheren Auflösung wurde im Rahmen der CES 2018 angekündigt. Abb. 74: Roomscale Virtual Reality am Beispiel der HTC Vive Im Oktober desselben Jahres erschien dann Playstation VR, ein HMD für den Betrieb mit Sonys Playstation 4. Das System besteht aus dem HMD, einer Kamera zum Tracking des Nutzers und einem trackbaren Playstation Move-Controller. Wegen der im Gegensatz zu High-End-PC-Grafikkarten geringeren Rechenleistung ist die Auflösung mit 960 × 1080 Pixeln pro Auge etwas geringer als bei der Rift und der Vive, dies soll jedoch laut Sony <?page no="186"?> 8.5 Aktuelle Marktübersicht 187 durch eine bessere Display-Technik und eine Bildrate von 120 Hz kaum ins Gewicht fallen. Der große Pluspunkt von Playstation VR gegenüber der Konkurrenz, welcher sich auch in den Verkaufszahlen abbildet, ist der bessere Preis verbunden mit der höheren Verbreitung von Playstation Konsolen bei den Heimanwendern gegenüber leistungsstarken PCs. Im Oktober 2017 trat schließlich Microsoft mit Windows Mixed Reality in den VR-Markt ein. Im Gegensatz zu HTC und Oculus VR entwickelte Microsoft die VR-Hardware jedoch nicht selbst, sondern stellt lediglich die Software sowie eine Hardware-Blaupause für Dritthersteller zur Verfügung. So gibt es bisher HMDs von Acer, Dell, HP und Lenovo, die weitestgehend identische technische Spezifikationen aufweisen und sich lediglich im Design unterscheiden. Preislich bewegen sich alle vier Produkte mit einem anfänglichen Verkaufspreis von 450 € bis 505 € zwischen Playstation VR und Oculus Rift. Das System umfasst ein HMD und zwei Motion-Controller, die vom HMD getrackt werden, sodass im Gegensatz zur HTC Vive keine zusätzlichen Trackinggeräte nötig sind. Die Auflösung ist mit insgesamt 2880 × 1440 etwas höher als die der Konkurrenz, dafür ist die LCD-Displaytechnik deren OLED-Displays unterlegen. Ein Kritikpunkt ist auch das mit 105° etwas zu enge Sichtfeld, was eine Art Taucherbrilleneffekt zur Folge hat. Im Gegenzug sind die Hardware-Anforderungen jedoch geringer als bei der Rift und der Vive. Bei der Betrachtung des aktuellen VR-Markts stellt man also fest, dass es bereits nach kurzer Zeit Produkte in allen Preissegmenten gibt. Bereits für vergleichsweise kleines Geld kann einfache VR zum Beispiel mit Google Cardboard oder Samsungs Gear VR mit Smartphones dargestellt werden. Im mittleren Preissegment findet man mit Playstation VR und Windows Mixed Reality Produkte sowohl für Konsolen als auch für Notebooks und PCs, und im Premium-Segment findet man die Oculus Rift und die HTC Vive, die allerdings auch leistungsstärkere und somit teure Hardware voraussetzen. <?page no="187"?> 188 8 Virtual Reality (VR) 8.6 Was bringt die Zukunft? Durch die in den letzten Jahren stark gewachsene Popularität von VR sind mittlerweile fast alle großen Hard- und Software- Hersteller im Consumer-Bereich in den VR-Markt eingestiegen. Dadurch ist in allen Bereichen bis auf den Konsolen-Bereich, wo Sony mit Playstation VR derzeit der einzige Anbieter ist, eine Konkurrenzsituation entstanden, von der die Entwicklung der Technik mit Sicherheit profitieren wird. Generell ist davon auszugehen, dass alle bestehenden Systeme technisch weiterentwickelt werden. Vor allem die Displayauflösungen werden hier für einige Zeit ein großes Thema bleiben, da bei fast allen aktuellen HMDs ein mehr oder weniger starker Fliegengittereffekt durch zu grobe Auflösungen entsteht. Gebremst wird eine schnellere Weiterentwicklung vor allem durch das Leistungsvermögen der verfügbaren Hardware, in erster Linie das der Grafikprozessoren. Aber auch andere Spezifikationen wie das Sichtfeld, die Display-Technologie oder das Gewicht der HMDs bieten noch Raum für Verbesserungen. Im Bereich der Roomscale-Tracking-Systeme wird es interessant sein zu beobachten, welche der derzeit verwendeten Tracking- Systeme sich mittelfristig durchsetzen wird. Die qualitativ beste, aber auch teuerste und aufwändigste Tracking-Lösung bietet derzeit die HTC Vive mit ihrem Lighthouse-Tracking, das zusätzliche externe Sensorik benötigt. Einen ähnlichen Weg gehen auch die Oculus Rift, die den Nutzer mit zwei frontalen Sensoren trackt, und die Playstation VR, die mit einer separaten Frontalkamera das HMD und den Controller verfolgt. Ganz anders funktioniert das sogenannte Inside-Out-Tracking bei Windows Mixed Reality. Dabei werden die Touch-Controller vom Headset aus getrackt, was deutlich komfortabler, aber im Gegenzug auch etwas unpräziser funktioniert. Eine weitere Schwierigkeit bei Roomscale-VR ist die häufig verwendete Kabelverbindung vom HMD zum Rechner. Wenn sich der Nutzer ausgiebig bewegt, zum Beispiel bei Spielen, wird <?page no="188"?> 8.6 Was bringt die Zukunft? 189 das Kabel schnell zum Störfaktor. Drahtlos-Lösungen sind deswegen bereits in Entwicklung oder im Fall der während der CES 2018 angekündigten Vive Pro oder bei Windows Mixed Reality Geräten bereits umgesetzt. Hier ist bereits abzusehen, dass Kabelverbindungen bei VR-HMDs mit hoher Wahrscheinlichkeit in absehbarer Zeit vollständig durch drahtlose Lösungen ersetzt werden. Ein weiteres großes Thema ist die Vermeidung von Motion- Sickness. Neben stabilen Bildraten ist dafür auch die Fortbewegungsmethode in der virtuellen Umgebung ein wichtiger Faktor. Die konstante Bewegung mittels Tastatur oder Joystick, wie man sie aus diversen Videospielen kennt, führt in VR bei vielen Menschen zu Unwohlsein, besonders wenn sie dabei sitzen. Das lässt sich damit erklären, dass das Gehirn dabei widersprüchliche Informationen erhält. Während das VR-HMD den Augen vorgaukelt, dass man sich fortbewegt, melden die übrigen Sinne keine Bewegung. Leichte Verbesserungen lassen sich erzielen, wenn der Nutzer dabei steht oder auf der Stelle läuft. Ein anderer Ansatz ist die Bewegung per Teleport. Dabei zielt der Nutzer in der virtuellen Umgebung auf einen Punkt und wird augenblicklich dorthin bewegt. Diese Methode hat sich erfahrungsgemäß als deutlich schonender erwiesen, hat allerdings den Nachteil, dass sie bei vielen Anwendungen die Immersion stört. Es gibt noch einige weitere Ansätze zur Lösung dieses Problems. Eine optimale Lösung, die Motion Sickness möglichst vermeidet ohne dabei der Immersion abträglich zu sein, wurde jedoch noch nicht gefunden. Im Internet finden sich auch Experimente mit omnidirektionalen Laufbändern zur Fortbewegung in VR. Obwohl sich der Ansatz vielversprechend anhört, sind die hohen Anschaffungskosten für solche Geräte ein großer Minuspunkt. Neben den genannten Themen gibt es noch einige weitere Entwicklungsfelder, unter anderem verschiedene Methoden zur Erhöhung der Immersion. Hier gibt es beispielsweise Versuche mit zusätzlicher Hardware für haptisches Feedback, beispielsweise Bänder oder Kleidungsstücke, die Berührungen an ver- <?page no="189"?> 190 8 Virtual Reality (VR) schiedenen Stellen des Körpers simulieren. Ob sich solche Technologien durchsetzen werden, bleibt jedoch abzuwarten. Insbesondere im mobilen Bereich hat VR einige Schnittpunkte mit Augmented Reality (AR) und Mixed Reality (MR). Im Gegensatz zu VR, die sich wegen der limitierten Leistungsfähigkeit der Mobilgeräte und der generell eher mangelhaften Praktikabilität im mobilen Einsatz weniger für diesen Bereich eignet, gibt es für AR und MR diverse Einsatzszenarien, die VR nicht bedienen kann. Diese Faktoren sprechen für eine stärkere Fokussierung auf AR und MR im Mobilbereich. Wahrscheinlich werden VR Anwendungen auf Mobilgeräten nicht völlig verschwinden, aber neben den beiden genannten Alternativen wohl eher eine Nische besetzen. Im stationären Einsatz, ob zuhause als Entertainmentmedium oder in einem der diversen beschriebenen professionellen Einsatzszenarien spricht jedoch kaum etwas gegen VR als eines der wichtigsten Medien der Zukunft. 8.7 Literatur Dörner, Ralf, Wolfgang Broll, Paul Grimm, B. Jung (Hrsg.) (2014). Virtual und Augmented Reality. Grundlagen und Methoden der Virtuellen und Augmentierten Realität. Springer Berlin Heidelberg Jerald J. (2015): The VR Book: Human-Centered Design for Virtual Reality. Morgan & Claypool Publishers Linowes J. (2015): Unity Virtual Reality Projects: Explore the world of virtual reality by building immersive and fun VR projects using Unity 3D. Packt Publishing Parisi T. (2015): Learning Virtual Reality: Developing Immersive Experiences and Applications for Desktop, Web, and Mobile. O’Reilly Media, 1 st Edition <?page no="190"?> 9 Visualisierung und Manipulation Lernziele Nach der Durcharbeitung dieses Kapitels sollten Sie zwischen deskriptiver rund suggestiver Datenvisualisierung unterscheiden können, einen Überblick über verbreitete Ansätze bei der suggestiven Datendarstellung mittels Diagrammtechniken besitzen, elementare Regeln einer möglichst objektiven Visualisierung von Sachverhalten beherrschen. Datenvisualisierung ist - wie mehrfach bereits erwähnt - zur effektiven Kommunikation komplexer Sachverhalte unentbehrlich, nicht nur in den verschiedenen Wissenschaften. Auch in unserem Alltag sind wir permanent mit grafisch aufbereiteten Daten unterschiedlichster Sachverhalte konfrontiert, die insbesondere in Zeiten der Aufmerksamkeitsökonomie (welche die Aufmerksamkeit eines Menschen als knappes Gut betrachtet) ein Schlaglicht auf komplexe Themen und Zusammenhänge wirft. Vor allem in diesem medialen Anwendungsfeld ist die Grenze zwischen einer objektiven oder einer tendenziösen Darstellung häufig nicht klar erkennbar. Wir müssen deshalb zwischen deskriptiver und suggestiver Datenpräsentation unterscheiden. Bei deskriptiven Präsentationen sind z.B. Messwerte mit entsprechenden Hintergrundinformationen grafisch oder tabellarisch dargestellt. Werden Grafiken abgebildet, ohne einen Sachverhalt näher zu erläutern, spricht man von suggestiver Datenpräsentation. Insbesondere dann, wenn im Rahmen des Mapping-Prozesses Maßnahmen ergriffen werden, die den dargestellten Sachverhalt überbewerten oder abschwächen und so dem Betrachter eine interpretative <?page no="191"?> 192 9 Visualisierung und Manipulation Richtung vorgeben. Einige wenige Techniken, die im Rahmen der suggestiven Datenpräsentation eingesetzt werden, sind nachfolgend aufgeführt. In diesem Kapitel geht es nicht darum, Anregungen für subjektiv geprägte und tendenziöse Grafiken zu geben. Vielmehr sollen Sie ein paar grundlegende manipulative Techniken kennenlernen, mit denen wir in unserem Alltag häufig konfrontiert werden. Mit diesem Wissen können Sie sich besser vor Falschmeldungen und tendenziöser Berichterstattung schützen. 9.1 Stichproben mit systematischem Fehler „Es gibt drei Arten von Lügen: Lügen, infame Lügen und Statistiken.“ Benjamin Disraeli (1804-1881) Schon weit vor der grafischen Aufbereitung können z.B. durch eine unzureichende Datenerfassung die Grundlagen für tendenziöse, bzw. neutral betrachtet, fehlerbehaftete Aussagen gelegt werden. Da kein Statistiker mangels Möglichkeit die gesamte Grundgesamtheit beproben bzw. befragen kann, wird versucht, über repräsentative Stichproben Rückschlüsse auf die Situation in der Grundgesamtheit zu ziehen. Statistiken sind deshalb oftmals nicht mehr als grobe Schätzungen, die zwar scheinbar exakt sind, dennoch bewusst oder unbewusst beeinflusst werden können. Betrachten wir das Problem am Beispiel des bei Schubert 91 aufgeführten Pro-Kopf-Verbrauchs von Lebensmitteln in Deutschland. Man liest des Öfteren, dass beispielsweise der Pro- Kopf-Verbrauch angenommen von Kartoffeln in Deutschland im Vorjahr 58,8 kg betrug (2015/ 2016) 92 . Auf den ersten Blick erscheint uns die 58,8 kg eine ganz exakte Zahl zu sein. In Wirklichkeit ist es jedoch unmöglich, den Verbrauch so genau anzu- 91 https: / / www.selbstaendig-im-netz.de/ tipps/ luegen-leicht-gemachtgedanken-zu-grafischen-darstellungen-und-manipulation/ 92 https: / / de.statista.com/ statistik/ daten/ studie/ 175422/ umfrage/ pro-kopf-verbrauch-von-kartoffeln-in-deutschland/ <?page no="192"?> 9.1 Stichproben mit systematischem Fehler 193 geben, schließlich müsste man auch berücksichtigen, wie viele der gekauften Kartoffeln überhaupt nicht verzehrt, sondern weggeworfen wurden. Ein weiteres Problem stellt die verwendete Stichprobe dar, d.h. die Zusammensetzung der Gruppe der Befragten, deren Verbrauch auf die Gesamtbevölkerung umgelegt wurde. Ist diese nicht repräsentativ für die Grundgesamtheit, können hier leicht falsche Schlüsse gezogen werden. Mangelnde Repräsentativität von Stichproben kann durch viele Faktoren begründet sein, insbesondere dann, wenn wie in unserem Fall z.B. eine telefonische Befragung von Haushalten mittels Zufallsstichprobe durchgeführt wird. Die Ursachen, mit einer solchen Methode nur ein Subset der Grundgesamtheit zu erreichen, sind dabei vielfältig: Nur bekannte bzw. zugängige Adressen (z.B. Festnetzkunden) werden befragt, Haushalte ohne Festnetzanschluss bzw. ohne Telefonbucheintrag fallen durch. Nur Antworten von Personen, die an der Befragung auch teilnehmen möchten, fließen in das Ergebnis ein. Zum Befragungszeitpunkt (z.B. tagsüber) sind viele berufstätige Menschen nicht im eigenen Haushalt erreichbar. Falsche Angaben des Interviewpartners aus Unsicherheit (wer von uns weiß schon, wieviele Kartoffeln er in einem Monat kauft? ) Aus Voreingenommenheit gegenüber dem Kartoffelkonsum resultierende falsche Angaben. …. Ob die schlussendlich Befragten am Ende repräsentativ für alle Haushalte in Deutschland sind, kann also gerne angezweifelt werden. Das Ergebnis einer Befragungsstudie kann also nur so gut sein wie die Auswahl seiner Stichprobe. Selbstverständlich hat die Statistik ein entsprechendes Methoden-Set an der Hand, möglichst repräsentative Beprobungen durchzuführen (z.B. geschichtete Zufallsstichprobe mit geeigne- <?page no="193"?> 194 9 Visualisierung und Manipulation tem Umfang), es ist aber offenkundig, dass durch die Wahl des Beprobungsverfahrens die Grundlage für eine tendenziöse Berichterstattung bzw. Visualisierung gelegt werden kann. Die Frage nach dem Zustandekommen von Aussagen bzw. Daten ist deshalb unentbehrlich, um auf mögliche Quellen für systematische Fehler in der Stichprobe Rückschlüsse ziehen zu können. Für weiterführende Informationen zu diesem spannenden Thema sei an dieser Stelle auf die vielfältige Statistikliteratur hingewiesen. 9.2 Auswirkungen der Wahl des Lokationsmaßes „Averages and relationships and trends and graphs are not always what they seem“. 93 Bei der Bereitstellung statistischer Daten und Informationen werden häufig Lokationsmaße in Form von Mittelwerten gewählt. Da wir hier neben dem arithmetischen Mittelwert auch z.B. auf den Median (Zentralwert; mittlerer Wert einer geordneten Reihe) bzw. den Modalwert (Modus; häufigster vorkommender Wert) zurückgreifen können, eröffnet eine geschickte Wahl hier ebenfalls eine Manipulationsmöglichkeit, vor allem wenn auf die korrekte Bezeichnung des gewählten „Mittelwertes“ verzichtet wird. Während bei einer Normalverteilung der Werteausprägung in der Grundgesamtheit die „Durchschnittswerte“ arithmetisches Mittel, Median und Modus identisch sind, können sie bei asymmetrischen Verteilungen (z.B. bei linkssteilen oder rechtssteilen Verteilungen) z.T. weit auseinander liegen. Obwohl die Verwendung der verschiedenen Typen durchaus legitim ist, können die Durchschnittswerte größer oder kleiner ausfallen, je nachdem, welcher Mittelwert verwendet wird. 93 Huff Darrell (1993): How to lie with statistics. W.W. Norton & Company, New York London <?page no="194"?> 9.2 Auswirkungen der Wahl des Lokationsmaßes 195 Abb. 75: Zugelassene PKW pro 1000 Einwohner in den Landkreisen und kreisfreien Städten Deutschlands im Jahre 2016 94 . Lage von arithmetischem Mittel, Median und Modalwert. 94 https: / / www-genesis.destatis.de/ gis/ genView? GenMLURL= https: / / www-genesis.destatis.de/ regatlas/ AI013- 1.xml&CONTEXT=REGATLAS01 <?page no="195"?> 196 9 Visualisierung und Manipulation 9.3 Manipulation mit Diagrammen Auch scheinbar objektive Diagramme können allein durch ihre gewählte Darstellung übertreiben oder verharmlosen und so einen tendenziösen, oft auch falschen Eindruck erwecken. Sehr oft werden hierbei auf kreative Weise verschiedene Möglichkeiten der Verzerrung eingesetzt, um den Betrachter in die Irre zu führen. Betrachten wir bspw. die nachfolgend abgebildeten Grafiken zur Entwicklung der Jahresmitteltemperatur an der DWD-Station Saarbrücken-Ensheim der letzten Jahre. Die Datengrundlage ist bei allen Diagrammen die gleiche. Abb. 76: Entwicklung der Jahresmitteltemperatur in Saarbrücken (DWD- Station Saarbrücken-Ensheim), Variante 1 Obige Abbildung zeigt eine objektive Darstellung der Jahresmitteltemperaturen, die Null-Linie ist vorhanden, ebenso stimmen die Verhältnisse der beiden Achsen sowie die Skalierung der Größenachse (linear). <?page no="196"?> 9.3 Manipulation mit Diagrammen 197 Abb. 77: Entwicklung der Jahresmitteltemperatur in Saarbrücken (DWD- Station Saarbrücken-Ensheim), Variante 2 In Balkendiagrammen repräsentiert jeder senkrechte Balken einen bestimmten Wert. Dabei ist die Balkenlänge normalerweise proportional zum darzustellenden Wert. Durch einfaches Ändern der Werte der Größenachse (nicht der tatsächlichen Daten) können bereits beeindruckende Effekte erreicht werden. So kann durch das Abschneiden der vertikalen Achse (d.h. die Größenachse beginnt bei einem subjektiv zu wählenden Wert; Veränderung der Baseline/ Null-Linie) eine Entwicklung dramatisiert werden (aus einem kleinen Temperaturanstieg wird ein großer), obwohl die zugrundeliegenden Werte tatsächlich kaum schwanken. Seriöse Darstellungen, welche mit dieser Methode kleine Variationen verdeutlichen wollen, müssen die vertikale Achse sowie die Balken deutlich sichtbar unterbrechen (siehe nachfolgende Abbildung). <?page no="197"?> 198 9 Visualisierung und Manipulation Abb. 78: Entwicklung der Jahresmitteltemperatur in Saarbrücken (DWD- Station Saarbrücken-Ensheim), Variante 3 Weitere manipulative Techniken bei der Erstellung von Diagrammen sind z.B. das Weglassen von Skalen an den Achsen. Hierdurch hat der Betrachter keine Möglichkeit mehr, den Wahrheitsgehalt der Darstellung zu überprüfen. Auch ein Anstieg oder Abfallen der Grundlinie (horizontale Achse) kann stark ansteigende oder fallende Werte suggerieren, obwohl keine oder lediglich nur eine geringe Veränderung in den absoluten Werten vorhanden ist. Letztlich stellt auch das einfache Weglassen von nicht erwünschten Werten eine Möglichkeit zur tendenziösen Darstellung dar. Neben den genannten Verfahrensweisen kann auch die Perspektive zu einer verzerrten Wahrnehmung von Größenverhältnissen beitragen. So suggerieren nachfolgend abgebildete 3D- <?page no="198"?> 9.4 Manipulation mittels Piktogrammen 199 Kreisdiagramme eine unterschiedliche Verteilung der Größenverhältnisse, trotz gleicher Datenlage. Abb. 79: Unterschiedliche Wahrnehmung von Kreisdiagrammen in Abhängigkeit von der Perspektive (Beispiel Waldanteil an der gesamten Flächennutzung im Land Rheinland-Pfalz 95 ) 9.4 Manipulation mittels Piktogrammen Auch Piktogramme werden gerne verwendet, um Entwicklungen suggestiv zu unterstreichen. Dies geschieht insbesondere dann, wenn anstelle einer z.B. balkenbezogenen Darstellung, bei der die Balkenlänge proportional zum darzustellenden Wert sein sollte, die Länge und die Breite des Bildes proportional verändert wird. Da sich die Perzeption des Betrachters auf die Flächengröße konzentriert, kann so ein falscher Eindruck vermittelt werden. Eine Verdoppelung des Ausgangswertes führt bei einer Verdoppelung von Länge und Breite des Icons zu einer vierfachen Fläche des Grafikobjektes und suggeriert dem Betrachter z.B. ein überproportionales Wachstum, da die Verhältnismäßigkeit in Bezug auf die Flächengröße nicht mehr gewahrt ist. Bei einer dreidimensionalen Darstellung würde mit dieser Methode gar das achtfache Volumen erzeugt und dargestellt. 95 https: / / www.wald-rlp.de/ en/ wald/ zahlenspiegel/ waldflaeche-undbaumartenverteilung/ <?page no="199"?> 200 9 Visualisierung und Manipulation Um eine flächenproportionale Größenänderung der Objekte zu erreichen, dürften in unserem Beispiel Länge und Breite jeweils nur mit dem Quadratwurzelwert multipliziert werden. Abb. 80: Nicht-flächenproportionale Darstellung der Entwicklung der Studierendenzahlen am Umwelt-Campus 9.5 Manipulation mit Karten „Das überzeugende Erscheinungsbild moderner Karten täuscht über die ihnen innewohnende Subjektivität hinweg.“ 96 Tatsächlich stecken insbesondere in allen thematischen Karten Grundannahmen und gesellschaftliche Konventionen der jeweiligen Autoren bzw. Hersteller. Diese Subjektivität erscheint beim Studium historischer Karten zwar offenkundig, sie entgeht dem Betrachter jedoch oft bei modernen kartographischen Darstellungen. Die in Kartenwerken enthaltene Information lässt sich mithin nur dann richtig verwerten, wenn man sich die unauffälligen Auslassungen und Verzerrungen bewusst macht. 96 https: / / www.spektrum.de/ magazin/ die-macht-der-karten/ 821205 <?page no="200"?> 9.6 Manipulation mittels Bildbearbeitung 201 Die Karte als Darstellungsmittel bietet also - ähnlich der Diagrammtechnik - vielfältige Möglichkeiten zur Manipulation. Die Gründe hierfür können sehr vielfältig sein und neben nationalen oder politischen auch wirtschaftliche Interessen umfassen. Interessante Ausführungen zur „Propagandakartographie“ finden sich unter anderem bei Schobesberger 97 . Da Karten als vereinfachte Darstellungen der Realität und aus Gründen der Übersichtlichkeit nicht alle Details wiedergeben können, sind sie auf die Beschreibung der groben Zusammenhänge beschränkt. Durch Weglassen von Informationen und/ oder geschickte Wahl der kartographischen Gestaltungsmittel können auch hier raumbezogene Fakten bzw. Trends je nach Bedarf verstärkt oder abgeschwächt werden. Ein gängiges Verfahren, welches zu einer Fehlinterpretation von Kartenwerken führen kann, ist die Visualisierung der Ausprägung eines Parameters (z.B. Abstimmungsergebnis einer Befragung) über die Größe von Flächengeometrien (z.B. Verwaltungseinheiten), bei der keine Korrelation zwischen Geometrie und Parameterausprägung gegeben ist. Werden noch die Klassengrenzen geeignet gewählt und anstelle von absoluten Werten relative (Prozentangaben) dargestellt, ist die Verwirrung komplett. 9.6 Manipulation mittels Bildbearbeitung Die digitale Bildbearbeitung bietet heutzutage ebenfalls unzählige, leicht zu realisierende Manipulationsmöglichkeiten. Neben einfachen Retusche-Arbeiten kommen hier auch komplexere Ansätze wie z.B. das Austauschen und Einbetten von Personen etc. zum Einsatz. Unter einer Fotomanipulation versteht man dabei „die Veränderung einer Fotografie unter Zuhilfenahme technischer Mittel, um einen fremden Sachverhalt vorzutäuschen.“ 98 Auf die Darstellung eigener Beispiele wurde an dieser 97 http: / / othes.univie.ac.at/ 10001/ 1/ 2010-05-17_0201518.pdf 98 https: / / de.wikipedia.org/ wiki/ Fotomanipulation <?page no="201"?> 202 9 Visualisierung und Manipulation Stelle verzichtet, zumal im Web eine Vielzahl von bekannten und weniger bekannten Beispielen zu finden ist. Die Manipulation im Bereich der Fotografie kann dabei vor (inszenierte Fotografie), während (z.B. Belichtungskorrektur) oder nach der Aufnahme (Bildbearbeitung) erfolgen. Digitale Wasserzeichen sowie Methoden der digitalen Bildforensik sind Versuche, die Bestimmung des Bildursprungs sowie die Erkennung von Manipulationen digitaler Bilddaten zu ermöglichen. 9.7 Anmerkungen Nicht alle Daten können bezüglich ihrer Qualität und Seriosität mit der Exaktheit und Sicherheit einer Laboranalyse getestet werden. Mittels weniger Fragen kann in Anlehnung an Huff 99 jedoch die Qualität der Ausgangsdaten, aber auch der daraus abgeleiteten grafischen Produkte eingeordnet werden: Who says so? Gibt es einen bestimmten Grund für diese Aussage (z.B. Reputation, Verkaufsinteresse etc), sind die Organisation oder der Autor benannt? How does he know? Wie kamen Daten, Antworten etc. zustande? What is missing? Was ist die Bezugsgröße, welches Lokationsmaß wurde verwendet, wie groß war die Stichprobe, Fragen der Repräsentativität etc.? Did somebody change the subject? Gibt es einen Switch zwischen der eigentlichen Visualisierung und den daraus gezogenen Schlussfolgerungen? In Spannweiten denken: Dezimalkomma-Angaben liefern dem Inexakten die Aura von Genauigkeit (insbesondere bei kleinen Stichprobenumfängen). 99 Huff Darrell (1993): How to lie with statistics. W.W. Norton & Company, New York London <?page no="202"?> 9.7 Anmerkungen 203 Abb. 81: Monatsbezogene Mittelwerte und extreme Tagesmittel der Lufttemperatur in Saarbrücken-Ensheim. Die Angabe der Spannweite der zu erwartenden Monatstemperaturen erleichtert die Interpretation der dargestellten Mittelwerte Grafische Darstellungen gleich welcher Art sollten auf den Betrachter überzeugend wirken. Eine seriöse Darstellung darf durch ihre Gestaltung nicht zu Fehleinschätzungen seitens des Lesers führen. Die Verwendung von absoluten Werten sowie die Dokumentation der Variationsbreite sind einfache Möglichkeiten, objektiv zu bleiben. Auch sollten lineare Größen nicht als Flächen oder Volumen dargestellt werden. Weiterhin besteht durchaus auch bei fast allen Darstellungsarten die Möglichkeit, durch eine Randbemerkung erläuternde Hinweise zur gewählten Datengrundlage, Methode etc. zu geben. Mit einem interessanten Beispiel aus Beller 100 zur Frage „Können Hunde Eier legen? “ wollen wir anschließend noch auf die Unterschiede in Bedeutung und Wahrnehmung von Anzahl und Anteil eingehen: In einem Raum liegen sieben Würste und drei 100 Beller, Sieghard (2008): Empirisch forschen lernen. Konzepte, Methoden, Fallbeispiele. Tipps Taschenbuch <?page no="203"?> 204 9 Visualisierung und Manipulation Eier auf dem Tisch. Der Anteil der Eier beträgt demnach 30%. Ein Hund kommt in den Raum. Nachdem er den Raum wieder verlässt, beträgt die Anzahl der Eier 60%. Die Prozentzahlen legen nahe, dass sich die Anzahl der Eier verdoppelt hat. Doch anstatt anzunehmen, dass der Hund tatsächlich „Eier gelegt“ hat, ist klar, dass er stattdessen Würste aufgefressen hat. Es werden hier Zahlen verglichen, die nicht die gleiche Basis, das heißt die gleiche Gesamtzahl haben. Durch die verschleierte Darstellung wird suggeriert, dass ein Zuwachs stattgefunden hat. Dieses Beispiel macht deutlich, wie wichtig die Kenntnis der absoluten Zahlen für die Interpretation von Anteilen ist. 9.8 Weiterführende Literatur Beller, Sieghard (2008): Empirisch forschen lernen. Konzepte, Methoden, Fallbeispiele. Tipps Taschenbuch Bortz, Jürgen (2016): Statistik: Für Human- und Sozialwissenschaftler. 6. Auflage, Springer Verlag Heidelberg Huff Darrell (1993): How to lie with statistics. W.W. Norton & Company, New York London Dewdney, A. K. (1994): 200 Prozent von nichts: die geheimen Tricks der Statistik und andere Schwindeleien mit Zahlen. Birkhäuser Verlag, Basel <?page no="204"?> Index 360°-Medien 179 3D-Druck 103 3D-Modellierung 80 3D-Object-Recognition 159 3D-Scanner 81 3D-Stadtmodelle 90 3D-Szene 80 AAA-Games 176 achromatische Farben 45 Airborne Laser Scanning 90 Alias-Artefakte 114 ALKIS 68 Alpha Blending 87 Anti-Aliasing-Filter 121 Anwender-Avatar 180 Anwendungssysteme 26 Architekturaufnahmen 141 ATKIS 68 Augmented Reality 147 Balkendiagrammen 197 Barrierefreiheit 47 Bereichsdiagramm 57 Bezugsflächenkarten 72 Bildanalyse 23, 35, 123 Bildauflösung 28 Bildbearbeitung 107 Bildformate 28 Bildinformation 114 Bildoperatoren 115 Bildsegmentierung 124 Bildsynthese 88 Bildverarbeitung 23 Bitmap 29 Blitzlicht-Fotographie 126 Boundary Representation 84 Box- & Whisker-Plot 59 Bump-Mapping 87 bunte (chromatische) Farben 45 Business-Charts 56 Canny Edge Detector 122 CityGML 96 Cluster-Analyse 131 Color Jet Printing 104 Computer Aided Design (CAD) 34 Computer Graphics 22 Computer Vision 23 Computergraphik 21 Computerkunst 36 <?page no="205"?> Computertomographie 112 Computervisualistik 37 cyber-physische Applikationen 22 Datenexploration 39 Datenvisualisierung 22 Desktop Publishing 36 Diagrammtechniken 34, 55 digitale Bildverarbeitung 35 Digitalfotographie 108, 109 Displaybrille 153 Dokumentenmanagement 108 dreidimensionale Marke 159 Echolotung 112 Edges 84 Effektivität 40 Endmaße 169 Entwicklerwerkzeuge 162 Environment Maps 87 Expressivität 41 extrudierte Karten 75 Face 84 Farbenfehlsichtigkeit 48 Farbreiz 45 Farbtiefe 28 Fernerkundung 125 Fiducial Marker 157 Filter 121 Filterung im Ortsbereich 119 Flächenmodelle 83 Flugsimulatoren 175 Fourier-Transformation 122 Fused Deposition Modeling 104 Game-Engine 181 Gaming 178 Gamma-Korrektur 117 Gantt-Charts 60 Geländemodell 29 Generalisierung 72 generative Computergrafik 22, 79 Geodäsie 81 Geodaten 67 Geographic Markup Language 96 geographisches Informationssystem 66 geometrische Modellierung 80 GeoTIFF 108 Geovisualisierung 65 Gesichtsfeld 44 GIS 66 206 Index <?page no="206"?> Glättungsfilter 120, 121 Gliederung 150, 171 globale Operatoren 122 Gloss Map 87 Gradationskurven 117 Graphiksystem 26 graphische Mindestgrößen 45 graphische Peripherie 26 ground truth 131 Gyrosensor 161 haptischer Ausdruck 103 Head-Mounted Displays 154 Heightmap 182 High Dynamic Range (HDR) 143 High-Pass-Filter 122 Hinweise zur Gestaltung 169 Histogramm 31, 115 Historytainment 181 Hologramm 155 Hydrographie 112 Image Blending 143 Image Texturing 87 Image Warping 143 Immersion 154 Inertialsensoren 161 Infografik 62 Infotainment 36 interaktive, nicht-lineare Anwendungen 179 Internet der Dinge 22 IR-LED-Ausleuchtung 110 Jpeg-Formate 108 Kalman-Filter 162 Kantendetektion 122, 123 Kantenmodelle 83 Karteninhalt 70 Kartenrandangaben 70 Kartogramme 72, 73 Kartographie 34, 65 kartographische Anamorphose 73 Klassenhomogenität 132 Klassentrennung 132 Klassifikation multispektraler Daten 128 Klassifikationsverfahren 129 kognitive Einschränkungen 48 Kontrastumfang 143 Kontrastverstärkung 121 Kreisdiagramm 56 Kreis-in-Kreis-Diagramm 56 Index 207 <?page no="207"?> Laplace-Filter 122 LAS-Datenset 95 Last Pulse 94 Level of Detail 94 Lidar 126 LOD 94 lokale Operatoren 119 Loops 84 Luftbild 125 Luftbildphotogrammetrie 90 Magnetresonanz-Tomographie 113 Majority Filter 138 Manipulation 191 Mapping 50 Maximum-Likelihood- Verfahren 131 Medianfilters 121 Medieninformatik 38 Merkmalsraum 131 Mind Maps 60 Minimum-Distance- Verfahren 131, 133 Mischpixel 130 Mittelwertoperator 120 Mixed Reality (MR) 149 Mobile Virtual Reality 184 Modellierung 35 Moiré-Muster 114 monokulare Verfahren 160 Morphing 146 Mosaicing 142 Motion Capturing 81 Motion-Sickness 181 Moving Windows 120 Multi Jet Modeling 104 Multispektralabtaster 126 natürliche Marker 158 NDVI 137 Netz-Diagramm 58 Nullsummenfilter 122 Oberflächeneigenschaften 87 Oberflächenmodelle 83 OCR-Software 108 Octrees 86 Open Geospatial Consortium 96 OpenStreetMap 68 Overfeaturing 53 Panorama 141 Photogrammetrie 125 photopisches System 43 Picture Element 27 Piktografiken 61 Piktogramme 61, 199 208 Index <?page no="208"?> Pixel 27 PSD-Format 108 Punktoperatoren 115 QR-Code 157 Radar 126 Radiometer 126 Radon Transformation 122 Rapid Prototyping 103 Rastergrafik 27 Rauschen 120, 121 RAW-Files 108 Raytracing 88 Relief-Texturen 87 Remote Sensing 125 Rendering 51, 80, 88 Rendering-Pipeline 89 repräsentative Beprobungen 193 Retinal Projection 155 Retusche 114 Retusche-Arbeiten 119 Ringdiagramm 56 Risk Maps 60 Röntgen 111 Roomscale Virtual Reality 186 Rotation 82 Salt & Pepper-Rauschen 114 Säulendiagramm 56 Scalable Vector Graphics 32 Scanner 109 Scherung 82 Schriftarten 152 Sculpting-Tools 182 Sehbehinderungen 48 Sehschärfe 44 Seitengestaltung 152 Seitennummerierung 164 selektives Laser-Sintern 104 Shell 84 Sichtbarkeitsberechnung 88 Silver Surfer 48 Skalierung 82 Skelettierung 124 skotopisches System 43 SLAM-Tracking 160 Sobel-Operator 122 Social Media 178 Sonarsysteme 112 Stereolithographie 104 Sterndiagramm 58 Stichproben 192 Stitching 141 Index 209 <?page no="209"?> STL-Format 103 SVG 32 Szene 80 Tageslicht-Fotographie 126 Tagged Image File Format 108 Teleport 189 Textur 87 thematische Karten 66 Thermografie 110 Tiefenwahrnehmung 44 Tonwertkorrektur 114, 117 Tonwertumfang 116 topographische Karten 66 Tracking 156 Trackingverfahren 157 Trainingsgebiete 133 Translation 82 typografische Gestaltung 188 Überladung 53 überwachte Klassifizierung 132 Ultraschall 112 unscharf maskieren USM 122 Vegetationsindex 137 Vektorgrafik 31 Verlaufsdiagramm 57 Verteilungsdiagramm 56 Vertices 84 Video-Display 153 Virtual Reality (VR) 35, 169 Visual Computing 23 Visualisierung 34, 39 Visualisierungsdesign 53 Visualisierungspipeline 50 visuelle Adaption 42 visuelle Wahrnehmung 42 Volumenmodelle 86 Voxel 86 Voxelmodell 86 VR-Brillen 170 Wahrnehmungskapazitäten 41 Wavelet-Transformation 122 Weichzeichner 120, 121 Window-Viewport-Transformationen 88 wissenschaftliche Visualisierung 36 XCF-Formate 108 Zufallsstichprobe 193 210 Index <?page no="211"?> www.utb-shop.de Gut geplant ist halb gewonnen Serge Ragotzky, Frank Andreas Schittenhelm, Süleyman Tora ş an Business Plan Schritt für Schritt Arbeitsbuch 2018, 155 Seiten, Broschur ISBN 978-3-8252-4899-4 Konkurrenzanalysen, Verkaufsprognosen, Finanzierungsformen - Einen Business Plan zu erstellen ist gar nicht so einfach. Dieses Buch stellt Schritt für Schritt die wichtigsten Punkte für die Erstellung eines Business Plans vor: von der Planung über das Marketing bis hin zur Finanzierung. Das Buch beinhaltet zahlreiche Abbildungen, Übungsaufgaben, Literaturhinweise und ein Glossar. Die praxisnahe Umsetzung wird durch Fallstudien und Excel-Sheets unterstützt. Dieses Buch richtet sich sowohl an Studierende, die eine Hilfestellung im Rahmen einer entsprechenden Lehrveranstaltung benötigen, als auch an Praktiker, die Business Pläne selbst erstellen müssen. <?page no="212"?> Rödiger Voss Wissenschaftliches Arbeiten … leicht verständlich! 2017, 206 Seiten, Broschur ISBN 978-3-8252-8703-0 Bei der Planung und Bearbeitung wissenschaftlicher Arbeiten tritt eine Vielzahl von Fragen auf, wie z. B. »Wie finde ich ein passendes wissenschaftliches Thema? «, »Wie gehe ich mit Wikipedia als Quelle richtig um? « oder »Wie zitiere ich ein YouTube-Video richtig? « Das vorliegende Buch bietet Ihnen deswegen eine umfassende Grundlage für die inhaltliche und formale Gestaltung einer wissenschaftlichen Arbeit, das Zeitmanagement, die wissenschaftliche Recherche in der Bibliothek und im Web, effiziente Lesetechniken sowie die Darstellung wissenschaftlicher Vorträge. Neben einem klaren Schreibstil ermöglichen zahlreiche Beispiele, Merkhilfen und Tabellen den Zugang zum Stoff auf leichte Weise. Das Buch richtet sich an Studierende der Erziehungs-, Wirtschafts- und Sozialwissenschaften www.utb-shop.de Das Must-have für Studierende <?page no="213"?> Der clevere Semester-Planer www.utb.de Schon wieder einen Geburtstag vergessen, im falschen Prüfungsraum gesessen oder die besten Freunde versetzt? Dann ist dieser praktische Kalender im DIN A1- Format die Rettung! Mein Studi-Planer ist ein Jahresplaner speziell für Studierende, der ihnen bei der Organisation ihres Studiums und Alltags hilft. Der Kalender teilt sich in Winter- und Sommersemester auf und enthält für beide Semester je einen Stunden- und Prüfungsplan. Er erleichtert das Management von Prüfungs- und Abgabeterminen, Bücherleihfristen, Gruppentreffen, Freizeitaktivitäten u.v.m. Durch viele Motiv-Aufkleber können Studierende ihren Planer individualisieren. Mit diesem Kalender gehören verschleppte Aufgaben und versäumte Termine definitiv der Vergangenheit an. Mein Studi-Planer A1-Poster für Wintersemester und Sommersemester. Erhältlich im utb-Shop und im Buchhandel. <?page no="214"?> www.utb-shop.de Hablas español? Do you speak English? Ideal für alle Berufseinsteiger Das Taschenbuch vermittelt das notwendige Grundwissen: Es enthält Wortschatzlisten und geht auf die Arbeitssuche, wichtige interkulturelle Aspekte des Arbeitslebens und das Präsentieren auf Spanisch ein. Der Autor vermittelt prägnant das notwendige wirtschaftsenglische Knowhow durch Beispieldialoge und Wortschatzlisten. Themen sind u.a. Kontakte knüpfen, telefonieren, E-Mails schreiben, verhandeln und präsentieren. Zudem gibt er interkulturelle Tipps zu Erleichterung der Kommunikation. Andrés Moncho Brunengo Wirtschaftsspanisch für Berufseinsteiger kompakt 2015, 54 Seiten, Broschur ISBN 978-3-8252-4407-1 € (D) 7,99 Kurt Bangert Wirtschaftsenglisch für Berufseinsteiger kompakt 2015, 48 Seiten, Broschur ISBN 978-3-8252-4294-7 € (D) 7,99
