Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Textur Zuordnung: Erforschung der Dimensionalität im Computer Vision
Textur Zuordnung: Erforschung der Dimensionalität im Computer Vision
Textur Zuordnung: Erforschung der Dimensionalität im Computer Vision
eBook93 Seiten55 Minuten

Textur Zuordnung: Erforschung der Dimensionalität im Computer Vision

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist Textur Zuordnung?


Textur Zuordnung ist eine Methode zur Abbildung einer Textur auf einer computergenerierten Grafik. Bei der Textur kann es sich um Hochfrequenzdetails, Oberflächentexturen oder Farben handeln.


Wie Sie davon profitieren


(I) Erkenntnisse und Validierungen zu den folgenden Themen:


Kapitel 1: Texturzuordnung


Kapitel 2: Normale Zuordnung


Kapitel 3: Bilineare Interpolation


Kapitel 4: Texturfilterung


Kapitel 5: Lichtkarte


Kapitel 6: Reflexionszuordnung


Kapitel 7: Cube-Mapping


Kapitel 8: UV-Mapping


Kapitel 9: Texture-Mapping-Einheit


Kapitel 10: Technische Zeichnung


(II) Beantwortung der häufigsten öffentlichen Fragen zum Textur Zuordnung.


(III) Beispiele aus der Praxis für den Einsatz von Textur Zuordnung in vielen Bereichen.


Für wen dieses Buch ist


Profis, Studenten und Doktoranden, Enthusiasten, Bastler und diejenigen, die über grundlegende Kenntnisse oder Informationen für jede Art von Textur Zuordnung hinausgehen möchten.

SpracheDeutsch
Erscheinungsdatum14. Mai 2024
Textur Zuordnung: Erforschung der Dimensionalität im Computer Vision

Mehr von Fouad Sabry lesen

Ähnlich wie Textur Zuordnung

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Textur Zuordnung

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Textur Zuordnung - Fouad Sabry

    Kapitel 1: Textur-Mapping

    Texture Mapping ist eine Technik, die verwendet wird, um eine Textur auf ein computergeneriertes Bild abzubilden. Textur kann in diesem Zusammenhang hochfrequente Details, Oberflächentextur oder Farbe sein.

    1974 entwickelte Edwin Catmull die erste Version der Methode.

    Textur-Mapping bezog sich ursprünglich auf diffuses Mapping, eine Methode, bei der einfach die Pixel einer Textur auf eine 3D-Oberfläche gemappt wurden (das Bild um das Objekt gewickelt). In den letzten Jahrzehnten haben das Aufkommen von Multi-Pass-Rendering, Multitexturierung, Mipmaps und komplexeren Mappings wie Höhen-Mapping, Bump-Mapping, Normal-Mapping, Displacement-Mapping, Reflection-Mapping, Specular-Mapping, Occlusion-Mapping und vielen Variationen der Technik (gesteuert durch ein Materialsystem) es ermöglicht, nahezu fotorealistischen Charakter in Echtzeit zu simulieren, indem die Anzahl der Polygone und Beleuchtungsberechnungen, die zum Erstellen einer Szene erforderlich sind, drastisch reduziert wurde.

    Eine Oberflächen-Map Dies kann entweder eine Bitmap oder eine generierte Textur sein. Sie können in Standard-Bilddateiformaten gespeichert, durch 3D-Modellformate oder Materialbeschreibungen referenziert und in Ressourcenpaketen gebündelt werden.

    Sichtbare Oberflächen können 1-3 Dimensionen haben, obwohl zwei Dimensionen am häufigsten sind. Textur-Map-Daten können in gemischter oder gekachelter Reihenfolge gespeichert werden, um die Cache-Kohärenz zu erhöhen, wenn sie mit moderner Technologie verwendet werden. Rendering-APIs verwalten häufig Texturzuordnungsressourcen (die sich im Gerätespeicher befinden können) als Puffer oder Oberflächen und können Rendern in Textur für zusätzliche Effekte wie Nachbearbeitung oder Umgebungszuordnung zulassen.

    Sie enthalten oft RGB-Farbdaten (gespeichert als direkte Farbe, komprimierte Formate oder indizierte Farbe) und gelegentlich einen zusätzlichen Kanal für Alpha-Blending (RGBA), insbesondere für Werbetafeln und Decal-Overlay-Texturen. Es ist möglich, den Alphakanal (der leicht in Formen gespeichert werden kann, die von der Hardware interpretiert werden können) für Zwecke wie Spiegelung zu verwenden.

    Mehrere Textur-Maps (oder Kanäle) können zusammengeführt werden, um Spiegelung, Normalen, Verschiebung und Streuung unter der Oberfläche zu verwalten, z. B. für das Rendern der Haut.

    Texturatlanten und Texturarrays können verwendet werden, um viele Texturbilder zusammenzuführen, um Zustandsübergänge auf moderner Hardware zu verringern. Sie können als die moderne Weiterentwicklung der Kachelkartengrafik angesehen werden. Moderne Technologie unterstützt häufig mehrseitige Cube-Map-Texturen für die Umgebungszuordnung.

    Textur-Maps können durch Scannen/Digitalfotografie gesammelt, mit Bildbearbeitungswerkzeugen wie GIMP, Photoshop erstellt oder mit einem 3D-Malwerkzeug wie Mudbox oder zbrush direkt auf 3D-Oberflächen gemalt werden.

    Vergleichbar mit dem Einlegen von Dekorpapier in eine einfache weiße Box. Jeder Scheitelpunkt eines Polygons erhält eine Texturkoordinate (die im 2D-Fall auch als UV-Koordinaten bezeichnet wird). Dies kann durch explizite Zuweisung von Scheitelpunktmerkmalen erreicht werden, die manuell in einer 3D-Modellierungsanwendung mit UV-Unwrapping-Tools aktualisiert werden. Das Material kann auch mit einer prozeduralen Transformation vom 3D-Raum in den Texturraum verbunden werden. Dies kann mit planarer Projektion, zylindrischer Abbildung oder sphärischer Abbildung durchgeführt werden. Bei komplexen Zuordnungen kann der Abstand entlang einer Oberfläche berücksichtigt werden, um Verzerrungen zu minimieren. Während des Renderns werden diese Koordinaten über die Flächen von Polygonen interpoliert, um die Textur-Map zu erfassen. Texturen können dupliziert oder gespiegelt werden, um eine endliche rechteckige Bitmap über einen größeren Bereich zu erweitern, oder sie können ein eindeutiges injektives Eins-zu-Eins-Mapping von jedem Oberflächenfragment aufweisen (was für das Render-Mapping und das Light-Mapping wichtig ist, auch als Backen bezeichnet).

    Beim Textur-Mapping wird die Modelloberfläche (oder der Bildschirmbereich während der Rasterung) in den Texturraum konvertiert, in dem die Textur-Map in ihrer unverzerrten Form angezeigt wird. UV-Entwicklungswerkzeuge bieten häufig eine Texturraumansicht für die manuelle Bearbeitung von Texturkoordinaten. Bestimmte Rendering-Techniken, wie z. B. die Streuung unter der Oberfläche, können mithilfe von Texturraumoperationen angenähert werden.

    Multitexturing ist das gleichzeitige Anwenden vieler Texturen auf ein Polygon.

    Die Texturfilterung regelt, wie Stichproben (z. B. wenn sie als Pixel auf dem Bildschirm angezeigt werden) aus Texeln (Texturpixeln) berechnet werden. Die Nearest-Neighbor-Interpolation ist die billigste Methode, obwohl bilineare Interpolation und trilineare Interpolation zwischen Mipmaps zwei häufig verwendete Alternativen sind, die Aliasing oder Zacken reduzieren. Wenn sich eine Texturkoordinate über die Grenzen der Textur hinaus erstreckt, wird sie entweder geklemmt oder umschlossen. Wenn Texturen aus schrägen Betrachtungswinkeln betrachtet werden, reduziert die anisotrope Filterung Richtungsartefakte effektiver.

    Textur-Streaming ist eine Methode zur Verwendung von Datenströmen für Texturen, wenn jede Textur in zwei oder mehr Auflösungen zugänglich ist, um auszuwählen, welche Textur in den Speicher geladen und basierend auf der Sichtweite vom Viewer und dem verfügbaren Texturspeicher verwendet werden soll. Textur-Streaming ermöglicht es einer Rendering-Engine, Texturen mit niedriger Auflösung für entfernte Objekte zu verwenden und diese in detailliertere Texturen aufzulösen, die aus einer Datenquelle gelesen werden, wenn sich der Blickwinkel diesen Objekten nähert.

    Details aus einem anspruchsvollen, hochauflösenden Modell oder einem teuren Verfahren (z. B. globale Beleuchtung) können als Optimierung in eine Oberflächenstruktur (möglicherweise auf einem niedrig aufgelösten Modell) gerendert werden. Bake Mapping ist ein anderer Name für Backen. Diese Methode wird normalerweise verwendet, um Lichtkarten zu erstellen, aber sie kann auch zum Erstellen von Normalkarten und Verschiebungskarten verwendet werden. Einige Computerspiele, wie z. B. Messiah, haben diese Methode verwendet. Die ursprüngliche Quake-Software-Engine kombinierte Lichtkarten und Farbzuordnungen im laufenden Betrieb (Oberflächen-Caching).

    Backen kann

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1