Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Multispektrale Bildgebung: Das Spektrum erschließen: Fortschritte in der Computer Vision
Multispektrale Bildgebung: Das Spektrum erschließen: Fortschritte in der Computer Vision
Multispektrale Bildgebung: Das Spektrum erschließen: Fortschritte in der Computer Vision
eBook129 Seiten1 Stunde

Multispektrale Bildgebung: Das Spektrum erschließen: Fortschritte in der Computer Vision

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist multispektrale Bildgebung?


Multispektrale Bildgebung erfasst Bilddaten innerhalb bestimmter Wellenlängenbereiche im gesamten elektromagnetischen Spektrum. Die Wellenlängen können durch Filter getrennt oder mithilfe von Instrumenten erfasst werden, die für bestimmte Wellenlängen empfindlich sind, einschließlich Licht von Frequenzen außerhalb des sichtbaren Lichtbereichs, d. h. Infrarot und Ultraviolett. Es kann die Extraktion zusätzlicher Informationen ermöglichen, die das menschliche Auge mit seinen sichtbaren Rezeptoren für Rot, Grün und Blau nicht erfassen kann. Es wurde ursprünglich für die Identifizierung und Aufklärung militärischer Ziele entwickelt. Frühe weltraumgestützte Bildgebungsplattformen nutzten multispektrale Bildgebungstechnologie, um Details der Erde im Zusammenhang mit Küstengrenzen, Vegetation und Landformen abzubilden. Multispektrale Bildgebung hat auch bei der Analyse von Dokumenten und Gemälden Verwendung gefunden.


Wie Sie davon profitieren


(I) Einblicke und Validierungen zu den folgenden Themen:


Kapitel 1: Multispektrale Bildgebung


Kapitel 2: Infrarot


Kapitel 3: Fernerkundung


Kapitel 4: Thermografiekamera


Kapitel 5: Satellitenbilder


Kapitel 6: Spektrale Signatur


Kapitel 7: Spektrale Bildgebung


Kapitel 8: Hyperspektrale Bildgebung


Kapitel 9: Chemische Bildgebung


Kapitel 10: Normalisierter Differenzvegetationsindex


(II) Beantwortung der häufigsten öffentlichen Fragen zur multispektralen Bildgebung.


(III) Real Beispiele aus der ganzen Welt für den Einsatz der multispektralen Bildgebung in vielen Bereichen.


Für wen sich dieses Buch eignet


Profis, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über Grundkenntnisse oder Informationen für jede Art von multispektraler Bildgebung hinausgehen möchten.


 


 

SpracheDeutsch
Erscheinungsdatum12. Mai 2024
Multispektrale Bildgebung: Das Spektrum erschließen: Fortschritte in der Computer Vision

Mehr von Fouad Sabry lesen

Ähnlich wie Multispektrale Bildgebung

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Multispektrale Bildgebung

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Multispektrale Bildgebung - Fouad Sabry

    Kapitel 1: Multispektrale Bildgebung

    Multispektrale Bildgebung ist eine Technik, die Bilder bei verschiedenen Wellenlängen aufnimmt. Licht mit Frequenzen außerhalb des sichtbaren Lichtbereichs, wie Infrarot und Ultraviolett, kann durch Filter getrennt oder mit Geräten detektiert werden, die für bestimmte Wellenlängen empfindlich sind. Es hat das Potenzial, die Extraktion zusätzlicher Informationen zu ermöglichen, die den roten, grünen und blauen visuellen Rezeptoren des menschlichen Auges entgehen. Sein ursprünglicher Zweck war die militärische Aufklärung und Zielidentifizierung. Multispektrale Bildgebung wurde erstmals in frühen weltraumgestützten Bildgebungsgeräten eingesetzt.

    Licht wird bei der multispektralen Bildgebung oft in einem Bereich von 3 bis 15 verschiedenen Spektralbändern gemessen. Wenn Hunderte von benachbarten Spektralbändern zugänglich sind, wie es normalerweise in der hyperspektralen Bildgebung der Fall ist, kann das resultierende Bild subtile Unterschiede zwischen Objekten aufdecken.

    Das Militär setzt häufig multispektrale Fotografie ein, um Ziele durch Messung ihrer Lichtemissionen zu erkennen oder zu verfolgen. Die Federal Laboratory Collaborative Technology Alliance und das United States Army Research Laboratory berichteten 2003 über ein Dualband-Multispektral-Imaging-Focal-Plane-Array. (FPA). Mit diesem FPA konnten die Wissenschaftler zwei Infrarot-Ebenen (IR) gleichzeitig untersuchen. Aufgrund ihrer Fähigkeit, Wärme ohne zusätzliche Lichtquelle zu erkennen, ist die Wärmebildgebung ein anderer Name für die mittel- und langwelligen Infrarottechnologien (MWIR).

    Der Emissionsgrad und die Temperatur eines Objekts bestimmen, wie lebendig das von einer Wärmebildkamera erzeugte Bild sein wird.

    Die Wärmebildgebung übertraf die Multispektralbildgebung mit einem Band bei der Erkennung von Zielen bei Nacht. Mit Dualband-MWIR- und LWIR-Technologien wurde eine bessere Nachtsicht erreicht als mit MWIR allein. Zitat Zitat. Die US-Armee behauptet, dass ihr Dualband-LWIR/MWIR-FPA, das Fahrzeuge bei Tag und Nacht verfolgt, eine bessere Visualisierung taktischer Fahrzeuge bietet als MWIR allein.

    Die multispektrale Bildgebung kann versteckte Raketen lokalisieren, indem sie ihren Emissionsgrad am Boden misst. Die Spektralanalyse kann die physikalischen und chemischen Unterschiede zwischen ober- und unterirdischem Boden aufdecken.

    Um eine Interkontinentalrakete während ihrer Boost-Phase erfolgreich abzufangen, ist es notwendig, sowohl den harten Körper der Rakete als auch die Raketenfahnen abzubilden. LWIR erzeugt Emissionen aus dem Material des Raketenkörpers, während MWIR ein starkes Signal von stark erhitzten Gegenständen wie Raketenfahnen ausgibt. Das United States Army Research Laboratory erklärte, dass sein Dualband-MWIR/LWIR-System bei der Verfolgung von Atlas 5 Evolved Expendable Launch Vehicles sowohl den Raketenkörper als auch das Gefieder erkannt hat. Diese Raketen sind strukturell mit Interkontinentalraketen vergleichbar.

    Die meisten Fernerkundungsradiometer (RS) sind in der Lage, multispektrale Bilder aufzunehmen. Die multispektrale Bildgebung ist das genaue Gegenteil der panchromatischen Bildgebung, bei der einfach die Gesamtintensität der auf jedes Pixel treffenden Strahlung erfasst wird, indem das Spektrum in mehrere Bänder unterteilt wird. Normalerweise gibt es drei oder mehr Radiometer auf Erdbeobachtungssatelliten. Jeder sammelt ein einzelnes digitales Bild (in der Fernerkundungsterminologie als Szene bezeichnet) in einem engen Wellenlängenbereich. Entsprechend den Zielen der Forscher und der Lichtquelle wurde das Spektrum in verschiedene Wellenlängenbereiche oder Bänder unterteilt.

    Bilder, die von heutigen Wettersatelliten aufgenommen werden, sind in einem breiten Wellenlängenbereich zu finden.

    Die multispektrale Bildgebung verwendet einen einzigen optischen Aufbau, um Daten aus vielen schmalbandigen spektralen Bildgebungsbändern zu erfassen.

    Ein multispektrales System bietet normalerweise eine Kombination aus sichtbarem (0,4 bis 0,7 μm), NIR oder nahem Infrarot; 0,7 bis 1 μm), SWIR oder kurzwelliges Infrarot; 1 bis 1,7 μm), MWIR oder mittelwelliges Infrarot; 3,5 bis 5 μm) oder langwellige Infrarotbänder (LWIR; 8 bis 12 μm) in einem einzigen System.

    Die Autorin, Valerie C.

    Coffey

    Ein multispektrales Bild eines Landsat-Satelliten kann bis zu elf separate Bänder mit unterschiedlichen Namen enthalten. Die Begriffe hyperspektral und ultraspektral werden verwendet, um Arten der spektralen Bildgebung zu beschreiben, die entweder eine höhere radiometrische Auflösung (mit Hunderten oder Tausenden von Bändern) oder eine feinere spektrale Auflösung (mit kleineren Bändern) oder eine breitere spektrale Abdeckung aufweisen.

    Gemälde und andere Kunstwerke können mit multispektraler Bildgebung untersucht werden.

    Die Wellenlängen sind nur Näherungswerte, wobei die wahren Werte von der verwendeten Ausrüstung abhängen (z. B. die Eigenschaften der Sensoren des Satelliten für die Erdbeobachtung oder die Parameter der Beleuchtung und der Sensoren für die Dokumentenanalyse):

    Das blaue Spektrum (450-515..520 nm) ist nützlich für die Abbildung der Atmosphäre und des Tiefenwassers; in sauberem Wasser kann es bis zu einer Tiefe von 150 Fuß (50 m) eindringen.

    Grünes Licht (515..520-590..600 nm) kann in klarem Wasser bis zu 30 m tief sehen, was es für die Abbildung von Vegetation und tiefen Wasserstrukturen nützlich macht.

    Bilder von künstlichen Objekten, Schmutz und Flora in Tiefen von bis zu 30 Fuß (9 Metern) können im roten Bereich von 600..630-680..690 nm aufgenommen werden.

    Der NIR-Bereich von 750-900 nm wird hauptsächlich für die Pflanzenbildgebung verwendet.

    Kameras im mittleren Infrarot (MIR) erfassen Bilder von Vegetation, Bodenfeuchtigkeit und einigen Waldbränden bei Wellenlängen zwischen 1550 und 1750 Nanometern.

    Boden, Feuchtigkeit, geologische Strukturen, Silikate, Tone und Brände können alle mit Ferninfrarot (FIR) von 2080 bis 2350 nm abgebildet werden.

    Geologische Merkmale, thermische Veränderungen in Wasserströmungen, Brände und nächtliche Studien können alle mit thermischem Infrarot (10400-12500 nm) abgebildet werden, das auf emittierter statt reflektierter Strahlung beruht.

    Es ist möglich, Geländemerkmale mit Hilfe von Radar und verwandten Technologien zu erkennen und zu kartieren.

    Verschiedene Mischungen von Spektralbändern können aus verschiedenen Gründen verwendet werden. Rot, Grün und Blau sind die Standardfarben, mit denen sie dargestellt werden. Der Verwendungszweck des Bildes und die eigenen Präferenzen des Analysten bestimmen, wie die Bänder den Farben zugeordnet werden. Aufgrund seiner geringen räumlichen Auflösung wird thermisches Infrarot nur selten berücksichtigt.

    Nur die RGB-Farbkanäle – Rot, Grün und Blau – werden in Echtfarben verwendet. Die Analyse von künstlichen Objekten wird mit diesem einfachen Farbschnappschuss vereinfacht und ist für unerfahrene Analysten zugänglich.

    Für die Vegetation, die im nahen IR extrem reflektiert, wird der Grün-Rot-Infrarot-Farbraum verwendet, wobei der blaue Kanal durch das nahe Infrarot ersetzt wird. Dies ist eine gängige Methode zum Auffinden von versteckten Objekten und Vegetation.

    Blau-NIR-MIR zeigt sichtbares Blau, grünes NIR (damit die Vegetation ihre grüne Farbe behält) und rotes MIR an. Bilder wie dieses ermöglichen es, Brände, Wasserstände, Pflanzenbedeckung und Bodenfeuchtigkeit auf einmal zu sehen.

    Verschiedene andere Permutationen werden ebenfalls verwendet. Da NIR normalerweise rot dargestellt wird, erscheinen alle Regionen mit Pflanzen ebenfalls rot.

    Diese multispektralen Bilder machen es im Gegensatz zu anderen Luftbild- und Satellitenbildinterpretationsbemühungen nicht einfach, den Merkmalstyp direkt durch visuelle Inspektion zu bestimmen. Daher ist es notwendig, die Fernerkundungsdaten zunächst zu kategorisieren, bevor sie mit verschiedenen Datenverbesserungstechniken verarbeitet werden, um dem Benutzer zu helfen, die im Bild sichtbaren Merkmale zu verstehen.

    Für eine solche Klassifizierungsaufgabe kann je nach gewähltem Klassifizierungsalgorithmus eine umfassende Validierung der Trainingsgebiete erforderlich sein. Die Methoden lassen sich im Wesentlichen in zwei Kategorien einteilen:.

    Überwachte Klassifizierungstechniken

    Unüberwachte Klassifizierungstechniken

    Trainingsgebiete werden in der überwachten Kategorisierung verwendet. Ground Truth oder Trainingsproben sind Orte, an denen der tatsächliche Stand der Dinge bekannt ist. Um die verbleibenden Bildpixel zu identifizieren, nutzen wir die spektralen

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1