Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision
Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision
Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision
eBook191 Seiten1 Stunde

Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist direkte lineare Transformation


Direkte lineare Transformation, auch bekannt als DLT, ist ein Algorithmus, der eine Reihe von Variablen löst, indem er eine Reihe von Ähnlichkeitsbeziehungen als Arbeitsgrundlage verwendet Satz. Auf dem Gebiet der projektiven Geometrie ist diese Art von Beziehung recht häufig anzutreffen. Auf reale Situationen anwendbare Beispiele sind Homografien und die Beziehung zwischen dreidimensionalen Punkten in einer Szene und deren Projektion auf die Bildebene einer Lochkamera.


Ihre Vorteile


(I) Einblicke und Validierungen zu den folgenden Themen:


Kapitel 1: Direkte lineare Transformation


Kapitel 2: Lineare Karte


Kapitel 3: Linearer Unterraum


Kapitel 4: Cholesky-Zerlegung


Kapitel 5: Invertierbare Matrix


Kapitel 6: Quadratische Form


Kapitel 7: Homogene Funktion


Kapitel 8: Kernel (lineare Algebra)


Kapitel 9: Plücker-Koordinaten


Kapitel 10: TP-Modelltransformation in der Kontrolltheorie


(II) Beantwortung der häufigsten öffentlichen Fragen zur direkten linearen Transformation.


(III) Beispiele aus der Praxis für die Verwendung der direkten linearen Transformation in vielen Bereichen.


An wen sich dieses Buch richtet


Profis, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über grundlegende Kenntnisse oder Informationen für jede Art von direkter linearer Transformation hinausgehen möchten.


 


 

SpracheDeutsch
Erscheinungsdatum30. Apr. 2024
Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision

Mehr von Fouad Sabry lesen

Ähnlich wie Direkte lineare Transformation

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Direkte lineare Transformation

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Direkte lineare Transformation - Fouad Sabry

    Kapitel 1: Direkte lineare Transformation

    Eine Menge von Variablen kann durch eine Reihe von Ähnlichkeitsbeziehungen gelöst werden, indem eine Technik verwendet wird, die als direkte lineare Transformation (DLT) bezeichnet wird:

    {\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N

    wobei und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}} bekannte Vektoren sind, \,\propto bezeichnet Gleichheit bis zu einer unbekannten skalaren Multiplikation und \mathbf {A} ist eine Matrix (oder lineare Transformation), die die zu lösenden Unbekannten enthält.

    In der projektiven Geometrie ist dies eine gängige Art von Relation. Homographen und die Beziehung zwischen 3D-Szenenpunkten und ihrer Pinhole-Kameraprojektion sind zwei solche Beispiele.

    Einfach ausgedrückt, ein lineares Gleichungssystem

    {\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N

    ist z.B. lösbar, indem man sie als Matrixgleichung umschreibt, {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} wobei Matrizen {\mathbf {X}} und {\mathbf {Y}} die Vektoren und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}} in ihren jeweiligen Spalten enthalten.

    Da es nur eine Antwort auf dieses Problem gibt, die von

    {\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.

    Für den Fall, dass die Gleichungen über- oder unterbestimmt sind, können auch Lösungen beschrieben werden.

    Der Unterschied zwischen dem direkten linearen Transformationsproblem und dem oben genannten typischen Beispiel besteht darin, dass der multiplikative Faktor, der die linke und rechte Seite der definierenden Gleichung trennt, vom Parameter k abhängt.

    Kann also \mathbf {A} nicht wie im Standardfall berechnet werden.

    Stattdessen werden bei diesem Ansatz die Ähnlichkeitsrelationen in gewöhnliche lineare homogene Gleichungen transformiert.

    Algorithmen der direkten linearen Transformation (DLT) kombinieren das Umschreiben von Ähnlichkeitsgleichungen als homogene lineare Gleichungen und deren Lösung mit etablierten Methoden.

    Ivan Sutherland wird die Entwicklung von DLT zugeschrieben.

    Nehmen wir an, dass {\displaystyle k\in \{1,...,N\}} .

    Sei {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} und {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} zwei bekannte Vektoren, und wir wollen die Matrix so finden, 2\times 3 \mathbf {A} dass

    \alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}

    wobei \alpha _{{k}}\neq 0 der unbekannte Skalarfaktor in Bezug auf Gleichung k ist.

    Definieren Sie die antisymmetrische Matrix, um die freien Skalare zu eliminieren und homogene Gleichungen zu erzeugen.

    {\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}

    und multipliziere beide Seiten der Gleichung mit {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} von links

    {\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}

    Da {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, die folgenden homogenen Gleichungen, die nun frei von den mysteriösen Skalaren sind, vorliegen

    {\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}

    Um \mathbf {A} aus diesem Satz von Gleichungen zu lösen, betrachten Sie die Elemente der Vektoren {\mathbf {x}}_{{k}} und {\mathbf {y}}_{{k}} der Matrix \mathbf {A} :

    {\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} und {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}

    In diesem Fall vereinfacht sich die obige homogene Gleichung zu

    0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}

    für \,k=1,\ldots ,N.

    Das Matrixformular funktioniert dafür genauso gut:

    0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} für \,k=1,\ldots ,N

    wobei {\mathbf {b}}_{{k}} und \mathbf{a} beide 6-dimensionale Vektoren sind, die definiert sind als

    {\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} und {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.

    An dieser Stelle haben wir eine Gleichung und sechs Variablen. Die Matrixform kann verwendet werden, um ein System homogener Gleichungen auszudrücken.

    {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}

    wobei \mathbf {B} eine Matrix ist N\times 6 , die die bekannten Vektoren {\mathbf {b}}_{{k}} in ihren Zeilen enthält.

    Das Unbekannte \mathbf{a} kann z.B. durch eine Singulärwertzerlegung von bestimmt werden. \mathbf {B} \mathbf{a} ist ein rechter singulärer Vektor, der \mathbf {B} einem singulären Wert entspricht, der gleich Null ist.

    Einmal \mathbf{a} bestimmt, können die Elemente der Matrix \mathbf {A} aus dem Vektor neu angeordnet \mathbf {a} werden.

    Beachten Sie, dass die Skalierung von \mathbf{a} oder \mathbf {A} nicht wichtig ist (außer dass sie ungleich Null sein muss), da die definierenden Gleichungen bereits eine unbekannte Skalierung zulassen.

    In der Praxis können die Vektoren {\mathbf {x}}_{{k}} und {\mathbf {y}}_{{k}} Rauschen enthalten, was bedeutet, dass die Ähnlichkeitsgleichungen nur näherungsweise gültig sind.

    Es kann also sein, dass es keinen Vektor gibt, \mathbf{a} der die homogene Gleichung genau löst {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .

    In solchen Situationen kann eine Gesamtlösung der kleinsten Quadrate verwendet werden, indem \mathbf{a} als rechter singulärer Vektor der kleinste singuläre Wert von {\mathbf {B}}.

    Das obige Beispiel hat {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} und , {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} aber die allgemeine Strategie zum Umschreiben der Ähnlichkeitsbeziehungen in homogene lineare Gleichungen kann auf beliebige Dimensionen für beide und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}}.

    Wenn {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} und {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} die vorherigen Ausdrücke können immer noch zu einer Gleichung führen

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N

    wobei \mathbf {A} jetzt ist 2\times q. Jedes k liefert eine Gleichung in den 2q unbekannten Elementen von \mathbf {A} und zusammen können diese Gleichungen {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} für die bekannte N\times 2\,q Matrix \mathbf {B} und den unbekannten 2q-dimensionalen Vektor  geschrieben {\mathbf {a}}. werden. Dieser Vektor kann auf ähnliche Weise wie zuvor gefunden werden.

    Im allgemeinsten Fall {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} und {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .

    Der Hauptunterschied zu früher besteht darin, dass die Matrix \mathbf {H} jetzt p \times p antisymmetrisch ist.

    Wenn {\displaystyle p>2} der Raum solcher Matrizen nicht mehr eindimensional ist, hat er eine messbare Größe.

    M={\frac {p\,(p-1)}{2}}.

    Dies deutet darauf hin, dass es für alle Werte von k homogene Gleichungen vom Typ M gibt.

    0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,m=1,\ldots ,M und für \,k=1,\ldots ,N

    wobei {\mathbf {H}}_{{m}} eine M-dimensionale Basis des Raumes p \times p antisymmetrischer Matrizen ist.

    Für den Fall, dass p = 3 ist, können die folgenden drei Matrizen {\mathbf {H}}_{{m}} gewählt werden

    {\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.

    Die homogenen linearen Gleichungen können in dieser Situation wie folgt ausgedrückt werden:

    {\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N

    wobei [{\mathbf {x}}_{{k}}]_{{\times }} die Matrixdarstellung des Vektorkreuzprodukts ist.

    Diese letzte Gleichung ist vektorwertig; die linke Seite ist das Nullelement in {\mathbb {R}}^{{3}} .

    Jeder Wert von k liefert drei homogene lineare Gleichungen in den unbekannten Elementen von \mathbf {A} .

    Da jedoch [{\mathbf {x}}_{{k}}]_{{\times }} der Rang = 2 ist, beträgt die maximale Anzahl linear unabhängiger Gleichungen zwei.

    In der Praxis ist es daher üblich, nur zwei der drei Matrizen zu verwenden {\mathbf {H}}_{{m}} , z. B. für m=1, 2.

    Die lineare Abhängigkeit zwischen den Gleichungen ist jedoch abhängig von {\mathbf {x}}_{{k}} , so dass in ungünstigen Situationen die Entnahme eine überlegene Option gewesen wäre, z. B. m=2,3.

    Wenn es also keine Rolle spielt, wie viele Gleichungen es gibt, kann es besser sein, alle drei Gleichungen zu verwenden, wenn die Matrix \mathbf {B} konstruiert wird.

    Die lineare Abhängigkeit zwischen den resultierenden homogenen linearen Gleichungen ist ein allgemeines Problem für den Fall p > 2 und muss entweder dadurch gelöst werden, dass die Menge der antisymmetrischen Matrizen {\mathbf {H}}_{{m}} reduziert wird oder dass sie \mathbf {B} größer werden, als es für die Bestimmung erforderlich ist {\mathbf {a}}.

    {Ende Kapitel 1}

    Kapitel 2: Lineare Karte

    In der Mathematik und insbesondere in der linearen Algebra ist eine lineare Abbildung (oder lineare Abbildung) eine Art von Abbildung, die eine lineare Transformation, Homomorphismus von Vektorräumen oder in einigen Kontexten lineare Funktion) eine Abbildung V\to W zwischen zwei Vektorräumen ist, die die Operationen der Vektoraddition und der skalaren Multiplikation beibehält.

    Der allgemeinere Fall von Modulen über einem Ring verwendet die gleichen Namen und Definitionen. Schauen Sie sich Homomorphismus von Modulen an.

    Ein linearer Isomorphismus ist eine Bijektion zwischen zwei Vektorräumen.

    In dem Fall, in dem {\displaystyle V=W} , Linearer Endomorphismus ist ein anderer Name für eine Abbildung.

    Diese Situation wird manchmal als linearer Operator bezeichnet. Es gibt jedoch einige unterschiedliche Traditionen, die definieren, was mit dem Begriff linearer Operator gemeint ist. In einem bestimmten Fall kann es verwendet werden, um zu betonen, dass V und W sind reelle Vektorräume (nicht unbedingt mit {\displaystyle V=W} ), oder es kann verwendet werden, um zu betonen, dass V es sich um einen Funktionsraum handelt,  Dies ist eine gängige Praxis in der Funktionalanalysis.

    Lineare Funktion kann in einigen Kontexten dasselbe bedeuten wie lineare Abbildung, die Analyse zeigt, dass dies nicht der Fall ist.

    Bei der linearen Zuordnung von V zu W wird der Startpunkt von V immer dem Startpunkt von W zugeordnet. Darüber hinaus werden lineare Unterräume von V nach W (möglicherweise von niedrigerer Dimension) übertragen, z. B. die Abbildung einer Ebene durch den Ursprung in V auf eine Ebene durch den Ursprung in W, eine Linie durch den Ursprung in W oder nur den Ursprung in W. Rotation und Spiegelung sind zwei Beispiele für lineare Transformationen, die mit Hilfe von Matrizen dargestellt werden können.

    Lineare Abbildungen sind Morphismen von Vektorräumen im jargon der Kategorientheorie.

    Sei V und W Vektorräume über demselben Körper K .

    Eine Funktion f:V\to W wird als lineare Abbildung  bezeichnet, wenn für zwei beliebige Vektoren {\textstyle \mathbf {u} ,\mathbf {v} \in V} und einen beliebigen Skalar {\displaystyle c\in K} die folgenden beiden Bedingungen erfüllt sind:

    Hinzufügen oder die Möglichkeit zum Hinzufügen

    {\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}

    Homogenität Grad 1 / Skalarproduktbetrieb

    {\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}

    Daher sagen wir, dass eine lineare Karte Operationen beibehält. Anders ausgedrückt: Es macht keinen Unterschied, ob die lineare Abbildung vor (rechte Seiten von Instanzen) oder nach (linke Seiten von Beispielen) den Arithmetik- und Multiplikationsoperationen angewendet wird.

    Aufgrund der kommutativen Eigenschaft des Pluszeichens (+) gilt für beliebige Vektoren {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} und Skalare {\textstyle c_{1},\ldots ,c_{n}\in K,} folgende Gleichheit:

    {\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}

    Lineare Kombinationen bleiben durch eine solche Karte erhalten, daher ihr Name.

    Bezeichnet man die Nullelemente der Vektorräume V und W durch {\textstyle \mathbf {0} _{V}} und {\textstyle \mathbf {0} _{W}} bzw., so folgt daraus, dass {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Let c=0 und {\textstyle \mathbf {v} \in V} in der Gleichung für die Homogenität des Grades 1 ist:

    {\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}

    Eine lineare Abbildung {\displaystyle V\to K} mit K einem eindimensionalen Vektorraum über sich selbst wird als lineares Funktional

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1