Direkte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision
Von Fouad Sabry
()
Über dieses E-Book
Was ist direkte lineare Transformation
Direkte lineare Transformation, auch bekannt als DLT, ist ein Algorithmus, der eine Reihe von Variablen löst, indem er eine Reihe von Ähnlichkeitsbeziehungen als Arbeitsgrundlage verwendet Satz. Auf dem Gebiet der projektiven Geometrie ist diese Art von Beziehung recht häufig anzutreffen. Auf reale Situationen anwendbare Beispiele sind Homografien und die Beziehung zwischen dreidimensionalen Punkten in einer Szene und deren Projektion auf die Bildebene einer Lochkamera.
Ihre Vorteile
(I) Einblicke und Validierungen zu den folgenden Themen:
Kapitel 1: Direkte lineare Transformation
Kapitel 2: Lineare Karte
Kapitel 3: Linearer Unterraum
Kapitel 4: Cholesky-Zerlegung
Kapitel 5: Invertierbare Matrix
Kapitel 6: Quadratische Form
Kapitel 7: Homogene Funktion
Kapitel 8: Kernel (lineare Algebra)
Kapitel 9: Plücker-Koordinaten
Kapitel 10: TP-Modelltransformation in der Kontrolltheorie
(II) Beantwortung der häufigsten öffentlichen Fragen zur direkten linearen Transformation.
(III) Beispiele aus der Praxis für die Verwendung der direkten linearen Transformation in vielen Bereichen.
An wen sich dieses Buch richtet
Profis, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über grundlegende Kenntnisse oder Informationen für jede Art von direkter linearer Transformation hinausgehen möchten.
Mehr von Fouad Sabry lesen
Neue Technologien in der Landwirtschaft [German]
Ähnlich wie Direkte lineare Transformation
Titel in dieser Serie (100)
Bildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenUnterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenFarbraum: Erkundung des Spektrums von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenInpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAktive Kontur: Weiterentwicklung der Computer Vision mit aktiven Konturtechniken Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKonturerkennung: Enthüllung der Kunst der visuellen Wahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenVisuelle Wahrnehmung: Einblicke in die computergestützte visuelle Verarbeitung Bewertung: 0 von 5 Sternen0 BewertungenAdaptiver Filter: Verbesserung der Computer Vision durch adaptive Filterung Bewertung: 0 von 5 Sternen0 BewertungenGemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenCanny Edge Detector: Enthüllung der Kunst der visuellen Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFilterbank: Einblicke in die Filterbanktechniken von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarberscheinungsmodell: Wahrnehmung und Darstellung in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbanpassungsfunktion: Spektrale Empfindlichkeit in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbmodell: Das Spektrum des Computer Vision verstehen: Farbmodelle erkunden Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGeometrisches Hashing: Effiziente Algorithmen zur Bilderkennung und -anpassung Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Trifokaler Tensor: Erforschung von Tiefe, Bewegung und Struktur in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zur Numerischen Analysis Bewertung: 0 von 5 Sternen0 BewertungenKreuzkorrelation: Muster in der Computer Vision entschlüsseln Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenJetzt lerne ich analytische Geometrie für die Oberstufe: www.alles-Mathe.de Bewertung: 0 von 5 Sternen0 BewertungenLevel-Set-Methode: Weiterentwicklung der Computer Vision, Erforschung der Level-Set-Methode Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBresenham-Linien-Algorithmus: Effiziente pixelgenaue Linienwiedergabe für Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenZweidimensionale Computergrafik: Erkundung des visuellen Bereichs: Zweidimensionale Computergrafiken in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDas Buch der Mathematik: Band 2 Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu Matrizen und linearer Algebra Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu Vektoren und vektoriellen Räumen Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu partiellen Differentialgleichungen Bewertung: 0 von 5 Sternen0 BewertungenMarkov-Zufallsfeld: Erforschung der Leistungsfähigkeit von Markov-Zufallsfeldern in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMinimaler Begrenzungsrahmen: Enthüllung der Leistungsfähigkeit der räumlichen Optimierung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDas Buch der Mathematik: Band 3 Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu gewöhnlichen Differentialgleichungen Bewertung: 0 von 5 Sternen0 BewertungenComputer-Vision-Grafikschnitte: Erforschung von Graphschnitten in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDreidimensionale Multi-View-Rekonstruktion: Fortgeschrittene Techniken zur räumlichen Wahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu Grenzen Bewertung: 0 von 5 Sternen0 BewertungenApproximation der Lösungen von Differentialgleichungen mit Wavelets und Einstellung der Parameter Bewertung: 0 von 5 Sternen0 BewertungenLineare Systeme: Kompendium Simulation und Regelung technischer Prozesse, Teil 3 Bewertung: 0 von 5 Sternen0 BewertungenBewegungsfeld: Erkundung der Dynamik von Computer Vision: Bewegungsfeld enthüllt Bewertung: 0 von 5 Sternen0 BewertungenÜbungen zu Logarithmen und Exponentialen Bewertung: 0 von 5 Sternen0 BewertungenModell einer Lochkamera: Perspektive durch Computeroptik verstehen Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGeschwindigkeitsmomente: Die Dynamik erfassen: Einblicke in Computer Vision Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
Chatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenPsychologie des Sozialismus Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Roboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenDie Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenWissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Direkte lineare Transformation
0 Bewertungen0 Rezensionen
Buchvorschau
Direkte lineare Transformation - Fouad Sabry
Kapitel 1: Direkte lineare Transformation
Eine Menge von Variablen kann durch eine Reihe von Ähnlichkeitsbeziehungen gelöst werden, indem eine Technik verwendet wird, die als direkte lineare Transformation (DLT) bezeichnet wird:
{\mathbf {x}}_{{k}}\propto {\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N
wobei und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}} bekannte Vektoren sind, \,\propto bezeichnet Gleichheit bis zu einer unbekannten skalaren Multiplikation und \mathbf {A} ist eine Matrix (oder lineare Transformation), die die zu lösenden Unbekannten enthält.
In der projektiven Geometrie ist dies eine gängige Art von Relation. Homographen und die Beziehung zwischen 3D-Szenenpunkten und ihrer Pinhole-Kameraprojektion sind zwei solche Beispiele.
Einfach ausgedrückt, ein lineares Gleichungssystem
{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N
ist z.B. lösbar, indem man sie als Matrixgleichung umschreibt, {\mathbf {X}}={\mathbf {A}}\,{\mathbf {Y}} wobei Matrizen {\mathbf {X}} und {\mathbf {Y}} die Vektoren und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}} in ihren jeweiligen Spalten enthalten.
Da es nur eine Antwort auf dieses Problem gibt, die von
{\mathbf {A}}={\mathbf {X}}\,{\mathbf {Y}}^{{T}}\,({\mathbf {Y}}\,{\mathbf {Y}}^{{T}})^{{-1}}.Für den Fall, dass die Gleichungen über- oder unterbestimmt sind, können auch Lösungen beschrieben werden.
Der Unterschied zwischen dem direkten linearen Transformationsproblem und dem oben genannten typischen Beispiel besteht darin, dass der multiplikative Faktor, der die linke und rechte Seite der definierenden Gleichung trennt, vom Parameter k abhängt.
Kann also \mathbf {A} nicht wie im Standardfall berechnet werden.
Stattdessen werden bei diesem Ansatz die Ähnlichkeitsrelationen in gewöhnliche lineare homogene Gleichungen transformiert.
Algorithmen der direkten linearen Transformation (DLT) kombinieren das Umschreiben von Ähnlichkeitsgleichungen als homogene lineare Gleichungen und deren Lösung mit etablierten Methoden.
Ivan Sutherland wird die Entwicklung von DLT zugeschrieben.
Nehmen wir an, dass {\displaystyle k\in \{1,...,N\}} .
Sei {\displaystyle \mathbf {x} _{k}=(x_{1k},x_{2k})\in \mathbb {R} ^{2}} und {\displaystyle \mathbf {y} _{k}=(y_{1k},y_{2k},y_{3k})\in \mathbb {R} ^{3}} zwei bekannte Vektoren, und wir wollen die Matrix so finden, 2\times 3 \mathbf {A} dass
\alpha _{{k}}\,{\mathbf {x}}_{{k}}={\mathbf {A}}\,{\mathbf {y}}_{{k}}wobei \alpha _{{k}}\neq 0 der unbekannte Skalarfaktor in Bezug auf Gleichung k ist.
Definieren Sie die antisymmetrische Matrix, um die freien Skalare zu eliminieren und homogene Gleichungen zu erzeugen.
{\mathbf {H}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}und multipliziere beide Seiten der Gleichung mit {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}} von links
{\displaystyle {\begin{aligned}(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\alpha _{k}\,\mathbf {x} _{k}&=(\mathbf {x} _{k}^{T}\,\mathbf {H} )\,\mathbf {A} \,\mathbf {y} _{k}\\\alpha _{k}\,\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {x} _{k}&=\mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}\end{aligned}}}Da {\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {x}}_{{k}}=0, die folgenden homogenen Gleichungen, die nun frei von den mysteriösen Skalaren sind, vorliegen
{\displaystyle \mathbf {x} _{k}^{T}\,\mathbf {H} \,\mathbf {A} \,\mathbf {y} _{k}=0}Um \mathbf {A} aus diesem Satz von Gleichungen zu lösen, betrachten Sie die Elemente der Vektoren {\mathbf {x}}_{{k}} und {\mathbf {y}}_{{k}} der Matrix \mathbf {A} :
{\mathbf {x}}_{{k}}={\begin{pmatrix}x_{{1k}}\\x_{{2k}}\end{pmatrix}} , {\mathbf {y}}_{{k}}={\begin{pmatrix}y_{{1k}}\\y_{{2k}}\\y_{{3k}}\end{pmatrix}} und {\mathbf {A}}={\begin{pmatrix}a_{{11}}&a_{{12}}&a_{{13}}\\a_{{21}}&a_{{22}}&a_{{23}}\end{pmatrix}}
In diesem Fall vereinfacht sich die obige homogene Gleichung zu
0=a_{{11}}\,x_{{2k}}\,y_{{1k}}-a_{{21}}\,x_{{1k}}\,y_{{1k}}+a_{{12}}\,x_{{2k}}\,y_{{2k}}-a_{{22}}\,x_{{1k}}\,y_{{2k}}+a_{{13}}\,x_{{2k}}\,y_{{3k}}-a_{{23}}\,x_{{1k}}\,y_{{3k}}für \,k=1,\ldots ,N.
Das Matrixformular funktioniert dafür genauso gut:
0={\mathbf {b}}_{{k}}^{{T}}\,{\mathbf {a}} für \,k=1,\ldots ,N
wobei {\mathbf {b}}_{{k}} und \mathbf{a} beide 6-dimensionale Vektoren sind, die definiert sind als
{\mathbf {b}}_{{k}}={\begin{pmatrix}x_{{2k}}\,y_{{1k}}\\-x_{{1k}}\,y_{{1k}}\\x_{{2k}}\,y_{{2k}}\\-x_{{1k}}\,y_{{2k}}\\x_{{2k}}\,y_{{3k}}\\-x_{{1k}}\,y_{{3k}}\end{pmatrix}} und {\mathbf {a}}={\begin{pmatrix}a_{{11}}\\a_{{21}}\\a_{{12}}\\a_{{22}}\\a_{{13}}\\a_{{23}}\end{pmatrix}}.
An dieser Stelle haben wir eine Gleichung und sechs Variablen. Die Matrixform kann verwendet werden, um ein System homogener Gleichungen auszudrücken.
{\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}}wobei \mathbf {B} eine Matrix ist N\times 6 , die die bekannten Vektoren {\mathbf {b}}_{{k}} in ihren Zeilen enthält.
Das Unbekannte \mathbf{a} kann z.B. durch eine Singulärwertzerlegung von bestimmt werden. \mathbf {B} \mathbf{a} ist ein rechter singulärer Vektor, der \mathbf {B} einem singulären Wert entspricht, der gleich Null ist.
Einmal \mathbf{a} bestimmt, können die Elemente der Matrix \mathbf {A} aus dem Vektor neu angeordnet \mathbf {a} werden.
Beachten Sie, dass die Skalierung von \mathbf{a} oder \mathbf {A} nicht wichtig ist (außer dass sie ungleich Null sein muss), da die definierenden Gleichungen bereits eine unbekannte Skalierung zulassen.
In der Praxis können die Vektoren {\mathbf {x}}_{{k}} und {\mathbf {y}}_{{k}} Rauschen enthalten, was bedeutet, dass die Ähnlichkeitsgleichungen nur näherungsweise gültig sind.
Es kann also sein, dass es keinen Vektor gibt, \mathbf{a} der die homogene Gleichung genau löst {\mathbf {0}}={\mathbf {B}}\,{\mathbf {a}} .
In solchen Situationen kann eine Gesamtlösung der kleinsten Quadrate verwendet werden, indem \mathbf{a} als rechter singulärer Vektor der kleinste singuläre Wert von {\mathbf {B}}.
Das obige Beispiel hat {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} und , {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{3}} aber die allgemeine Strategie zum Umschreiben der Ähnlichkeitsbeziehungen in homogene lineare Gleichungen kann auf beliebige Dimensionen für beide und {\mathbf {x}}_{{k}} {\mathbf {y}}_{{k}}.
Wenn {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{2}} und {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} die vorherigen Ausdrücke können immer noch zu einer Gleichung führen
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N
wobei \mathbf {A} jetzt ist 2\times q. Jedes k liefert eine Gleichung in den 2q unbekannten Elementen von \mathbf {A} und zusammen können diese Gleichungen {\mathbf {B}}\,{\mathbf {a}}={\mathbf {0}} für die bekannte N\times 2\,q Matrix \mathbf {B} und den unbekannten 2q-dimensionalen Vektor geschrieben {\mathbf {a}}. werden. Dieser Vektor kann auf ähnliche Weise wie zuvor gefunden werden.
Im allgemeinsten Fall {\mathbf {x}}_{{k}}\in {\mathbb {R}}^{{p}} und {\mathbf {y}}_{{k}}\in {\mathbb {R}}^{{q}} .
Der Hauptunterschied zu früher besteht darin, dass die Matrix \mathbf {H} jetzt p \times p antisymmetrisch ist.
Wenn {\displaystyle p>2} der Raum solcher Matrizen nicht mehr eindimensional ist, hat er eine messbare Größe.
M={\frac {p\,(p-1)}{2}}.Dies deutet darauf hin, dass es für alle Werte von k homogene Gleichungen vom Typ M gibt.
0={\mathbf {x}}_{{k}}^{{T}}\,{\mathbf {H}}_{{m}}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,m=1,\ldots ,M und für \,k=1,\ldots ,N
wobei {\mathbf {H}}_{{m}} eine M-dimensionale Basis des Raumes p \times p antisymmetrischer Matrizen ist.
Für den Fall, dass p = 3 ist, können die folgenden drei Matrizen {\mathbf {H}}_{{m}} gewählt werden
{\mathbf {H}}_{{1}}={\begin{pmatrix}0&0&0\\0&0&-1\\0&1&0\end{pmatrix}} , {\mathbf {H}}_{{2}}={\begin{pmatrix}0&0&1\\0&0&0\\-1&0&0\end{pmatrix}} , {\mathbf {H}}_{{3}}={\begin{pmatrix}0&-1&0\\1&0&0\\0&0&0\end{pmatrix}}.
Die homogenen linearen Gleichungen können in dieser Situation wie folgt ausgedrückt werden:
{\mathbf {0}}=[{\mathbf {x}}_{{k}}]_{{\times }}\,{\mathbf {A}}\,{\mathbf {y}}_{{k}} für \,k=1,\ldots ,N
wobei [{\mathbf {x}}_{{k}}]_{{\times }} die Matrixdarstellung des Vektorkreuzprodukts ist.
Diese letzte Gleichung ist vektorwertig; die linke Seite ist das Nullelement in {\mathbb {R}}^{{3}} .
Jeder Wert von k liefert drei homogene lineare Gleichungen in den unbekannten Elementen von \mathbf {A} .
Da jedoch [{\mathbf {x}}_{{k}}]_{{\times }} der Rang = 2 ist, beträgt die maximale Anzahl linear unabhängiger Gleichungen zwei.
In der Praxis ist es daher üblich, nur zwei der drei Matrizen zu verwenden {\mathbf {H}}_{{m}} , z. B. für m=1, 2.
Die lineare Abhängigkeit zwischen den Gleichungen ist jedoch abhängig von {\mathbf {x}}_{{k}} , so dass in ungünstigen Situationen die Entnahme eine überlegene Option gewesen wäre, z. B. m=2,3.
Wenn es also keine Rolle spielt, wie viele Gleichungen es gibt, kann es besser sein, alle drei Gleichungen zu verwenden, wenn die Matrix \mathbf {B} konstruiert wird.
Die lineare Abhängigkeit zwischen den resultierenden homogenen linearen Gleichungen ist ein allgemeines Problem für den Fall p > 2 und muss entweder dadurch gelöst werden, dass die Menge der antisymmetrischen Matrizen {\mathbf {H}}_{{m}} reduziert wird oder dass sie \mathbf {B} größer werden, als es für die Bestimmung erforderlich ist {\mathbf {a}}.
{Ende Kapitel 1}
Kapitel 2: Lineare Karte
In der Mathematik und insbesondere in der linearen Algebra ist eine lineare Abbildung (oder lineare Abbildung) eine Art von Abbildung, die eine lineare Transformation, Homomorphismus von Vektorräumen oder in einigen Kontexten lineare Funktion) eine Abbildung V\to W zwischen zwei Vektorräumen ist, die die Operationen der Vektoraddition und der skalaren Multiplikation beibehält.
Der allgemeinere Fall von Modulen über einem Ring verwendet die gleichen Namen und Definitionen. Schauen Sie sich Homomorphismus von Modulen an.
Ein linearer Isomorphismus ist eine Bijektion zwischen zwei Vektorräumen.
In dem Fall, in dem {\displaystyle V=W} , Linearer Endomorphismus ist ein anderer Name für eine Abbildung.
Diese Situation wird manchmal als linearer Operator bezeichnet. Es gibt jedoch einige unterschiedliche Traditionen, die definieren, was mit dem Begriff linearer Operator
gemeint ist. In einem bestimmten Fall kann es verwendet werden, um zu betonen, dass V und W sind reelle Vektorräume (nicht unbedingt mit {\displaystyle V=W} ), oder es kann verwendet werden, um zu betonen, dass V es sich um einen Funktionsraum handelt, Dies ist eine gängige Praxis in der Funktionalanalysis.
Lineare Funktion kann in einigen Kontexten dasselbe bedeuten wie lineare Abbildung, die Analyse zeigt, dass dies nicht der Fall ist.
Bei der linearen Zuordnung von V zu W wird der Startpunkt von V immer dem Startpunkt von W zugeordnet. Darüber hinaus werden lineare Unterräume von V nach W (möglicherweise von niedrigerer Dimension) übertragen, z. B. die Abbildung einer Ebene durch den Ursprung in V auf eine Ebene durch den Ursprung in W, eine Linie durch den Ursprung in W oder nur den Ursprung in W. Rotation und Spiegelung sind zwei Beispiele für lineare Transformationen, die mit Hilfe von Matrizen dargestellt werden können.
Lineare Abbildungen sind Morphismen von Vektorräumen im jargon der Kategorientheorie.
Sei V und W Vektorräume über demselben Körper K .
Eine Funktion f:V\to W wird als lineare Abbildung bezeichnet, wenn für zwei beliebige Vektoren {\textstyle \mathbf {u} ,\mathbf {v} \in V} und einen beliebigen Skalar {\displaystyle c\in K} die folgenden beiden Bedingungen erfüllt sind:
Hinzufügen oder die Möglichkeit zum Hinzufügen
{\displaystyle f(\mathbf {u} +\mathbf {v} )=f(\mathbf {u} )+f(\mathbf {v} )}Homogenität Grad 1 / Skalarproduktbetrieb
{\displaystyle f(c\mathbf {u} )=cf(\mathbf {u} )}Daher sagen wir, dass eine lineare Karte Operationen beibehält. Anders ausgedrückt: Es macht keinen Unterschied, ob die lineare Abbildung vor (rechte Seiten von Instanzen) oder nach (linke Seiten von Beispielen) den Arithmetik- und Multiplikationsoperationen angewendet wird.
Aufgrund der kommutativen Eigenschaft des Pluszeichens (+) gilt für beliebige Vektoren {\textstyle \mathbf {u} _{1},\ldots ,\mathbf {u} _{n}\in V} und Skalare {\textstyle c_{1},\ldots ,c_{n}\in K,} folgende Gleichheit:
{\displaystyle f(c_{1}\mathbf {u} _{1}+\cdots +c_{n}\mathbf {u} _{n})=c_{1}f(\mathbf {u} _{1})+\cdots +c_{n}f(\mathbf {u} _{n}).}Lineare Kombinationen bleiben durch eine solche Karte erhalten, daher ihr Name.
Bezeichnet man die Nullelemente der Vektorräume V und W durch {\textstyle \mathbf {0} _{V}} und {\textstyle \mathbf {0} _{W}} bzw., so folgt daraus, dass {\textstyle f(\mathbf {0} _{V})=\mathbf {0} _{W}.} Let c=0 und {\textstyle \mathbf {v} \in V} in der Gleichung für die Homogenität des Grades 1 ist:
{\displaystyle f(\mathbf {0} _{V})=f(0\mathbf {v} )=0f(\mathbf {v} )=\mathbf {0} _{W}.}Eine lineare Abbildung {\displaystyle V\to K} mit K einem eindimensionalen Vektorraum über sich selbst wird als lineares Funktional