Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface
Von Fouad Sabry
()
Über dieses E-Book
Was ist Eigenface
Ein Eigenface ist der Name, der einer Reihe von Eigenvektoren gegeben wird, wenn sie im Computer-Vision-Problem der Erkennung menschlicher Gesichter verwendet werden. Der Ansatz, Eigengesichter zur Erkennung zu verwenden, wurde von Sirovich und Kirby entwickelt und von Matthew Turk und Alex Pentland bei der Gesichtsklassifizierung verwendet. Die Eigenvektoren werden aus der Kovarianzmatrix der Wahrscheinlichkeitsverteilung über den hochdimensionalen Vektorraum von Gesichtsbildern abgeleitet. Die Eigengesichter selbst bilden einen Basissatz aller Bilder, die zur Konstruktion der Kovarianzmatrix verwendet werden. Dies führt zu einer Dimensionsreduzierung, da der kleinere Satz von Basisbildern die ursprünglichen Trainingsbilder darstellen kann. Die Klassifizierung kann durch den Vergleich erreicht werden, wie Gesichter durch den Basissatz dargestellt werden.
Wie Sie davon profitieren
(I) Einblicke und Validierungen zu Folgendem Themen:
Kapitel 1: Eigenface
Kapitel 2: Hauptkomponentenanalyse
Kapitel 3: Singulärwertzerlegung
Kapitel 4: Eigenwerte und Eigenvektoren
Kapitel 5: Eigenzerlegung einer Matrix
Kapitel 6: Kernel-Hauptkomponentenanalyse
Kapitel 7: Matrixanalyse
Kapitel 8: Lineares dynamisches System
Kapitel 9: Multivariate Normalverteilung
Kapitel 10: Variationsmodi
(II) Beantwortung der häufigsten öffentlichen Fragen zu Eigenflächen.
(III) Beispiele aus der Praxis für die Verwendung von Eigenface in vielen Bereichen.
Für wen dieses Buch gedacht ist
Berufstätige, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über Grundkenntnisse oder Informationen für jede Art von Eigenface hinausgehen möchten.
Mehr von Fouad Sabry lesen
Ähnlich wie Eigenface
Titel in dieser Serie (100)
Gemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenUnterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenFarberscheinungsmodell: Wahrnehmung und Darstellung in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenBildkompression: Effiziente Techniken zur visuellen Datenoptimierung Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenAdaptiver Filter: Verbesserung der Computer Vision durch adaptive Filterung Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenOrientiertes Gradienten-Histogramm: Enthüllung des visuellen Bereichs: Erkundung des Histogramms mit orientierten Farbverläufen in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKantenerkennung: Grenzen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenFarbanpassungsfunktion: Spektrale Empfindlichkeit in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenHarris Eckendetektor: Enthüllung der Magie der Bildmerkmalserkennung Bewertung: 0 von 5 Sternen0 BewertungenAktive Kontur: Weiterentwicklung der Computer Vision mit aktiven Konturtechniken Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenFarbmanagementsystem: Optimierung der visuellen Wahrnehmung in digitalen Umgebungen Bewertung: 0 von 5 Sternen0 BewertungenInpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenFarbmodell: Das Spektrum des Computer Vision verstehen: Farbmodelle erkunden Bewertung: 0 von 5 Sternen0 BewertungenLevel-Set-Methode: Weiterentwicklung der Computer Vision, Erforschung der Level-Set-Methode Bewertung: 0 von 5 Sternen0 BewertungenFilterbank: Einblicke in die Filterbanktechniken von Computer Vision Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Computer-Vision-Grafikschnitte: Erforschung von Graphschnitten in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDreidimensionale Multi-View-Rekonstruktion: Fortgeschrittene Techniken zur räumlichen Wahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildsegmentierung: Erkenntnisse durch Pixelpräzision erschließen Bewertung: 0 von 5 Sternen0 BewertungenBildbasierte Modellierung und Rendering: Erforschung des visuellen Realismus: Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKontextuelle Bildklassifizierung: Visuelle Daten für eine effektive Klassifizierung verstehen Bewertung: 0 von 5 Sternen0 BewertungenAktives Erscheinungsmodell: Erschließung der Leistungsfähigkeit aktiver Darstellungsmodelle in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPyramiden Bildverarbeitung: Erkundung der Tiefen der visuellen Analyse Bewertung: 0 von 5 Sternen0 BewertungenLernen geometrischer Merkmale: Visuelle Einblicke durch das Lernen geometrischer Merkmale erschließen Bewertung: 0 von 5 Sternen0 BewertungenTüte mit Wörtern Modell: Erschließen Sie visuelle Intelligenz mit tüte mit wörtern Bewertung: 0 von 5 Sternen0 BewertungenSkalieren Sie den Raum: Erforschung von Dimensionen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGesichtserkennungssystem: Erschließen Sie die Kraft der visuellen Intelligenz Bewertung: 0 von 5 Sternen0 BewertungenSkalierungsinvariante Feature-Transformation: Enthüllung der Leistungsfähigkeit der skaleninvarianten Merkmalstransformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenSchätzung der artikulierten Körperhaltung: Erschließung menschlicher Bewegung in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBewegungsschätzung: Fortschritte und Anwendungen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenSynthese anzeigen: Erkundung von Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenVolumen Rendern: Erforschung des Visuellen Realismus in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBump-Mapping: Bump Mapping: Erforschung der Tiefe der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRaytracing-Grafiken: Erforschung des fotorealistischen Renderings in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenClusterbasierte Datenanalyse auf Grundlage genetischer Algorithmen in SAP-BI: Ein Verfahren zur selbständigen Ermittlung der optimalen Anzahl Cluster Bewertung: 0 von 5 Sternen0 BewertungenTextur Zuordnung: Erforschung der Dimensionalität im Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenInhaltsbasierter Bildabruf: Visuelle Datenbanken freischalten Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenVertex-Computergrafik: Erkundung der Schnittstelle zwischen Vertex Computer Graphics und Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHarris Eckendetektor: Enthüllung der Magie der Bildmerkmalserkennung Bewertung: 0 von 5 Sternen0 BewertungenFreistellen mit Adobe Photoshop CC und Photoshop Elements - Gewusst wie Bewertung: 0 von 5 Sternen0 BewertungenGlobale Beleuchtung: Vision voranbringen, Einblicke in die globale Beleuchtung Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
Meistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenDie Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Künstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenRoboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenWissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Eigenface
0 Bewertungen0 Rezensionen
Buchvorschau
Eigenface - Fouad Sabry
Kapitel 1: Eigenface
Eine Eigenfläche (/ˈaɪɡənˌfeɪs/) ist die Bezeichnung für eine Reihe von Eigenvektoren, wenn sie im Computer-Vision-Problem der menschlichen Gesichtserkennung verwendet werden.
Der hochdimensionale Gesichtsbildvektorraum hat eine Wahrscheinlichkeitsverteilung, deren Kovarianzmatrix die Eigenvektoren liefert.
Die Eigenflächen selbst sind die Basis, aus der die Kovarianzmatrix aufgebaut wird.
Dies führt zu einer Dimensionsreduzierung, da die ursprünglichen Trainingsbilder durch einen kompakteren Satz von Basisbildern dargestellt werden können.
Flächen können sortiert werden, indem ihre Darstellungen im Basissatz verglichen werden.
Eine kompakte Möglichkeit zu finden, Gesichtszüge auszudrücken, war der Ausgangspunkt für die Eigenface-Methode.
Anhand der Hauptkomponentenanalyse demonstrierten Sirovich und Kirby, wie man aus einer Gruppe von Gesichtsfotos einen grundlegenden Satz von Merkmalen erstellt.
Die grundlegenden Bilder, die Eigenbilder, im ursprünglichen Trainingssatz können linear zusammengeführt werden, um Bilder zu erzeugen.
Bei einem M-Bild-Trainingssatz könnten N Fotos als Ausgangspunkt für die Hauptkomponentenanalyse verwendet werden, wenn N > M ist.
Wenn mehr Eigenbilder verwendet werden, nimmt der Rekonstruktionsfehler ab; Jede erforderliche Zahl ist jedoch kleiner als M.
Zum Beispiel ist es für einen gegebenen Satz von M-Trainingsgesichtsbildern notwendig, N Eigenflächen zu erzeugen, Sie können sagen, dass jedes Gesichtsbild aus Proportionen
aller K -Merkmale
oder Eigenflächen bestehen kann: Gesichtsbild1 = (23% von E1) + (2% von E2) + (51% von E3) + ..
+ (1% en).
1991 stellten M. Turk und A. Pentland die Eigengesichtsmethode der Gesichtserkennung vor, die auf ihren früheren Errungenschaften aufbaute. Sie demonstrierten eine Methode zur Berechnung der Eigenvektoren einer Kovarianzmatrix, die es ermöglichte, eine große Anzahl von Gesichtsfotos auf Computern der damaligen Zeit zu zerlegen. Die traditionelle Hauptkomponentenanalyse erwies sich als schwierig auf hochdimensionale Gesichtsbilddatensätze. Mit Hilfe von Matrizen, die proportional zur Anzahl der Bilder und nicht zur Anzahl der Pixel sind, zeigten Turk und Pentland, wie die Eigenvektoren extrahiert werden können.
Nach dem ersten Erfolg wurde das Eigenflächenverfahren weiterentwickelt, um Vorverarbeitungstechniken für eine höhere Präzision zu integrieren.
Die Hauptkomponentenanalyse (PCA) ist ein mathematisches Verfahren, das auf eine große Sammlung von Gesichtsfotos angewendet werden kann, um eine Reihe von Eigengesichtern zu erzeugen. Eigengesichter werden durch statistische Analyse vieler verschiedener Bilder von Gesichtern erstellt und können informell als eine Reihe von standardisierten Gesichtsbestandteilen
betrachtet werden. Alle menschlichen Gesichter können in diese Grundbausteine zerlegt werden. Das Gesicht kann aus dem durchschnittlichen Gesicht plus beispielsweise 10 % von Eigenfläche 1, 55 % von Eigenfläche 2 und 3 % von Eigenfläche 3 bestehen. Überraschenderweise kann eine gute Annäherung der meisten Flächen mit nur einer kleinen Anzahl von miteinander verbundenen Eigenflächen erhalten werden. Außerdem wird viel weniger Platz für das Gesicht jeder Person eingenommen, da es nicht durch ein digitales Foto gespeichert wird, sondern als Werteliste (ein Wert für jedes Eigengesicht in der verwendeten Datenbank).
Die resultierenden Eigenflächen haben ein Muster aus kontrastierenden hellen und dunklen Teilen. Auf diese Weise können wir einzelne Gesichtsmerkmale für eine detaillierte Analyse und Bewertung isolieren. Die Symmetrie wird ebenso bewertet wie das Vorhandensein von Gesichtsbehaarung, die Position des Haaransatzes und die Proportionen von Nase und Lippen. Einige Eigengesichter haben schwieriger zu erkennende Muster, und ihre resultierenden Bilder ähneln möglicherweise kaum menschlichen Gesichtern.
Neben der Gesichtserkennung sind weitere Anwendungen des Verfahrens, das zur Erstellung von Eigengesichtern und deren Verwendung zur Erkennung verwendet wird, die Handschrifterkennung, das Lippenlesen, die Spracherkennung, die Interpretation von Gebärdensprache und Handgesten sowie die Analyse medizinischer Bilder. Aus diesem Grund gibt es andere, die lieber den Begriff Eigenbild
anstelle von Eigengesicht
verwenden.
Das Generieren einer Sammlung von Eigenflächen umfasst:
Sammeln Sie eine Stichprobe von Gesichtern, die für das Training verwendet werden sollen.
Alle im Trainingssatz verwendeten Fotos sollten in genau derselben Beleuchtung aufgenommen worden sein und müssen normalisiert werden, damit alle Fotos Augen und Münder richtig ausgerichtet haben.
Sie müssen auch alle auf eine gemeinsame Pixelauflösung (r × c) neu abgetastet werden .
Ein Vektor wird nur dann als ein Bild betrachtet, wenn die Spalten der Pixel des Quellbildes verbunden werden, was zu einer einzelnen Spalte mit r × c-Elementen führt.
In dieser speziellen Implementierung wird davon ausgegangen, dass die Trainingssatzbilder alle in einer einzigen Matrix T enthalten sind, und jede Matrixspalte stellt ein anderes Bild dar.
Entfernen Sie den Mittelwert. Von jedem Bild in T muss das durchschnittliche Bild a subtrahiert werden.
Bestimmen Sie die Eigenvektoren und Eigenwerte der Kovarianzmatrix S. Jeder Eigenvektor hat die gleiche Anzahl von Komponenten (Dimensionen) wie die Originalfotos, so dass es möglich ist, ihn wie ein anderes Bild zu behandeln. Die Eigenvektoren dieser Kovarianzmatrix werden als Eigenflächen bezeichnet. Sie weisen in die Richtungen, in denen die Fotos am meisten vom Durchschnitt abweichen. Da es möglich ist, die Eigenvektoren von S effizient zu berechnen, ohne S jemals explizit zu berechnen, haben Eigenflächen trotz dieses potenziell unerschwinglichen Rechenschritts praktische Anwendungen.
Wählen Sie die Hauptfaktoren aus.
Ordnen Sie die Eigenwerte und Eigenvektoren nach abnehmender Größe.
Die Anzahl der Hauptkomponenten k wird willkürlich bestimmt, indem ein Schwellenwert ε der Gesamtvarianz festgelegt wird.
Gesamtvarianz {\displaystyle v=(\lambda _{1}+\lambda _{2}+...+\lambda _{n})} , n = Anzahl der Komponenten.
k ist die kleinste Zahl, die erfüllt {\displaystyle {\frac {(\lambda _{1}+\lambda _{2}+...+\lambda _{k})}{v}}>\epsilon }
Diese Eigenflächen können nun verwendet werden, um sowohl zuvor gesehene als auch unsichtbare Gesichter darzustellen, indem aufgezeichnet wird, wie ein neu projiziertes (mittelsubtrahiertes) Bild die Form der Eigenflächen verändert.
Wie stark Bilder im Trainingssatz vom Durchschnitt abweichen, wird durch die Eigenwerte der entsprechenden Eigenflächen dargestellt.
Wenn nur einige der Eigenvektoren zur Projektion des Bildes verwendet werden, gehen einige Details verloren, dennoch werden die Verluste reduziert, indem die Eigenflächen mit den höchsten Eigenwerten beibehalten werden.
Wenn Sie beispielsweise mit einem 100- × 100-Bild arbeiten, werden 10.000 Eigenvektoren erzeugt.
In Kontexten, in denen es darauf ankommt, reicht eine Projektion auf 100 bis 150 Eigenflächen in der Regel aus, um die meisten Flächen zu erkennen, so dass zehntausend Eigenvektoren relativ einfach eliminiert werden können.
Mit der erweiterten Yale Face Database B können wir ein Beispiel für die Eigenflächenberechnung sehen.
Um einen Mangel an Rechenleistung oder Datenspeicher zu vermeiden, werden die Gesichtsbilder um den Faktor 4×4=16 abgetastet.
alles löschen; schließen Sie alle; Yalefaces laden
h, w, n = Größe(Yalefaces); d = h * w; % Vektorisieren von Bildern
x = reshape(yalefaces, d n]); x = doppelt(x); % Mittelwert subtrahieren
mean_matrix = Mittelwert(x, 2); x = bsxfun(@minus, x, mean_matrix); % Kovarianz berechnen
s = cov(x'); % Eigenwert & Eigenvektor erhalten
V, D = eig(s); eigval = diag(D); % Sortieren von Eigenwerten in absteigender Reihenfolge
eigval = eigval(Ende: - 1:1); V = fliplr(V); % zeigen Mittelwert und 1. bis 15. Haupteigenvektoren
Abbildung, Nebenhandlung(4, 4, 1)
imagesc(reshape(mean_matrix, h, w]))
Farbkarte grau
für i = 1:15
Nebenhandlung(4, 4, i + 1)
imagesc(reshape(V(:, i), h, w))
Ende
Obwohl viele Eigenflächen von der Kovarianzmatrix S erzeugt werden, wird nur eine Teilmenge davon tatsächlich benötigt, um die überwiegende Mehrheit der Flächen darzustellen. Die ersten 43 Eigengesichte können beispielsweise 95 % der Vielfalt ausmachen, die in allen Gesichtsfotos zu finden ist. Wenden Sie die folgende Formel auf Ihre Berechnungen an:
% bewerten die Anzahl der Hauptkomponenten, die erforderlich sind, um 95% Gesamtvarianz darzustellen.
eigsum = sum(eigval); csum = 0; für i = 1:d
csum = csum + eigval(i); tv = CSUM / EIGSUM; Wenn TV > 0,95
k95 = i; brechen
Ende; Ende; Es ist oft rechnerisch unerschwinglich, PCA direkt auf der Kovarianzmatrix der Bilder durchzuführen.
Wenn Miniaturansichten verwendet werden, z. B. 100 × 100 Pixel, ist jedes Bild ein Punkt in einem 10.000-dimensionalen Raum und die Kovarianzmatrix S ist eine Matrix von 10.000 × 10.000 = 108 Elementen.
Wenn es jedoch N Trainingsbeispiele gibt, dann ist der Rang der Kovarianzmatrix höchstens N-1, Es wird nicht mehr als N 1 Eigenvektoren geben, deren Eigenwerte nicht Null sind.
Wenn es weniger Trainingsinstanzen als Bildabmessungen gibt, wird das Modell Schwierigkeiten haben, Hier ist eine einfachere Möglichkeit, die primären Komponenten zu berechnen:.
Die Trainingsbeispielmatrix T wurde vorverarbeitet, wobei jede Spalte ein einzelnes Bild darstellt, nachdem sie mit Mittelwert subtrahiert wurde.
Die Kovarianzmatrix kann dann als S = TTT berechnet werden und die Eigenvektorzerlegung von S ist gegeben durch
\mathbf {Sv} _{i}=\mathbf {T} \mathbf {T} ^{T}\mathbf {v} _{i}=\lambda _{i}\mathbf {v} _{i}TTT ist jedoch eine große Matrix, wenn wir uns die Eigenwertzerlegung von
\mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {u} _{i}Wenn wir dann beide Seiten der Gleichung mit T vormultiplizieren, finden wir, dass
\mathbf {T} \mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {T} \mathbf {u} _{i}Das heißt, wenn ui ein Eigenvektor von TTT ist, dann ist vi = Tui ein Eigenvektor von S.
Wenn wir einen Trainingssatz von 300 Bildern mit 100 × 100 Pixeln haben, ist die Matrix-TTT eine 300 × 300-Matrix, die viel überschaubarer ist als die 10.000 × 10.000 Kovarianzmatrix.
Beachten Sie jedoch, dass die resultierenden Vektoren vi nicht normalisiert sind; Als zusätzlicher Prozess kann bei Bedarf eine Normalisierung verwendet werden.
X bezeichne die d\times n Datenmatrix mit Spalte x_{i} als Bildvektor mit subtrahiertem Mittelwert.
Dann {\displaystyle \mathrm {covariance} (X)={\frac {XX^{T}}{n}}}
Angenommen, X hat eine SVD, können wir sie wie folgt schreiben:
X=U{\Sigma }V^{T}Dann ist die Eigenwertzerlegung für XX^{T} :
XX^{T}=U{\Sigma }{{\Sigma }^{T}}U^{T}=U{\Lambda }U^{T}, wobei Λ=diag (Eigenwerte von XX^{T} )
Infolgedessen ist es sonnenklar, dass:
Die Eigenflächen = die ersten k k\leq n () Spalten von, U die den singulären Werten ungleich Null zugeordnet sind.
Der i-te Eigenwert des XX^{T}={\frac {1}{n}}( i-ten Singularwerts von X)^{2}
Wenn SVD auf Datenmatrix X durchgeführt wird, ist die eigentliche Kovarianzmatrix nicht erforderlich, um Eigenflächen zu erhalten.
Die Entwicklung von Eigengesichtern wurde durch die Notwendigkeit einer verbesserten Gesichtserkennung vorangetrieben. Im Vergleich zu alternativen Methoden schneiden Eigenflächen aufgrund der Geschwindigkeit und Effizienz des Systems besser ab. Durch den Fokus von eigenface auf die Reduzierung von Dimensionen kann eine große Anzahl von Motiven mit einer winzigen Menge an Informationen dargestellt werden. Es ist auch als Gesichtserkennungssystem ziemlich robust, wenn Fotos drastisch verkleinert werden. Trotzdem beginnt es dramatisch zu versagen, wenn es einen großen Unterschied zwischen den beobachteten Bildern und dem Sondenbild gibt.
Gesichtserkennung, Bilder in der Galerie des Systems werden durch Gewichtungssätze dargestellt, die die relative Bedeutung jeder Eigenfläche bei der Erstellung dieses Bildes charakterisieren.
Wenn der Datenbank eine neue Fläche zur Analyse hinzugefügt wird, wird das Bild des Systems auf den Satz von Eigenflächen projiziert, um seine eigenen Eigenwerte zu bestimmen.
Dadurch erhalten wir eine Sammlung von Werten, die die Vorderseite der Sonde charakterisieren.
Die Gewichte der Galeriesätze werden mit diesen verglichen, um die beste Übereinstimmung zu ermitteln.
Das Ermitteln des euklidischen Abstands zwischen zwei Vektoren ist so einfach wie das Finden des nächsten Nachbarn, wobei das Minimum als das nächstgelegene Subjekt klassifiziert werden kann.: 590
Die Eigengesichtstechnik der Gesichtsidentifikation basiert auf der Prämisse, dass Abfragefotos in den Gesichtsraum projiziert werden, der von den erzeugten Eigengesichtern überspannt wird, und die nächste Übereinstimmung mit einer