Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface
Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface
Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface
eBook223 Seiten1 Stunde

Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist Eigenface


Ein Eigenface ist der Name, der einer Reihe von Eigenvektoren gegeben wird, wenn sie im Computer-Vision-Problem der Erkennung menschlicher Gesichter verwendet werden. Der Ansatz, Eigengesichter zur Erkennung zu verwenden, wurde von Sirovich und Kirby entwickelt und von Matthew Turk und Alex Pentland bei der Gesichtsklassifizierung verwendet. Die Eigenvektoren werden aus der Kovarianzmatrix der Wahrscheinlichkeitsverteilung über den hochdimensionalen Vektorraum von Gesichtsbildern abgeleitet. Die Eigengesichter selbst bilden einen Basissatz aller Bilder, die zur Konstruktion der Kovarianzmatrix verwendet werden. Dies führt zu einer Dimensionsreduzierung, da der kleinere Satz von Basisbildern die ursprünglichen Trainingsbilder darstellen kann. Die Klassifizierung kann durch den Vergleich erreicht werden, wie Gesichter durch den Basissatz dargestellt werden.


Wie Sie davon profitieren


(I) Einblicke und Validierungen zu Folgendem Themen:


Kapitel 1: Eigenface


Kapitel 2: Hauptkomponentenanalyse


Kapitel 3: Singulärwertzerlegung


Kapitel 4: Eigenwerte und Eigenvektoren


Kapitel 5: Eigenzerlegung einer Matrix


Kapitel 6: Kernel-Hauptkomponentenanalyse


Kapitel 7: Matrixanalyse


Kapitel 8: Lineares dynamisches System


Kapitel 9: Multivariate Normalverteilung


Kapitel 10: Variationsmodi


(II) Beantwortung der häufigsten öffentlichen Fragen zu Eigenflächen.


(III) Beispiele aus der Praxis für die Verwendung von Eigenface in vielen Bereichen.


Für wen dieses Buch gedacht ist


Berufstätige, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über Grundkenntnisse oder Informationen für jede Art von Eigenface hinausgehen möchten.


 


 

SpracheDeutsch
Erscheinungsdatum14. Mai 2024
Eigenface: Erkunden Sie die Tiefen der visuellen Erkennung mit Eigenface

Mehr von Fouad Sabry lesen

Ähnlich wie Eigenface

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Eigenface

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Eigenface - Fouad Sabry

    Kapitel 1: Eigenface

    Eine Eigenfläche (/ˈaɪɡənˌfeɪs/) ist die Bezeichnung für eine Reihe von Eigenvektoren, wenn sie im Computer-Vision-Problem der menschlichen Gesichtserkennung verwendet werden.

    Der hochdimensionale Gesichtsbildvektorraum hat eine Wahrscheinlichkeitsverteilung, deren Kovarianzmatrix die Eigenvektoren liefert.

    Die Eigenflächen selbst sind die Basis, aus der die Kovarianzmatrix aufgebaut wird.

    Dies führt zu einer Dimensionsreduzierung, da die ursprünglichen Trainingsbilder durch einen kompakteren Satz von Basisbildern dargestellt werden können.

    Flächen können sortiert werden, indem ihre Darstellungen im Basissatz verglichen werden.

    Eine kompakte Möglichkeit zu finden, Gesichtszüge auszudrücken, war der Ausgangspunkt für die Eigenface-Methode.

    Anhand der Hauptkomponentenanalyse demonstrierten Sirovich und Kirby, wie man aus einer Gruppe von Gesichtsfotos einen grundlegenden Satz von Merkmalen erstellt.

    Die grundlegenden Bilder, die Eigenbilder, im ursprünglichen Trainingssatz können linear zusammengeführt werden, um Bilder zu erzeugen.

    Bei einem M-Bild-Trainingssatz könnten N Fotos als Ausgangspunkt für die Hauptkomponentenanalyse verwendet werden, wenn N > M ist.

    Wenn mehr Eigenbilder verwendet werden, nimmt der Rekonstruktionsfehler ab; Jede erforderliche Zahl ist jedoch kleiner als M.

    Zum Beispiel ist es für einen gegebenen Satz von M-Trainingsgesichtsbildern notwendig, N Eigenflächen zu erzeugen, Sie können sagen, dass jedes Gesichtsbild aus Proportionen aller K -Merkmale oder Eigenflächen bestehen kann: Gesichtsbild1 = (23% von E1) + (2% von E2) + (51% von E3) + ..

    + (1% en).

    1991 stellten M. Turk und A. Pentland die Eigengesichtsmethode der Gesichtserkennung vor, die auf ihren früheren Errungenschaften aufbaute. Sie demonstrierten eine Methode zur Berechnung der Eigenvektoren einer Kovarianzmatrix, die es ermöglichte, eine große Anzahl von Gesichtsfotos auf Computern der damaligen Zeit zu zerlegen. Die traditionelle Hauptkomponentenanalyse erwies sich als schwierig auf hochdimensionale Gesichtsbilddatensätze. Mit Hilfe von Matrizen, die proportional zur Anzahl der Bilder und nicht zur Anzahl der Pixel sind, zeigten Turk und Pentland, wie die Eigenvektoren extrahiert werden können.

    Nach dem ersten Erfolg wurde das Eigenflächenverfahren weiterentwickelt, um Vorverarbeitungstechniken für eine höhere Präzision zu integrieren.

    Die Hauptkomponentenanalyse (PCA) ist ein mathematisches Verfahren, das auf eine große Sammlung von Gesichtsfotos angewendet werden kann, um eine Reihe von Eigengesichtern zu erzeugen. Eigengesichter werden durch statistische Analyse vieler verschiedener Bilder von Gesichtern erstellt und können informell als eine Reihe von standardisierten Gesichtsbestandteilen betrachtet werden. Alle menschlichen Gesichter können in diese Grundbausteine zerlegt werden. Das Gesicht kann aus dem durchschnittlichen Gesicht plus beispielsweise 10 % von Eigenfläche 1, 55 % von Eigenfläche 2 und 3 % von Eigenfläche 3 bestehen. Überraschenderweise kann eine gute Annäherung der meisten Flächen mit nur einer kleinen Anzahl von miteinander verbundenen Eigenflächen erhalten werden. Außerdem wird viel weniger Platz für das Gesicht jeder Person eingenommen, da es nicht durch ein digitales Foto gespeichert wird, sondern als Werteliste (ein Wert für jedes Eigengesicht in der verwendeten Datenbank).

    Die resultierenden Eigenflächen haben ein Muster aus kontrastierenden hellen und dunklen Teilen. Auf diese Weise können wir einzelne Gesichtsmerkmale für eine detaillierte Analyse und Bewertung isolieren. Die Symmetrie wird ebenso bewertet wie das Vorhandensein von Gesichtsbehaarung, die Position des Haaransatzes und die Proportionen von Nase und Lippen. Einige Eigengesichter haben schwieriger zu erkennende Muster, und ihre resultierenden Bilder ähneln möglicherweise kaum menschlichen Gesichtern.

    Neben der Gesichtserkennung sind weitere Anwendungen des Verfahrens, das zur Erstellung von Eigengesichtern und deren Verwendung zur Erkennung verwendet wird, die Handschrifterkennung, das Lippenlesen, die Spracherkennung, die Interpretation von Gebärdensprache und Handgesten sowie die Analyse medizinischer Bilder. Aus diesem Grund gibt es andere, die lieber den Begriff Eigenbild anstelle von Eigengesicht verwenden.

    Das Generieren einer Sammlung von Eigenflächen umfasst:

    Sammeln Sie eine Stichprobe von Gesichtern, die für das Training verwendet werden sollen.

    Alle im Trainingssatz verwendeten Fotos sollten in genau derselben Beleuchtung aufgenommen worden sein und müssen normalisiert werden, damit alle Fotos Augen und Münder richtig ausgerichtet haben.

    Sie müssen auch alle auf eine gemeinsame Pixelauflösung (r × c) neu abgetastet werden .

    Ein Vektor wird nur dann als ein Bild betrachtet, wenn die Spalten der Pixel des Quellbildes verbunden werden, was zu einer einzelnen Spalte mit r × c-Elementen führt.

    In dieser speziellen Implementierung wird davon ausgegangen, dass die Trainingssatzbilder alle in einer einzigen Matrix T enthalten sind, und jede Matrixspalte stellt ein anderes Bild dar.

    Entfernen Sie den Mittelwert. Von jedem Bild in T muss das durchschnittliche Bild a subtrahiert werden.

    Bestimmen Sie die Eigenvektoren und Eigenwerte der Kovarianzmatrix S. Jeder Eigenvektor hat die gleiche Anzahl von Komponenten (Dimensionen) wie die Originalfotos, so dass es möglich ist, ihn wie ein anderes Bild zu behandeln. Die Eigenvektoren dieser Kovarianzmatrix werden als Eigenflächen bezeichnet. Sie weisen in die Richtungen, in denen die Fotos am meisten vom Durchschnitt abweichen. Da es möglich ist, die Eigenvektoren von S effizient zu berechnen, ohne S jemals explizit zu berechnen, haben Eigenflächen trotz dieses potenziell unerschwinglichen Rechenschritts praktische Anwendungen.

    Wählen Sie die Hauptfaktoren aus.

    Ordnen Sie die Eigenwerte und Eigenvektoren nach abnehmender Größe.

    Die Anzahl der Hauptkomponenten k wird willkürlich bestimmt, indem ein Schwellenwert ε der Gesamtvarianz festgelegt wird.

    Gesamtvarianz {\displaystyle v=(\lambda _{1}+\lambda _{2}+...+\lambda _{n})} , n = Anzahl der Komponenten.

    k ist die kleinste Zahl, die erfüllt {\displaystyle {\frac {(\lambda _{1}+\lambda _{2}+...+\lambda _{k})}{v}}>\epsilon }

    Diese Eigenflächen können nun verwendet werden, um sowohl zuvor gesehene als auch unsichtbare Gesichter darzustellen, indem aufgezeichnet wird, wie ein neu projiziertes (mittelsubtrahiertes) Bild die Form der Eigenflächen verändert.

    Wie stark Bilder im Trainingssatz vom Durchschnitt abweichen, wird durch die Eigenwerte der entsprechenden Eigenflächen dargestellt.

    Wenn nur einige der Eigenvektoren zur Projektion des Bildes verwendet werden, gehen einige Details verloren, dennoch werden die Verluste reduziert, indem die Eigenflächen mit den höchsten Eigenwerten beibehalten werden.

    Wenn Sie beispielsweise mit einem 100- × 100-Bild arbeiten, werden 10.000 Eigenvektoren erzeugt.

    In Kontexten, in denen es darauf ankommt, reicht eine Projektion auf 100 bis 150 Eigenflächen in der Regel aus, um die meisten Flächen zu erkennen, so dass zehntausend Eigenvektoren relativ einfach eliminiert werden können.

    Mit der erweiterten Yale Face Database B können wir ein Beispiel für die Eigenflächenberechnung sehen.

    Um einen Mangel an Rechenleistung oder Datenspeicher zu vermeiden, werden die Gesichtsbilder um den Faktor 4×4=16 abgetastet.

    alles löschen; schließen Sie alle; Yalefaces laden

    h, w, n = Größe(Yalefaces); d = h * w; % Vektorisieren von Bildern

    x = reshape(yalefaces, d n]); x = doppelt(x); % Mittelwert subtrahieren

    mean_matrix = Mittelwert(x, 2); x = bsxfun(@minus, x, mean_matrix); % Kovarianz berechnen

    s = cov(x'); % Eigenwert & Eigenvektor erhalten

    V, D = eig(s); eigval = diag(D); % Sortieren von Eigenwerten in absteigender Reihenfolge

    eigval = eigval(Ende: - 1:1); V = fliplr(V); % zeigen Mittelwert und 1. bis 15. Haupteigenvektoren

    Abbildung, Nebenhandlung(4, 4, 1)

    imagesc(reshape(mean_matrix, h, w]))

    Farbkarte grau

    für i = 1:15

    Nebenhandlung(4, 4, i + 1)

    imagesc(reshape(V(:, i), h, w))

    Ende

    Obwohl viele Eigenflächen von der Kovarianzmatrix S erzeugt werden, wird nur eine Teilmenge davon tatsächlich benötigt, um die überwiegende Mehrheit der Flächen darzustellen. Die ersten 43 Eigengesichte können beispielsweise 95 % der Vielfalt ausmachen, die in allen Gesichtsfotos zu finden ist. Wenden Sie die folgende Formel auf Ihre Berechnungen an:

    % bewerten die Anzahl der Hauptkomponenten, die erforderlich sind, um 95% Gesamtvarianz darzustellen.

    eigsum = sum(eigval); csum = 0; für i = 1:d

    csum = csum + eigval(i);  tv = CSUM / EIGSUM;  Wenn TV > 0,95

    k95 = i;  brechen

    Ende; Ende; Es ist oft rechnerisch unerschwinglich, PCA direkt auf der Kovarianzmatrix der Bilder durchzuführen.

    Wenn Miniaturansichten verwendet werden, z. B. 100 × 100 Pixel, ist jedes Bild ein Punkt in einem 10.000-dimensionalen Raum und die Kovarianzmatrix S ist eine Matrix von 10.000 × 10.000 = 108 Elementen.

    Wenn es jedoch N Trainingsbeispiele gibt, dann ist der Rang der Kovarianzmatrix höchstens N-1, Es wird nicht mehr als N 1 Eigenvektoren geben, deren Eigenwerte nicht Null sind.

    Wenn es weniger Trainingsinstanzen als Bildabmessungen gibt, wird das Modell Schwierigkeiten haben, Hier ist eine einfachere Möglichkeit, die primären Komponenten zu berechnen:.

    Die Trainingsbeispielmatrix T wurde vorverarbeitet, wobei jede Spalte ein einzelnes Bild darstellt, nachdem sie mit Mittelwert subtrahiert wurde.

    Die Kovarianzmatrix kann dann als S = TTT berechnet werden und die Eigenvektorzerlegung von S ist gegeben durch

    \mathbf {Sv} _{i}=\mathbf {T} \mathbf {T} ^{T}\mathbf {v} _{i}=\lambda _{i}\mathbf {v} _{i}

    TTT ist jedoch eine große Matrix, wenn wir uns die Eigenwertzerlegung von

    \mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {u} _{i}

    Wenn wir dann beide Seiten der Gleichung mit T vormultiplizieren, finden wir, dass

    \mathbf {T} \mathbf {T} ^{T}\mathbf {T} \mathbf {u} _{i}=\lambda _{i}\mathbf {T} \mathbf {u} _{i}

    Das heißt, wenn ui ein Eigenvektor von TTT ist, dann ist vi = Tui ein Eigenvektor von S.

    Wenn wir einen Trainingssatz von 300 Bildern mit 100 × 100 Pixeln haben, ist die Matrix-TTT eine 300 × 300-Matrix, die viel überschaubarer ist als die 10.000 × 10.000 Kovarianzmatrix.

    Beachten Sie jedoch, dass die resultierenden Vektoren vi nicht normalisiert sind; Als zusätzlicher Prozess kann bei Bedarf eine Normalisierung verwendet werden.

    X bezeichne die d\times n Datenmatrix mit Spalte x_{i} als Bildvektor mit subtrahiertem Mittelwert.

    Dann {\displaystyle \mathrm {covariance} (X)={\frac {XX^{T}}{n}}}

    Angenommen, X hat eine SVD, können wir sie wie folgt schreiben:

    X=U{\Sigma }V^{T}

    Dann ist die Eigenwertzerlegung für XX^{T} :

    XX^{T}=U{\Sigma }{{\Sigma }^{T}}U^{T}=U{\Lambda }U^{T}

    , wobei Λ=diag (Eigenwerte von XX^{T} )

    Infolgedessen ist es sonnenklar, dass:

    Die Eigenflächen = die ersten k k\leq n () Spalten von, U die den singulären Werten ungleich Null zugeordnet sind.

    Der i-te Eigenwert des XX^{T}={\frac {1}{n}}( i-ten Singularwerts von X)^{2}

    Wenn SVD auf Datenmatrix X durchgeführt wird, ist die eigentliche Kovarianzmatrix nicht erforderlich, um Eigenflächen zu erhalten.

    Die Entwicklung von Eigengesichtern wurde durch die Notwendigkeit einer verbesserten Gesichtserkennung vorangetrieben. Im Vergleich zu alternativen Methoden schneiden Eigenflächen aufgrund der Geschwindigkeit und Effizienz des Systems besser ab. Durch den Fokus von eigenface auf die Reduzierung von Dimensionen kann eine große Anzahl von Motiven mit einer winzigen Menge an Informationen dargestellt werden. Es ist auch als Gesichtserkennungssystem ziemlich robust, wenn Fotos drastisch verkleinert werden. Trotzdem beginnt es dramatisch zu versagen, wenn es einen großen Unterschied zwischen den beobachteten Bildern und dem Sondenbild gibt.

    Gesichtserkennung, Bilder in der Galerie des Systems werden durch Gewichtungssätze dargestellt, die die relative Bedeutung jeder Eigenfläche bei der Erstellung dieses Bildes charakterisieren.

    Wenn der Datenbank eine neue Fläche zur Analyse hinzugefügt wird, wird das Bild des Systems auf den Satz von Eigenflächen projiziert, um seine eigenen Eigenwerte zu bestimmen.

    Dadurch erhalten wir eine Sammlung von Werten, die die Vorderseite der Sonde charakterisieren.

    Die Gewichte der Galeriesätze werden mit diesen verglichen, um die beste Übereinstimmung zu ermitteln.

    Das Ermitteln des euklidischen Abstands zwischen zwei Vektoren ist so einfach wie das Finden des nächsten Nachbarn, wobei das Minimum als das nächstgelegene Subjekt klassifiziert werden kann.: 590

    Die Eigengesichtstechnik der Gesichtsidentifikation basiert auf der Prämisse, dass Abfragefotos in den Gesichtsraum projiziert werden, der von den erzeugten Eigengesichtern überspannt wird, und die nächste Übereinstimmung mit einer

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1