Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Kantenerkennung: Grenzen in der Computer Vision erkunden
Kantenerkennung: Grenzen in der Computer Vision erkunden
Kantenerkennung: Grenzen in der Computer Vision erkunden
eBook138 Seiten1 Stunde

Kantenerkennung: Grenzen in der Computer Vision erkunden

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist Kantenerkennung


Kantenerkennung ist eine Sammlung mathematischer Techniken, die darauf abzielen, Kanten zu erkennen, die als Kurven in einem digitalen Bild definiert sind, bei denen die Helligkeit von Das Bild ändert sich abrupt oder enthält, formaler ausgedrückt, Diskontinuitäten. Die Schwierigkeit, Diskontinuitäten in eindimensionalen Signalen zu entdecken, wird als Stufenerkennung bezeichnet, und das Problem, Signaldiskontinuitäten im Laufe der Zeit zu finden, wird als Änderungserkennung bezeichnet. Beide Techniken werden verwendet, um Diskontinuitäten in Signalen zu finden. Die Methode der Kantenerkennung ist ein unverzichtbares Werkzeug in den Bereichen Bildverarbeitung, maschinelles Sehen und Computer Vision, insbesondere in den Bereichen Merkmalserkennung und Merkmalsextraktion.


Ihre Vorteile


Ihre Vorteile


(I) Einblicke und Validierungen zu den folgenden Themen:


Kapitel 1: Kantenerkennung


Kapitel 2: Digitale Bildverarbeitung


Kapitel 3: Sobel-Operator


Kapitel 4: Roberts-Kreuz


Kapitel 5: Canny Edge Detector


Kapitel 6: Marr-Hildreth-Algorithmus


Kapitel 7: Skalierungsinvariante Feature-Transformation


Kapitel 8: Diskreter Laplace-Operator


Kapitel 9: Skalierungsraum


Kapitel 10: Prewitt-Operator


(II) Beantwortung der häufigsten öffentlichen Fragen zur Kantenerkennung.


(III) Beispiele aus der Praxis für den Einsatz der Kantenerkennung in vielen Bereichen.


Für wen sich dieses Buch eignet


Profis, Studenten und Doktoranden, Enthusiasten, Bastler und diejenigen, die über das Grundwissen oder die Informationen für jede Art von Kantenerkennung hinausgehen möchten.


 


 

SpracheDeutsch
Erscheinungsdatum30. Apr. 2024
Kantenerkennung: Grenzen in der Computer Vision erkunden

Mehr von Fouad Sabry lesen

Ähnlich wie Kantenerkennung

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Kantenerkennung

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Kantenerkennung - Fouad Sabry

    Kapitel 1: Kantenerkennung

    Die Kantenerkennung ist eine Sammlung mathematischer Techniken, die entwickelt wurden, um scharfe Helligkeitsübergänge in digitalen Bildern zu finden, die manchmal auch als Kanten bezeichnet werden. Das Auffinden von Diskontinuitäten in eindimensionalen Signalen wird als Schritterkennung bezeichnet, während dies in zeitveränderlichen Signalen als Änderungserkennung bezeichnet wird. In den Bereichen Computer Vision, Machine Vision und Bildverarbeitung spielt die Kantenerkennung eine entscheidende Rolle, insbesondere bei den Prozessen der Merkmalsidentifikation und Merkmalsextraktion.

    Die Erfassung bedeutender Ereignisse und Verschiebungen in den Attributen der Welt erfordert die Erkennung plötzlicher Änderungen der Bildhelligkeit. Kontraständerungen in einem Bild lassen sich durch einige Standardannahmen darüber erklären, wie Bilder entstehen:

    eine Tiefendiskontinuität, Orientierungsbrüche in Oberflächen, Verschiebungen in der atomaren Struktur des Materials und

    Subtile Verschiebungen in der Szenenbeleuchtung.

    Durch das Anwenden eines Kantendetektors auf ein Bild kann möglicherweise eine Reihe verbundener Kurven erzeugt werden, die die Kanten von Objekten, die Kanten von Oberflächenmarkierungen und die Kanten von Unterbrechungen in der Ausrichtung der Oberfläche darstellen. Um die wichtigen strukturellen Aspekte eines Bildes zu erhalten, ohne die Verarbeitung zu verkomplizieren, kann ein Kantenerkennungsverfahren auf das Bild angewendet werden, um die zu verarbeitende Datenmenge erheblich zu reduzieren, indem Informationen herausgefiltert werden, die möglicherweise als weniger relevant erachtet werden. Wenn der Kantenerkennungsprozess effektiv ist, kann die Entschlüsselung des Informationsgehalts des Bildes viel weniger schwierig sein. Solche perfekten Ränder sind jedoch nicht immer mit mäßig komplexen Fotos aus der realen Welt erreichbar.

    Fragmentierung, bei der die Kantenkurven nicht miteinander verbunden sind, fehlende Kantensegmente und falsche Kanten, die sich nicht auf relevante Ereignisse im Bild beziehen, behindern die Interpretation von Kantendaten, die aus nicht-trivialen Bildern abgeleitet wurden.

    Die Erkennung von Kanten ist ein entscheidender erster Schritt in vielen Arten der Bildanalyse, Mustererkennung und Computer Vision.

    Kanten, die aus einer 2D-Darstellung einer 3D-Szene abgeleitet werden, können entweder blickwinkelabhängig oder ansichtspunktunabhängig sein, je nachdem, wie die 2D-Darstellung erstellt wurde. Kanten, die unabhängig von der Perspektive des Betrachters sind, geben oft Aufschluss über die Form und Textur dreidimensionaler Objekte. Eine Kante, die von der Perspektive des Betrachters abhängt, kann sich mit seiner Position im Bild verschieben und Faktoren wie die Okklusion von Objekten widerspiegeln.

    Die Linie, an der sich zwei benachbarte Farbblöcke treffen, ist ein Beispiel für eine gemeinsame Kante. Im Gegensatz dazu kann eine Linie (die von einem Ridge-Detektor wiederhergestellt werden kann) nur aus wenigen Pixeln einer bestimmten Farbe auf einem ansonsten gleichmäßigen Hintergrund bestehen. Folglich kann auf beiden Seiten einer Linie eine Kante vorhanden sein.

    Obwohl perfekte Stufenkanten Gegenstand einiger Forschungen sind, liefern natürliche Fotografien selten wirklich perfekte Stufenkanten. Stattdessen sind sie in der Regel von mindestens einer der folgenden Ursachen betroffen:

    Fokusunschärfe aufgrund von Einschränkungen der Tiefenschärfe- und Punktspreizfunktion.

    Halbschattenunschärfe durch Schattenwurf von nicht verschwindenden Lichtquellen.

    Schatten auf eine ebene Fläche werfen

    Mehrere Wissenschaftler haben den einfachsten Schritt über das ideale Stufenkantenmodell hinaus getan, indem sie die Auswirkungen der Kantenunschärfe mit einer Gaußschen geglätteten Stufenkante (einer Fehlerfunktion) beschrieben haben.

    So kann ein eindimensionales Bild f , bei dem genau eine Kante platziert x=0 ist, wie folgt modelliert werden:

    {\displaystyle f(x)={\frac {I_{r}-I_{\ell }}{2}}\left(\operatorname {erf} \left({\frac {x}{{\sqrt {2}}\sigma }}\right)+1\right)+I_{\ell }.}

    Zum linken Rand hin ist die Intensität {\displaystyle I_{\ell }=\lim _{x\rightarrow -\infty }f(x)} , und rechts vom Rand ist sie I_{r}=\lim _{x\rightarrow \infty }f(x) .

    Der Skalierungsparameter \sigma wird als Weichzeichnungsskala der Kante bezeichnet.

    Der ideale Wert für diesen Skalierungsparameter ist einer, der die Bildqualität berücksichtigt, damit die echten Kanten des Bildes dabei nicht verloren gehen.

    Betrachten Sie das folgende eindimensionale Signal als Beispiel dafür, warum die Kantenerkennung kein einfacher Prozess ist. Es scheint naheliegend anzunehmen, dass das vierte und fünfte Pixel in diesem Beispiel durch eine Linie getrennt sein sollten.

    Es wäre weniger offensichtlich, dass es in der entsprechenden Region eine Kante geben sollte, wenn der Intensitätsunterschied zwischen dem vierten und fünften Pixel kleiner und die Intensitätsunterschiede zwischen den nächsten angrenzenden Pixeln größer wären. Darüber hinaus besteht die Möglichkeit, zu argumentieren, dass dieser Fall mehrere Vorteile hat.

    Daher ist es nicht immer einfach, einen genauen Schwellenwert dafür zu definieren, wie groß der Intensitätsunterschied zwischen zwei benachbarten Pixeln sein muss, damit wir sagen können, dass es eine Kante zwischen diesen Pixeln geben sollte. Wenn die Objekte der Szene nicht recht einfach sind und die Beleuchtung sorgfältig kalibriert werden kann, kann die Kantenerkennung daher eine nicht triviale Aufgabe sein (siehe z. B. die Kanten, die aus dem Bild mit dem Mädchen oben extrahiert wurden).

    Es gibt viele Methoden zur Kantenerkennung, die jedoch entweder in suchbasierte oder auf Nulldurchgängen basierende Ansätze unterteilt werden können. Die suchbasierten Methoden finden Kanten, indem sie zuerst die lokale Ausrichtung der Kante schätzen, typischerweise die Gradientenrichtung, und dann nach lokalen Richtungsmaxima der Kantenstärke suchen, die typischerweise ein abgeleiteter Ausdruck erster Ordnung wie die Gradientengröße ist. Die auf Nulldurchgängen basierenden Ansätze suchen oft nach den Nulldurchgängen der Laplacefunktion oder den Nulldurchgängen eines nichtlinearen Differentialausdrucks, die beide aus dem Bild generiert werden, um Kanten zu lokalisieren. In den meisten Fällen wird eine Glättungsstufe, oft eine Gaußsche Glättungsstufe, als Vorverarbeitungsschritt implementiert, bevor die eigentliche Kantenerkennung durchgeführt wird (siehe auch Rauschunterdrückung).

    Es werden verschiedene Glättungsfilter verwendet, und die Kantenstärke wird bei den berichteten Kantenerkennungsalgorithmen auf leicht unterschiedliche Weise quantifiziert. Da sich viele Kantenerkennungsstrategien auf die Berechnung von Bildgradienten konzentrieren, können die Filter, die zur Schätzung solcher Gradienten in der x- und y-Achse verwendet werden, zwischen den Ansätzen sehr unterschiedlich sein.

    Eine Vielzahl von Kantenerkennungstechniken wird diskutiert in (Ziou und Tabbone 1998); Angesichts der Bedingungen der Erkennung, Lokalisierung und Minimierung vieler Reaktionen auf eine einzelne Kante untersuchte John Canny die mathematische Herausforderung, einen effektiven Glättungsfilter zu entwickeln. Unter diesen Bedingungen, so zeigte er, ist der beste Filter eine Summe von vier exponentiellen Termen. Er zeigte auch, dass Gauß-Ableitungen erster Ordnung eine gute Annäherung an diesen Filter darstellen. Angesichts der Vorglättungsfilter werden Kantenpunkte als Orte definiert, an denen die Gradientengröße ein lokales Maximum entlang der Gradientenachse erreicht, ein Konzept, das Canny zuvor vorgestellt hat. Haralick schlug zunächst vor, nach dem Nulldurchgang der zweiten Ableitung entlang der Gradientenrichtung zu suchen. In weniger als zwei Jahrzehnten wurde eine neue geometrische Variationsinterpretation des Operators entdeckt, die ihn mit dem Marr-Hildreth-Kantendetektor (Nulldurchgang des Laplaceians) verbindet. Ron Kimmel und Alfred Bruckstein machten diese Beobachtung. Kantendetektoren mit besserer Leistung als der Canny benötigen in der Regel entweder mehr Rechenzeit oder mehr Parameter.

    Vladimir A.

    Kovalevsky und einen von ihm selbst entworfenen Rampenverdünnungsfilter.

    Um eine Kante zwischen zwei benachbarten Pixeln zu erkennen, die die gleiche Helligkeit, aber unterschiedliche Farben haben, ignoriert diese Technik die Luminanz des Bildes und verlässt sich stattdessen auf die Intensitäten

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1