Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Modell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen
Modell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen
Modell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen
eBook117 Seiten1 Stunde

Modell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Was ist ein menschliches visuelles Systemmodell


Experten für Bildverarbeitung, Videoverarbeitung und Computer Vision nutzen ein menschliches visuelles Systemmodell, um mit biologischen und psychologischen Problemen umzugehen Prozesse, die noch nicht vollständig verstanden sind. Ein Beispiel eines solchen Modells wird verwendet, um das Verhalten eines äußerst komplexen Systems zu vereinfachen. Immer wenn sich unser Verständnis des tatsächlichen visuellen Systems verbessert, wird das Modell aktualisiert.


Wie Sie davon profitieren


(I) Einblicke und Validierungen zu folgenden Themen:


Kapitel 1: Modell des menschlichen visuellen Systems


Kapitel 2: Datenkomprimierung


Kapitel 3: Bildkomprimierung


Kapitel 4: Transformationscodierung


Kapitel 5: Optische Täuschung


Kapitel 6: Chroma-Unterabtastung


Kapitel 7: Komprimierungsartefakt


Kapitel 8: Graustufen


Kapitel 9: Tonwertzuordnung


Kapitel 10: Farberscheinungsmodell


(II) Beantwortung der häufigsten öffentlichen Fragen zum Modell des menschlichen visuellen Systems.


(III) Beispiele aus der Praxis für die Verwendung des Modells des menschlichen visuellen Systems in vielen Bereichen.


Für wen dieses Buch gedacht ist


Fachleute, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über das Grundwissen oder die Informationen für jegliche Art von Modell des menschlichen visuellen Systems hinausgehen möchten.


 


 

SpracheDeutsch
Erscheinungsdatum6. Mai 2024
Modell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen

Ähnlich wie Modell des menschlichen visuellen Systems

Titel in dieser Serie (100)

Mehr anzeigen

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Modell des menschlichen visuellen Systems

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Modell des menschlichen visuellen Systems - Fouad Sabry

    Kapitel 1: Modell des menschlichen visuellen Systems

    Experten aus den Bereichen Bildverarbeitung, Videoverarbeitung und Computer Vision verwenden ein Modell des menschlichen Sehsystems (HVS-Modell), um biologische und psychologische Prozesse zu berücksichtigen, die noch wenig verstanden sind. Ein solches Modell wird eingesetzt, um die Komplexität des Systemverhaltens zu reduzieren. Das Modell wird überarbeitet, wenn unser Verständnis des realen visuellen Systems wächst.

    Die Analyse der visuellen Wahrnehmung wird als psychovisuelle Forschung bezeichnet.aus.

    Es ist möglich, die eigene Wahrnehmung und das Sehvermögen mit Hilfe eines Modells des menschlichen Sehsystems zu manipulieren. Farbfernsehen, verlustbehaftete Kompression und Kathodenstrahlröhrenfernsehen (CRT) sind allesamt Anwendungen des HVS-Paradigmas.

    Früher glaubte man, dass der Bandbreitenbedarf des Farbfernsehens für die vorhandene Technologie zu groß sei. Es stellte sich heraus, dass die Farbauflösung des HVS weitaus niedriger war als seine Helligkeitsauflösung, was bedeutete, dass Chroma-Subsampling verwendet werden konnte, um mehr Farbe in das Signal zu quetschen.

    Verlustbehaftete Bildkomprimierungsformate wie JPEG sind ein weiteres Beispiel dafür. Nach unserem HVS-Modell sind wir nicht in der Lage, hochfrequente Details zu erkennen. Dadurch können wir mit JPEG diese Teile ohne merklichen Qualitätsabfall quantisieren. Die Bandstop-Filterung wird bei der Audiokomprimierung verwendet, um Frequenzen zu entfernen, die Menschen nicht hören können.

    Während unserer evolutionären Vergangenheit, als wir Menschen uns selbst schützen oder nach Nahrung suchen mussten, haben wir verschiedene Aspekte des HVS angepasst. HVS-Eigenschaften werden häufig in optischen Täuschungen dargestellt.

    Aufgrund des Mangels an Stäbchen funktioniert das menschliche Auge wie ein Tiefpassfilter. So zeigen Sie Machbänder an

    Inakzeptable Farbauflösung (weniger Zapfen im menschlichen Auge als Stäbchen)

    Bewegungsempfindlichkeit

    Höhere Sensibilität für die Umgebung

    Ein getarntes Tier zu sehen, hat eine viel tiefgreifendere Wirkung, als nur seine Textur zu spüren.

    In 3D kann mehr Wert auf die Textur als auf die Disparität gelegt werden.

    Eingebaute Gesichtserkennung (Babys lächeln Gesichter an)

    Eine normal erscheinende invertierte Gesichtstiefe (Gesichtsmerkmale überschreiben Tiefeninformationen)

    Selbst wenn der Mund und die Augen von innen nach außen gedreht sind, erscheint das invertierte Gesicht normal.

    Film und Fernsehen verwenden Flackern bei hohen Frequenzen, um den Betrachter dazu zu bringen, ein kontinuierliches Bild wahrzunehmen, indem sie die Persistenz des Sehens ausnutzen.

    Um die Illusion einer höheren Flimmerfrequenz zu erzeugen, malen Interlaced-Fernseher Halbbilder.

    Farbübertragung (Chrominanz bei halber Auflösung der Leuchtdichte, die den Proportionen der Stäbchen und Zapfen im Auge entspricht)

    Komprimieren eines Bildes (schwieriger, höhere Frequenzen zu sehen, härter quantisiert)

    Schätzung der Bewegung (Luminanz verwenden und Farbe ignorieren)

    Wasserzeichen und Steganographie

    {Ende Kapitel 1}

    Kapitel 2: Datenkomprimierung

    In der Informationstheorie, der Datenkomprimierung, der Quellcodierung und anderen verwandten Bereichen: Im allgemeinen Sprachgebrauch wird ein Gerät, das sich am Prozess der Datenkompression beteiligt, als Encoder bezeichnet, während ein Gerät, das sich an der Umkehrung des Prozesses – d. h. der Dekomprimierung – beteiligt, als Decoder bezeichnet wird.

    Datenkomprimierung ist der Prozess der Verringerung der Größe einer Datendatei und ist ein Begriff, der ziemlich häufig verwendet wird. Die Quellcodierung ist ein Codierungsprozess, der an der ursprünglichen Datenquelle stattfindet, bevor die Daten gespeichert oder übertragen werden. Auf diesen Vorgang wird im Zusammenhang mit der Datenübertragung hingewiesen. Es ist wichtig, die Quellcodierung nicht mit anderen Arten der Codierung zu verwechseln, z. B. mit der Kanalcodierung, die zur Fehlererkennung und -korrektur verwendet wird, oder mit der Leitungscodierung, bei der es sich um eine Methode zur Abbildung von Daten auf ein Signal handelt.

    Die Datenkomprimierung ist von Vorteil, da sie den Speicherplatz und die Bandbreite reduziert, die zum Speichern und Übertragen von Informationen benötigt werden. Sowohl die Verfahren der Komprimierung als auch der Dekomprimierung erfordern eine beträchtliche Menge an Rechenressourcen. Der Kompromiss zwischen Raum-Zeit-Komplexität ist etwas, das bei der Komprimierung von Daten berücksichtigt werden muss. Eine Videokomprimierungsmethode kann z. B. teure Hardware erfordern, damit das Video schnell genug dekomprimiert werden kann, um während der Dekomprimierung angesehen werden zu können. Darüber hinaus kann die Option, das Video vor dem Ansehen vollständig zu dekomprimieren, unpraktisch sein oder zusätzlichen Speicherplatz erfordern. Beim Entwerfen von Datenkomprimierungsschemata müssen Entwickler Kompromisse zwischen einer Reihe verschiedener Faktoren eingehen. Zu diesen Faktoren gehören der Grad der erreichten Komprimierung, der Grad der Verzerrung, der eingeführt wird (bei Verwendung der verlustbehafteten Datenkomprimierung) und die Menge an Rechenressourcen, die zum Komprimieren und Dekomprimieren der Daten erforderlich sind.

    Um Daten darzustellen, ohne dabei Informationen zu verlieren, bedienen sich verlustfreie Datenkompressionsverfahren häufig der statistischen Redundanz. Dadurch wird sichergestellt, dass der Prozess rückgängig gemacht werden kann. Da die überwiegende Mehrheit der Daten in der realen Welt statistisch redundant ist, ist eine verlustfreie Komprimierung möglich. Beispielsweise kann ein Bild Farbfelder enthalten, die sich im Verlauf mehrerer Pixel nicht ändern. In diesem Fall können die Daten als 279 rote Pixel und nicht in der traditionellen Schreibweise rotes Pixel, rotes Pixel,... aufgezeichnet werden Dies ist eine grundlegende Illustration der Lauflängencodierung. Es gibt viele weitere Methoden, um die Größe einer Datei zu verringern, indem redundante Informationen entfernt werden.

    Kompressionstechniken wie Lempel-Ziv (LZ) gehören heute zu den am weitesten verbreiteten Algorithmen zur verlustfreien Datenspeicherung. Tabelleneinträge werden bei der LZ-Komprimierungstechnik, bei der es sich um ein tabellenbasiertes Komprimierungsmodell handelt, durch sich wiederholende Datenzeichenfolgen ersetzt. Diese Tabelle wird dynamisch für die überwiegende Mehrheit der LZ-Algorithmen erstellt, indem Daten aus früheren Phasen der Eingabe verwendet werden. Meistens ist die Tabelle selbst Huffman-kodiert. Grammatikbasierte Codes wie dieser sind in der Lage, im Wesentlichen repetitive Eingaben erfolgreich zu komprimieren, wie z. B. eine biologische Datensammlung derselben oder fast verwandter Spezies, eine umfangreiche versionierte Dokumentensammlung, Internetarchive und so weiter. Die Konstruktion einer kontextfreien Grammatik, die eine einzelne Zeichenfolge ableitet, ist das grundlegende Unterfangen grammatikbasierter Kodierungssysteme. Sequitur und Re-Pair sind zwei weitere Techniken zur Komprimierung der Grammatik, die praktische Anwendungen haben.

    Probabilistische Modelle, wie z. B. die Vorhersage durch partielles Matching, werden in den leistungsstärksten verlustfreien Kompressoren verwendet, die in jüngster Zeit entwickelt wurden. Die indirekte statistische Modellierung ist eine weitere Möglichkeit, über die Burrows-Wheeler-Transformation nachzudenken, die Sie ebenfalls in Betracht ziehen können.

    Etwa zeitgleich mit der zunehmenden Verbreitung von Digitalfotos in den späten 1980er Jahren wurden die ersten Standards für die verlustfreie Bildkomprimierung entwickelt. Zu

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1