Modell einer Lochkamera: Perspektive durch Computeroptik verstehen
Von Fouad Sabry
()
Über dieses E-Book
Was ist ein Lochkameramodell
Das Lochkameramodell ist eine mathematische Darstellung der Beziehung zwischen den Koordinaten eines Punktes im dreidimensionalen Raum und seiner Projektion auf das Bild Ebene einer idealen Lochkamera. Bei diesem Modell wird die Kameraöffnung als Punkt dargestellt und es werden keine Linsen zur Lichtbündelung eingesetzt. Zur Veranschaulichung: Das Modell berücksichtigt keine geometrischen Verzerrungen oder die Unschärfe unscharfer Objekte, die durch Linsen und Blenden endlicher Größe verursacht werden können. Auch die Tatsache, dass die meisten praktischen Kameras nur über diskrete Bildkoordinaten verfügen, wird nicht berücksichtigt. Aus diesem Grund kann das Lochkameramodell nur als Näherung erster Ordnung für die Abbildung einer dreidimensionalen Szene auf eine zweidimensionale grafische Darstellung verwendet werden. Ihre Gültigkeit hängt von der Qualität der Kamera ab und im Allgemeinen nimmt sie von der Bildmitte zu den Rändern hin ab, da die Auswirkungen der Objektivverzerrung zunehmen.
Ihr Nutzen
Ihre Vorteile
(I) Erkenntnisse und Validierungen zu den folgenden Themen:
Kapitel 1: Lochkameramodell
Kapitel 2: Kartesisches Koordinatensystem
Kapitel 3: Sphärisches Koordinatensystem
Kapitel 4: Isometrische Projektion
Kapitel 5: Matrixdarstellung von Kegelschnitten
Kapitel 6: Fourier-Optik
Kapitel 7: 3D-Projektion
Kapitel 8: Transformationsmatrix
Kapitel 9: Grafikpipeline
Kapitel 10: Dreidimensionaler Raum
(II) Beantwortung der häufigsten öffentlichen Fragen zum Lochkameramodell.
(III) Beispiele aus der Praxis für die Verwendung des Lochkameramodells in vielen Bereichen.
Für wen sich dieses Buch eignet
Profis, Studenten und Doktoranden, Enthusiasten, Bastler und diejenigen, die über das Grundwissen oder die Informationen zu Lochkameramodellen jeglicher Art hinausgehen möchten.
Mehr von Fouad Sabry lesen
Neue Technologien Im Militär [German]
Ähnlich wie Modell einer Lochkamera
Titel in dieser Serie (100)
Histogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarberscheinungsmodell: Wahrnehmung und Darstellung in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenUnterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenFarbraum: Erkundung des Spektrums von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPartikelfilter: Erforschung von Partikelfiltern in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenGemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenInpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenOrientiertes Gradienten-Histogramm: Enthüllung des visuellen Bereichs: Erkundung des Histogramms mit orientierten Farbverläufen in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenBlob-Erkennung: Aufdecken von Mustern in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenFarbzuordnung: Erforschung der visuellen Wahrnehmung und Analyse in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbanpassungsfunktion: Spektrale Empfindlichkeit in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenFarbmanagementsystem: Optimierung der visuellen Wahrnehmung in digitalen Umgebungen Bewertung: 0 von 5 Sternen0 BewertungenKantenerkennung: Grenzen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenAktive Kontur: Weiterentwicklung der Computer Vision mit aktiven Konturtechniken Bewertung: 0 von 5 Sternen0 BewertungenBildkompression: Effiziente Techniken zur visuellen Datenoptimierung Bewertung: 0 von 5 Sternen0 BewertungenFarbmodell: Das Spektrum des Computer Vision verstehen: Farbmodelle erkunden Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Computer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenBewegungsfeld: Erkundung der Dynamik von Computer Vision: Bewegungsfeld enthüllt Bewertung: 0 von 5 Sternen0 BewertungenBeschreibende Geometrie: Den visuellen Bereich erschließen: Erkundung der beschreibenden Geometrie im Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBresenham-Linien-Algorithmus: Effiziente pixelgenaue Linienwiedergabe für Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRaytracing-Grafiken: Erforschung des fotorealistischen Renderings in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPolygon-Computergrafik: Erkundung der Schnittstelle zwischen Polygon-Computergrafik und Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKantenerkennung: Grenzen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenVertex-Computergrafik: Erkundung der Schnittstelle zwischen Vertex Computer Graphics und Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKrummlinige Perspektive: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPartitionierung des binären Raums: Erkundung der binären Raumpartitionierung: Grundlagen und Anwendungen in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenIsometrische Projektion: Erforschung der räumlichen Wahrnehmung in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenZweidimensionale Computergrafik: Erkundung des visuellen Bereichs: Zweidimensionale Computergrafiken in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMinimaler Begrenzungsrahmen: Enthüllung der Leistungsfähigkeit der räumlichen Optimierung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenOrthographische Projektion: Erforschung der orthographischen Projektion in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer-Vision-Grafikschnitte: Erforschung von Graphschnitten in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDirekte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenTrifokaler Tensor: Erforschung von Tiefe, Bewegung und Struktur in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenFluchtpunkt: Erkundung der Grenzen des Sehens: Erkenntnisse aus der Informatik Bewertung: 0 von 5 Sternen0 BewertungenStrichzeichnungsalgorithmus: Beherrschen von Techniken zur präzisen Bildwiedergabe Bewertung: 0 von 5 Sternen0 BewertungenBewegungsschätzung: Fortschritte und Anwendungen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenCanny Edge Detector: Enthüllung der Kunst der visuellen Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenBildbasierte Modellierung und Rendering: Erforschung des visuellen Realismus: Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildsegmentierung: Erkenntnisse durch Pixelpräzision erschließen Bewertung: 0 von 5 Sternen0 BewertungenBump-Mapping: Bump Mapping: Erforschung der Tiefe der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGouraud-Schattierung: Gouraud-Shading: Erhellende Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPhong-Reflexionsmodell: Lichtinteraktionen in der Bildverarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
Die Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Wissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenRoboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenPsychologie des Sozialismus Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Modell einer Lochkamera
0 Bewertungen0 Rezensionen
Buchvorschau
Modell einer Lochkamera - Fouad Sabry
Kapitel 1: Modell der Lochkamera
Wenn keine Linsen an der Fokussierung des Lichts beteiligt sind, beschreibt das Lochkameramodell die mathematische Beziehung zwischen der Position eines Punktes im dreidimensionalen Raum und seiner Projektion auf die Bildebene. Geometrische Verzerrungen und unscharfe Unschärfen aufgrund von Objektiven und festen Blendengrößen werden im Modell nicht berücksichtigt. Darüber hinaus ignoriert es die Tatsache, dass die meisten realen Kameras nur diskrete Bildkoordinaten verwenden. Das bedeutet, dass das Mapping von einer 3D-Szene zu einem 2D-Bild, das vom Lochkameramodell erzeugt wird, bestenfalls eine Schätzung ist. Die Zuverlässigkeit des Bildes verringert sich von der Bildmitte bis zu den Rändern aufgrund von Objektivverzerrungseffekten und variiert je nach Qualität der Kamera.
Wenn eine qualitativ hochwertige Kamera verwendet wird, können einige der Auswirkungen, die das Lochkameramodell ignoriert, berücksichtigt werden, z. B. durch das Ausführen geeigneter Koordinatentransformationen für die Bildkoordinaten. In Bereichen wie Computer Vision und Computergrafik, in denen genaue Beschreibungen der Darstellung einer 3D-Szene durch eine Kamera erforderlich sind, reicht daher oft das Modell der Lochkamera aus.
Die Abbildung zeigt, wie die Mapping-Geometrie einer Lochkamera funktioniert. Im Folgenden sind die Bausteine der Abbildung aufgeführt:
Ein O-zentrisches, dreidimensionales, orthogonales Koordinatensystem. Auch hier ist die Blende der Kamera zu finden. X1, X2 und X3 sind die Namen der drei Koordinatenachsen. Die optische Achse, die Hauptachse oder der Hauptstrahl zeigt in Richtung des Sichtfeldes der Kamera. Die primäre Ebene oder Vorderseite der Kamera ist der Raum, der durch die Achsen X1 und X2 definiert wird.
Bildebene, bei der die Welt in drei Dimensionen durch das Objektiv einer Kamera projiziert wird.
Die Bildebene verläuft parallel zu den Achsen X1 und X2 und befindet sich in einem Abstand f vom Ursprung O in negativer Richtung der X3-Achse, wobei f die Brennweite der Lochkamera ist.
Damit eine Lochkamera in der Praxis funktioniert, muss die Bildebene so positioniert werden, dass sie die X3-Achse bei -f kreuzt, wobei f größer als Null ist.
Die Bildebene und die optische Achse treffen sich an einer mit R bezeichneten Position. Das ist der Brennpunkt oder das Herz des Bildes.
Ein Punkt P irgendwo auf der Welt an der Koordinate (x_1, x_2, x_3) relativ zu den Achsen X1, X2 und X3.
Die Linie, mit der sich der Punkt P auf die Filmebene projiziert. Verbindungspunkte P und O, diese grüne Linie stellt diese Verbindung dar.
Dies ist die Bildebene, auf die der Punkt P projiziert wird, der mit Q bezeichnet wird.
An dieser Position schneiden sich die Bildebene und die grüne Projektionslinie.
In jeder praktischen Situation können wir davon ausgehen, dass x_{3} > 0 ist, was bedeutet, dass der Schnittpunkt gut definiert ist.
Zusätzlich zur 3D-Welt verfügt die Bildebene über einen eigenen Koordinatensatz, wobei der Mittelpunkt bei R und die Achsen senkrecht zueinander stehen (X1 bzw. X2).
Die Koordinaten des Punktes Q relativ zu diesem Koordinatensystem sind (y_1, y_2) .
Alle Projektionslinien sollen über einen winzig kleinen Punkt an der Lochblende der Kamera verlaufen. Der Begriff optisches Zentrum
wird verwendet, um diesen Ort dreidimensional zu beschreiben.
Als nächstes wollen wir verstehen, wie die Koordinaten (y_1, y_2) des Punktes Q von den Koordinaten (x_1, x_2, x_3) des Punktes P abhängen.
Die nächste Abbildung hilft bei diesem Prozess, indem sie die identische Szene wie die vorherige zeigt, nur diesmal von oben gesehen, mit den Augen nach unten, entlang der negativen Richtung der X-Achse.
Die Abbildung zeigt ein Paar kongruenter Dreiecke, deren Hypotenus beide Segmente der grünen Projektionslinie sind.
Die Katheten des linken Dreiecks sind -y_1 und f und die Katheten des rechtwinkligen Dreiecks sind x_{1} und x_3 .
Die Ähnlichkeiten zwischen den beiden Dreiecken deuten darauf hin, dass
\frac{-y_1}{f} = \frac{x_1}{x_3} oder y_1 = -\frac{f \, x_1}{x_3}
Die Ergebnisse einer ähnlichen Untersuchung sind, wenn man sie gegen den Uhrzeigersinn um die X1-Achse betrachtet,
\frac{-y_2}{f} = \frac{x_2}{x_3} oder y_2 = -\frac{f \, x_2}{x_3}
Kurz zusammengefasst bedeutet das:
\begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = -\frac{f}{x_3} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix}Dies ist ein Ausdruck, der die Beziehung zwischen den 3D-Koordinaten (x_1,x_2,x_3) des Punktes P und seinen Bildkoordinaten beschreibt, die (y_1,y_2) durch den Punkt Q in der Bildebene gegeben sind.
Die von einer Lochkamera beschriebene Abbildung von 3D- auf 2D-Koordinaten ist eine perspektivische Projektion, gefolgt von einer 180°-Drehung in der Bildebene.
Dies entspricht der Funktionsweise einer herkömmlichen Lochkamera: Das resultierende Bild wird um 180° gedreht und die relative Größe der projizierten Objekte hängt von ihrem Abstand zum Brennpunkt ab, und die Gesamtgröße des Bildes hängt vom Abstand f zwischen der Bildebene und dem Brennpunkt ab.
Um ein Bild zu erhalten, das nicht gedreht wurde, was von einem fotografischen Gerät zu erwarten ist, kann es in beide Richtungen gehen:
Drehen Sie das Koordinatensystem in der Bildebene um 180° (in beide Richtungen).
Dies ist die Lösung, die jede funktionale Lochkamera verwenden würde. Beim Betrachten eines Fotos, das mit einer Kamera aufgenommen wurde, wird das Bild gedreht, bevor es angezeigt wird. Bei einer Digitalkamera wird das Bild aufgrund der Reihenfolge, in der die Pixel ausgelesen werden, gedreht.
Die Bildebene muss so verschoben werden, dass sie die X3-Achse bei f und nicht bei -f trifft, und alle vorherigen Berechnungen müssen wiederholt werden. Da dies faktisch nicht möglich ist, wird eine theoretische Kamera erstellt, die möglicherweise einfacher zu analysieren ist als die tatsächliche Kamera.
Ohne die Negation gibt der vorherige Ausdruck in beiden Fällen die Zuordnung von 3D- zu 2D-Bildkoordinaten an.
\begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = \frac{f}{x_3} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix}Homogene Koordinaten sind eine weitere Möglichkeit, die Zuordnung von 3D-Punktpositionen im Raum zu 2D-Bildpositionen zu beschreiben.
Sei \mathbf {x} eine Darstellung eines 3D-Punktes in homogenen Koordinaten (ein 4-dimensionaler Vektor), und sei \mathbf{y} eine Darstellung des Bildes dieses Punktes in der Lochkamera (ein 3-dimensionaler Vektor).
Dann ist die nachfolgende Beziehung wahr.
\mathbf{y} \sim \mathbf{C} \, \mathbf{x}wobei \mathbf{C} die 3\times 4 Kameramatrix und die \, \sim Mittelgleichheit zwischen Elementen projektiver Räume ist.
Das bedeutet, dass jede skalare Multiplikation ungleich Null zwischen der linken und rechten Seite ebenfalls gleich ist.
Eine Konsequenz dieser Beziehung ist, dass sie auch \mathbf{C} als Element eines projektiven Raums gesehen werden kann; Wenn eine skalare Multiplikation zweier Kameramatrizen das gleiche Ergebnis ergibt, dann sind die Matrizen vergleichbar.
Das hier beschriebene Pinhole-Kamera-Mapping als lineare Transformation \mathbf{C} statt als Bruchteil zweier linearer Ausdrücke ermöglicht es, mehrere Beziehungen zwischen 3D- und 2D-Koordinaten mit weniger Berechnungsschritten abzuleiten.
{Ende Kapitel 1}
Kapitel 2: Kartesisches Koordinatensystem
In der Geometrie ist ein kartesisches Koordinatensystem (UK: /kɑːˈtiːzjən/, US: /kɑːrˈtiʒən/) in einer Ebene ein Koordinatensystem, das jeden Punkt eindeutig durch ein Paar reeller Zahlen spezifiziert, die als Koordinaten bezeichnet werden, wo sich zwei senkrechte Linien an einem festen Punkt treffen, was sind die vorzeichenbehafteten Abstände zwischen ihnen?, Koordinatenlinien, kurz Koordinatenachsen des Systems, oder Achsen (Plural von Achse).
Der Schnittpunkt, auch Ursprung genannt, wird mit einer Null, 0) als Koordinaten markiert.
Kartesische Koordinaten, die vorzeichenbehafteten Abstände von einem Punkt zu drei senkrechten Ebenen, können verwendet werden, um die Position eines Punktes im dreidimensionalen Raum zu beschreiben. Im Allgemeinen kann für jede Dimension n ein Punkt in einem n-dimensionalen euklidischen Raum mit n kartesischen Koordinaten beschrieben werden. Dies sind die Koordinaten eines Punktes, ausgedrückt als vorzeichenbehaftete Abstände zu n festen, senkrechten Hyperebenen.
Kartesische Koordinaten sind nach René Descartes benannt, dem Mathematiker, dessen Entwicklung im 17. Jahrhundert die erste systematische Verbindung zwischen Geometrie und Algebra herstellte und damit eine mathematische Revolution auslöste.
Unter Anwendung des kartesischen Koordinatensystems können Gleichungen, die die Koordinaten von Punkten auf einer geometrischen Form (z. B. einer Kurve) enthalten, verwendet werden, um die Form im Detail zu beschreiben.
Zum Beispiel kann der Radius 2 Kreis, der sich auf die Genese der Ebene konzentriert, als die Menge aller Punkte beschrieben werden, deren Koordinaten x und y die Gleichung x2 + y2 = 4 erfüllen.
Aufgrund ihrer zentralen Rolle in der analytischen Geometrie geben kartesische Koordinaten auch Aufschluss über andere Studienbereiche der Mathematik, darunter lineare Algebra, komplexe Analysis, Differentialgeometrie, multivariate Analysis, Gruppentheorie und viele mehr. Der Funktionsgraph ist ein bekanntes Beispiel für ein solches Konzept. Die meisten praktischen Bereiche, die sich mit Geometrie befassen, stützen sich stark auf kartesische Koordinaten, darunter Astronomie, Physik, Ingenieurwesen und viele mehr. Sie sind der De-facto-Standard für die Datenverarbeitung in Bereichen wie Computergrafik, CAD und anderen Formen der geometrischen Modellierung.
Der Cartesianer bezieht sich auf den französischen Mathematiker und Philosophen René Descartes, der diese Theorie 1637 veröffentlichte, als er in den Niederlanden lebte.
Pierre de Fermat fand es auf eigene Faust, die auch an mehrdimensionalen Arbeiten beteiligt waren, trotz der Tatsache, dass Fermat seine Entdeckung nicht teilte.
Polarkoordinaten für die Ebene und sphärische und zylindrische Koordinaten für den dreidimensionalen Raum sind nur einige der vielen, die seit Descartes etabliert wurden.
Die Wahl eines Punktes O auf der Linie (des Ursprungs), einer Längeneinheit und einer Ausrichtung für die Linie sind die drei Komponenten eines kartesischen Koordinatensystems für eine gerade Linie in einem zweidimensionalen Raum. Wenn eine Linie von der negativen Hälfte zur positiven Hälfte ausgerichtet
ist (oder zeigt
), bedeutet dies, dass die Orientierung ausgewählt hat, welche der beiden Hälften der Geraden, die durch O gegeben sind, als positiv angesehen werden soll. Dann kann der Abstand von O zu einem bestimmten Punkt P auf der Linie mit einem Pluszeichen (+) oder Minuszeichen (-) angegeben werden, je nachdem, welche Halblinie P enthält.
Ein Zahlenstrahl ist eine Linie, die ein bestimmtes kartesisches Koordinatensystem verwendet. Für jede reelle Zahl gibt es einen bestimmten Platz auf der Linie. Auf der anderen Seite kann man sich jeden Punkt auf der Linie als ein diskretes Element eines kontinuierlichen Zahlensystems vorstellen, wie die reellen Zahlen.
Ein geordnetes Paar rechtwinkliger Linien (Achsen), eine gemeinsame Längeneinheit für beide Achsen und eine Ausrichtung für jede Achse erzeugen ein kartesisches Koordinatensystem in zwei Dimensionen (manchmal auch als rechteckiges Koordinatensystem oder orthogonales Koordinatensystem bezeichnet). Jede Achse wird zu einem Zahlenstrahl, wenn der Schnittpunkt als Startpunkt verwendet wird. Eine Zahl