Least Squares: Optimierungstechniken für Computer Vision: Methoden der kleinsten Quadrate
Von Fouad Sabry
()
Über dieses E-Book
Was sind kleinste Quadrate
Die Methode der kleinsten Quadrate ist eine Methode zur Parameterschätzung in der Regressionsanalyse, die auf der Minimierung der Summe der Quadrate der Residuen in den Ergebnissen von basiert jede einzelne Gleichung.
Wie Sie profitieren
(I) Einblicke und Validierungen zu den folgenden Themen:
Kapitel 1 : Kleinste Quadrate
Kapitel 2: Gauß?Markov-Theorem
Kapitel 3: Regressionsanalyse
Kapitel 4: Ridge-Regression
Kapitel 5 : Gesamtzahl der kleinsten Quadrate
Kapitel 6: Gewöhnliche kleinste Quadrate
Kapitel 7: Gewichtete kleinste Quadrate
Kapitel 8: Einfache lineare Regression
Kapitel 9: Verallgemeinerte kleinste Quadrate
Kapitel 10: Lineare kleinste Quadrate
(II) Beantwortung der häufigsten öffentlichen Fragen zu kleinsten Quadraten.
(III) Reale Welt Beispiele für die Verwendung der Methode der kleinsten Quadrate in vielen Bereichen.
Für wen dieses Buch gedacht ist
Profis, Studenten und Doktoranden, Enthusiasten, Bastler und andere die über das Grundwissen oder die Informationen für jede Art von kleinsten Quadraten hinausgehen möchten.
Ähnlich wie Least Squares
Titel in dieser Serie (100)
Unterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenInpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenFarbzuordnung: Erforschung der visuellen Wahrnehmung und Analyse in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbmanagementsystem: Optimierung der visuellen Wahrnehmung in digitalen Umgebungen Bewertung: 0 von 5 Sternen0 BewertungenFarbraum: Erkundung des Spektrums von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKantenerkennung: Grenzen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenBildkompression: Effiziente Techniken zur visuellen Datenoptimierung Bewertung: 0 von 5 Sternen0 BewertungenFarbmodell: Das Spektrum des Computer Vision verstehen: Farbmodelle erkunden Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenGemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenDirekte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenFarbprofil: Erforschung der visuellen Wahrnehmung und Analyse in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAktive Kontur: Weiterentwicklung der Computer Vision mit aktiven Konturtechniken Bewertung: 0 von 5 Sternen0 BewertungenVisuelle Wahrnehmung: Einblicke in die computergestützte visuelle Verarbeitung Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenAdaptiver Filter: Verbesserung der Computer Vision durch adaptive Filterung Bewertung: 0 von 5 Sternen0 BewertungenHarris Eckendetektor: Enthüllung der Magie der Bildmerkmalserkennung Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Zweidimensionales geometrisches Modell: Verständnis und Anwendungen in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenComputer-Vision-Grafikschnitte: Erforschung von Graphschnitten in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenUmfragen erstellen und auswerten: kompakt und leicht verständlich für Studierende und junge Forschende Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDirekte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMathematik-Abitur Band 1: Analysis - Infinitesimalrechnung Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenLevel-Set-Methode: Weiterentwicklung der Computer Vision, Erforschung der Level-Set-Methode Bewertung: 0 von 5 Sternen0 BewertungenHarris Eckendetektor: Enthüllung der Magie der Bildmerkmalserkennung Bewertung: 0 von 5 Sternen0 BewertungenApproximation der Lösungen von Differentialgleichungen mit Wavelets und Einstellung der Parameter Bewertung: 0 von 5 Sternen0 BewertungenModulare Arithmetik: Von den ganzen Zahlen zur Kryptographie Bewertung: 0 von 5 Sternen0 BewertungenSkalieren Sie den Raum: Erforschung von Dimensionen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenEntwurf der Methode: Mit der Dioptrik, den Meteoren und der Geometrie Bewertung: 0 von 5 Sternen0 BewertungenLineare Gleichungssysteme: Klartext für Nichtmathematiker Bewertung: 0 von 5 Sternen0 BewertungenComputergeometrie: Erforschung geometrischer Erkenntnisse für Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMinimaler Begrenzungsrahmen: Enthüllung der Leistungsfähigkeit der räumlichen Optimierung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenEntfernung verdeckter Linien: Das Unsichtbare enthüllen: Geheimnisse des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKontextuelle Bildklassifizierung: Visuelle Daten für eine effektive Klassifizierung verstehen Bewertung: 0 von 5 Sternen0 BewertungenBerechenbarkeit: Berechnungsmodelle und Unentscheidbarkeit Bewertung: 0 von 5 Sternen0 BewertungenGeschwindigkeitsmomente: Die Dynamik erfassen: Einblicke in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRegressionsanalyse: Beherrschen Sie die Kunst der Regressionsanalyse: Vorhersagen, Analysieren, Entscheiden Bewertung: 0 von 5 Sternen0 BewertungenÖkonometrie: Ökonometrie entfesselt, datengesteuerte Ökonomie meistern Bewertung: 0 von 5 Sternen0 BewertungenDimensionstheorie Bewertung: 0 von 5 Sternen0 BewertungenClusterbasierte Datenanalyse auf Grundlage genetischer Algorithmen in SAP-BI: Ein Verfahren zur selbständigen Ermittlung der optimalen Anzahl Cluster Bewertung: 0 von 5 Sternen0 BewertungenKurzer Versuch über das Chaos: Dinge und Begriffe Bewertung: 0 von 5 Sternen0 BewertungenAktives Erscheinungsmodell: Erschließung der Leistungsfähigkeit aktiver Darstellungsmodelle in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMathematische Ökonomie: Beherrschung der mathematischen Ökonomie, Navigation durch die Komplexität wirtschaftlicher Phänomene Bewertung: 0 von 5 Sternen0 BewertungenDas Äquivalenzprinzip: Grundlagen, Tests und neueste Messungen Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
ChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenDie Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5ChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenPsychologie des Sozialismus Bewertung: 0 von 5 Sternen0 BewertungenWissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenRoboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Least Squares
0 Bewertungen0 Rezensionen
Buchvorschau
Least Squares - Fouad Sabry
Kapitel 1: Kleinste Quadrate
Die Methode der kleinsten Quadrate ist ein Standardansatz in der Regressionsanalyse, der verwendet wird, um die Lösung von überbestimmten Systemen (Gleichungssätzen, in denen es mehr Gleichungen als Unbekannte gibt) zu approximieren. Dies wird erreicht, indem die Summe der Quadrate der Residuen, die in den Ergebnissen jeder einzelnen Gleichung gebildet werden, minimiert wird. Ein Residuum ist die Differenz zwischen einem beobachteten Wert und dem angepassten Wert, der von einem Modell bereitgestellt wird.
Die bedeutendste Anwendung findet sich im Bereich der Datenanpassung. Wenn das Problem erhebliche Unsicherheiten in der unabhängigen Variablen (der x-Variablen) aufweist, haben einfache Regressions- und Kleinste-Quadrate-Methoden Probleme; In solchen Fällen kann die für die Anpassung von Fehler-in-Variablen-Modellen erforderliche Methodik anstelle der Methode für kleinste Quadrate in Betracht gezogen werden. Wenn das Problem erhebliche Unsicherheiten in der unabhängigen Variablen (der x-Variablen) aufweist, haben einfache Regressions- und Kleinste-Quadrate-Methoden Probleme.
Es gibt zwei Arten von Problemen, die unter die Überschrift der kleinsten Quadrate fallen: lineare oder gewöhnliche kleinste Quadrate und nichtlineare kleinste Quadrate. Die Unterscheidung zwischen den beiden Typen basiert darauf, ob die Residuen in allen Unbekannten linear sind oder nicht. In der statistischen Regressionsanalyse wird eines der zu lösenden Probleme als lineares Problem der kleinsten Quadrate bezeichnet und hat eine geschlossene Lösung. Die iterative Verfeinerungsmethode wird häufig verwendet, um das nichtlineare Problem zu lösen. Bei jeder Iteration wird das System annähernd nach einem linearen Modell modelliert, so dass die grundlegende Berechnung für beide Szenarien gleich ist.
Die Varianz in einer Vorhersage der abhängigen Variablen als Funktion der unabhängigen Variablen und die Abweichungen von der angepassten Kurve werden beide durch polynomiale kleinste Quadrate beschrieben.
Wenn die Beobachtungen aus einer Exponentialfamilie stammen, deren Identität als natürliche ausreichende Statistik und milde Bedingungen erfüllt sind (z. B. für Normal-, Exponential-, Poisson- und Binomialverteilungen), sind standardisierte Schätzungen der kleinsten Quadrate und Maximum-Likelihood-Schätzungen gleich. Dies ist der Fall für alle exponentiellen Familien mit Identität als ihrer natürlichen ausreichenden Statistik. Die Technik der kleinsten Quadrate kann als eigenständige Methode des Momentenschätzers entwickelt werden.
Die folgende Argumentation ist fast ausschließlich in Bezug auf lineare Funktionen formuliert; Nichtsdestotrotz ist die Verwendung der kleinsten Quadrate nicht nur akzeptabel, sondern auch für generischere Funktionsfamilien machbar. Der Ansatz der kleinsten Quadrate kann auch verwendet werden, um ein erweitertes lineares Modell anzupassen, indem die lokale quadratische Approximation iterativ auf die Wahrscheinlichkeit angewendet wird (unter Verwendung der Fisher-Information). Dies ist möglich, wenn Sie die Fisher-Informationen verwenden.
Adrien-Marie Legendre gilt als derjenige, der als erster die Technik der kleinsten Quadrate entwickelte und veröffentlichte (1805). Während des Zeitalters der Entdeckungen bemühten sich Wissenschaftler und Mathematiker, Antworten auf die Probleme der Durchquerung der Gewässer der Erde mit dem Konzept der kleinsten Quadrate zu geben. Dieser Ansatz entstand aus den Wissenschaften der Astronomie und Geodäsie als Ergebnis ihrer Bemühungen. Die genaue Beschreibung des Verhaltens von Himmelskörpern war der Schlüssel dazu, dass Schiffe auf weiten Meeren fahren konnten, wo Seeleute für die Navigation nicht mehr auf Landsichtungen angewiesen waren. Dies war der Fall, da keine Küstensichtungen mehr verfügbar waren.
Dieser Ansatz stellte den Höhepunkt einer Reihe von Entwicklungen dar, die im Laufe des 18. Jahrhunderts stattgefunden hatten:
Aggregation ist der Prozess der Kombination mehrerer Beobachtungen, um zu einer möglichst genauen Schätzung des tatsächlichen Wertes zu gelangen. Fehler neigen dazu, sich als Ergebnis dieses Prozesses eher zu verringern als zu wachsen, der vielleicht ursprünglich von Roger Cotes im Jahr 1722 artikuliert wurde.
Der Prozess, viele Beobachtungen zu kombinieren, die unter den gleichen Umständen gemacht wurden, anstatt sich nur zu bemühen, eine einzelne Beobachtung so genau wie möglich zu beobachten und aufzuzeichnen. Die Strategie wurde oft als Durchschnittstechnik bezeichnet. Tobias Mayer, der 1750 die Librationen des Mondes untersuchte, und Pierre-Simon Laplace, der 1788 an der Erklärung der Bewegungsschwankungen von Jupiter und Saturn arbeitete, waren zwei bemerkenswerte Persönlichkeiten, die diese Technik in ihrer jeweiligen Forschung einsetzten.
Die Kombination einer Reihe von getrennten Beobachtungen, die unter verschiedenen Umständen gemacht wurden. Der Name Methode der geringsten absoluten Abweichung
wurde der Technik im Laufe der Zeit gegeben. 1757 verwendete es Roger Joseph Boscovich in seinem Werk über die Form der Erde, und Pierre-Simon Laplace verwendete es 1799 für dieselbe Ausgabe. Beide Männer sind für ihre Beiträge auf diesem Gebiet bekannt.
Die Konstruktion eines Kriteriums, das untersucht werden kann, um festzustellen, ob die Lösung mit der geringsten Fehlermenge erhalten wurde, wird als Kriterienentwicklung bezeichnet. Laplace versuchte, einen Ansatz zur Schätzung vorzuschlagen, der zu den geringsten Schätzfehlern führen und eine mathematische Form der Wahrscheinlichkeitsdichte für die Fehler bereitstellen würde. Laplace modellierte die Fehlerverteilung unter Verwendung einer symmetrischen zweiseitigen Exponentialverteilung, die wir jetzt als Laplace-Verteilung bezeichnen. Er verwendete die Summe der absoluten Abweichung als Schätzfehler. Er glaubte, dass dies die einfachsten Annahmen waren, die er machen konnte, und er hatte sich gewünscht, das arithmetische Mittel als die genaueste Schätzung zu erhalten, die er erreichen konnte. Stattdessen verließ er sich auf den hinteren Median als Schätzung.
Im Jahr 1805 lieferte der französische Mathematiker Legendre die erste umfassende und klare Erklärung der Technik der kleinsten Quadrate. Dies führte natürlich zu einer Meinungsverschiedenheit über den Vorrang mit Legendre. Es ist jedoch Gauß' Verdienst, dass er über die Arbeit von Legendre hinausging und die Technik der kleinsten Quadrate erfolgreich mit den Gesetzen der Wahrscheinlichkeit und der Normalverteilung kombinieren konnte. Das ist eine Leistung, die es wert ist, gelobt zu werden. Er hatte erfolgreich Laplaces Programm abgeschlossen, das von ihm verlangte, eine mathematische Form der Wahrscheinlichkeitsdichte für die Beobachtungen in Abhängigkeit von einer endlichen Anzahl unbekannter Parameter anzugeben und eine Schätzmethode zu definieren, die den Schätzfehler minimiert. Außerdem hatte er eine mathematische Form der Wahrscheinlichkeitsdichte für die Beobachtungen in Abhängigkeit von einer endlichen Anzahl unbekannter Parameter festgelegt. Gauß zeigte, dass das arithmetische Mittel tatsächlich die beste Schätzung des Ortsparameters ist, indem er sowohl die Wahrscheinlichkeitsdichte als auch die Schätztechnik modifizierte. Er tat dies, um zu beweisen, dass das arithmetische Mittel die beste Schätzung ist. Dann lenkte er das Thema in eine neue Richtung, indem er hinterfragte, welche Form die Dichte annehmen sollte und welche Schätztechnik verwendet werden sollte, um das arithmetische Mittel als Schätzung des Standortparameters zu erhalten. Damit schloss sich der Kreis. Als Ergebnis dieses Unterfangens kam er auf die Normalverteilung.
Die Leistungsfähigkeit von Gauß' Ansatz wurde erstmals gezeigt, als er eingesetzt wurde, um zu bestimmen, wo der kürzlich entdeckte Asteroid Ceres in Zukunft landen würde. Dies war eines der ersten Beispiele für die Nützlichkeit der Methode. Giuseppe Piazzi, ein italienischer Astronom, machte die Entdeckung von Ceres am 1. Januar 1801. Er konnte seine Bewegung vierzig Tage lang beobachten, bis er vom Glanz der Sonne verdeckt wurde. Die Astronomen wollten die Position von Ceres identifizieren, sobald sie hinter der Sonne auftauchte, aber sie wollten dafür nicht Keplers schwierige nichtlineare Gleichungen der Planetenbewegung lösen. Mit Hilfe der Analyse der kleinsten Quadrate waren die einzigen Vorhersagen, die für den ungarischen Astronomen Franz Xaver von Zach genau genug waren, um Ceres erfolgreich zu verlegen, die des 24-jährigen Gauß.
1810, nachdem er Gauß' Arbeit gelesen hatte, bewies Laplace den zentralen Grenzwertsatz und verwendete ihn dann, um eine große Stichprobenbegründung für die Technik der kleinsten Quadrate und die Normalverteilung zu erstellen. Dies geschah, nachdem Gauß' Werk ins Französische übersetzt worden war. Im Jahr 1822 konnte Gauß zeigen, dass die Methode der kleinsten Quadrate zur Durchführung von Regressionsanalysen die effektivste verfügbare Methode ist. Dies wurde erreicht, indem gezeigt wurde, dass in einem linearen Modell, in dem die Fehler einen Mittelwert von Null haben, unkorreliert sind und gleiche Varianzen aufweisen, der Schätzer der kleinsten Quadrate der beste lineare unverzerrte Schätzer der Koeffizienten ist. Der Name dieser Entdeckung ist das Gauß-Markov-Theorem.
Das Konzept der Analyse der kleinsten Quadrate wurde auch von dem Amerikaner Robert Adrain im Jahr 1808 separat konzipiert. In den folgenden zwei Jahrhunderten entwickelten Forscher, die in der