Bewegungsfeld: Erkundung der Dynamik von Computer Vision: Bewegungsfeld enthüllt
Von Fouad Sabry
()
Über dieses E-Book
Was ist ein Bewegungsfeld
In der Computer Vision ist das Bewegungsfeld eine ideale Darstellung der Bewegung im dreidimensionalen Raum (3D), wie sie auf ein Kamerabild projiziert wird . Bei einem vereinfachten Kameramodell ist jeder Punkt Im Bild handelt es sich um die Projektion eines Punkts in der 3D-Szene, aber die Position der Projektion eines festen Punkts im Raum kann sich mit der Zeit ändern. Das Bewegungsfeld kann formal als die zeitliche Ableitung der Bildposition aller Bildpunkte definiert werden, sofern diese festen 3D-Punkten entsprechen. Das bedeutet, dass das Bewegungsfeld als Funktion dargestellt werden kann, die Bildkoordinaten auf einen zweidimensionalen Vektor abbildet. Das Bewegungsfeld ist eine ideale Beschreibung der projizierten 3D-Bewegung in dem Sinne, dass es formal definiert werden kann, in der Praxis ist es jedoch normalerweise nur möglich, eine Näherung des Bewegungsfelds aus den Bilddaten zu bestimmen.
Wie Sie profitieren
(I) Einblicke und Validierungen zu den folgenden Themen:
Kapitel 1: Bewegungsfeld
Kapitel 2 : Kettenregel
Kapitel 3: Curl (Mathematik)
Kapitel 4: Polarkoordinatensystem
Kapitel 5: Satz von Green
Kapitel 6: Linienelement
Kapitel 7: Kameramatrix
Kapitel 8: Lochkameramodell
Kapitel 9: Ableitung der Navier-Stokes-Gleichungen
Kapitel 10: Relativistische Lagrange-Mechanik
(II) Beantwortung der häufigsten öffentlichen Fragen zum Bewegungsfeld.
(III) Beispiele aus der Praxis für die Verwendung des Bewegungsfelds in vielen Bereichen .
Für wen sich dieses Buch eignet
Profis, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über grundlegendes Wissen oder Informationen hinausgehen möchten jede Art von Bewegungsfeld.
Mehr von Fouad Sabry lesen
Neue Technologien In Der Energie [German]
Ähnlich wie Bewegungsfeld
Titel in dieser Serie (100)
Bildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenUnterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenFarbraum: Erkundung des Spektrums von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenInpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAktive Kontur: Weiterentwicklung der Computer Vision mit aktiven Konturtechniken Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKonturerkennung: Enthüllung der Kunst der visuellen Wahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenVisuelle Wahrnehmung: Einblicke in die computergestützte visuelle Verarbeitung Bewertung: 0 von 5 Sternen0 BewertungenAdaptiver Filter: Verbesserung der Computer Vision durch adaptive Filterung Bewertung: 0 von 5 Sternen0 BewertungenGemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenCanny Edge Detector: Enthüllung der Kunst der visuellen Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFilterbank: Einblicke in die Filterbanktechniken von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarberscheinungsmodell: Wahrnehmung und Darstellung in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbanpassungsfunktion: Spektrale Empfindlichkeit in Computer Vision verstehen Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbmodell: Das Spektrum des Computer Vision verstehen: Farbmodelle erkunden Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGeometrisches Hashing: Effiziente Algorithmen zur Bilderkennung und -anpassung Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Phong-Reflexionsmodell: Lichtinteraktionen in der Bildverarbeitung verstehen Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBewegungsschätzung: Fortschritte und Anwendungen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGeschwindigkeitsmomente: Die Dynamik erfassen: Einblicke in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenModell einer Lochkamera: Perspektive durch Computeroptik verstehen Bewertung: 0 von 5 Sternen0 BewertungenOptischer Fluss: Erforschung dynamischer visueller Muster in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKreuzkorrelation: Muster in der Computer Vision entschlüsseln Bewertung: 0 von 5 Sternen0 BewertungenZweidimensionale Computergrafik: Erkundung des visuellen Bereichs: Zweidimensionale Computergrafiken in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKantenerkennung: Grenzen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenBlob-Erkennung: Aufdecken von Mustern in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenRadiosity Computergrafik: Fortschrittliche Visualisierung durch Radiosität in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenLevel-Set-Methode: Weiterentwicklung der Computer Vision, Erforschung der Level-Set-Methode Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenSkalieren Sie den Raum: Erforschung von Dimensionen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildbasierte Modellierung und Rendering: Erforschung des visuellen Realismus: Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRaytracing-Grafiken: Erforschung des fotorealistischen Renderings in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenKrummlinige Perspektive: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenDirekte lineare Transformation: Praktische Anwendungen und Techniken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenEpipolare Geometrie: Erschließung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGouraud-Schattierung: Gouraud-Shading: Erhellende Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenSchätzung der artikulierten Körperhaltung: Erschließung menschlicher Bewegung in Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMinimaler Begrenzungsrahmen: Enthüllung der Leistungsfähigkeit der räumlichen Optimierung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHarris Eckendetektor: Enthüllung der Magie der Bildmerkmalserkennung Bewertung: 0 von 5 Sternen0 BewertungenDreidimensionale Multi-View-Rekonstruktion: Fortgeschrittene Techniken zur räumlichen Wahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenPhong Schattierung: Erkundung der Tiefe des visuellen Renderings: Phong-Schattierung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
Chatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenPsychologie des Sozialismus Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Roboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenDie Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenWissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Bewegungsfeld
0 Bewertungen0 Rezensionen
Buchvorschau
Bewegungsfeld - Fouad Sabry
Kapitel 1: Bewegungsfeld
Das Bewegungsfeld ist die perfekte Projektion von 3D-Bewegung auf das Bild einer Kamera und wird häufig in der Computer Vision verwendet.
Unter der Annahme eines minimal komplexen Kameramodells ist jeder Punkt (y_{{1}},y_{{2}}) im Bild die Projektion eines Punktes in der 3D-Szene, aber die Position der Projektion eines festen Punktes im Raum kann mit der Zeit variieren.
Da alle Bildpunkte festen 3D-Koordinaten entsprechen, kann das Bewegungsfeld formal als zeitliche Ableitung der Bildposition aller Bildpunkte definiert werden.
Das Bewegungsfeld kann dann als Funktion ausgedrückt werden, die Bildkoordinaten in einen zweidimensionalen Vektor umwandelt.
Formal ist das Bewegungsfeld die perfekte Beschreibung der projizierten 3D-Bewegung, aber in der Praxis ist es in der Regel nur möglich, das Bewegungsfeld aus den Bilddaten zu schätzen.
Ein Kameramodell bildet jeden Punkt (x_{{1}},x_{{2}},x_{{3}}) im 3D-Raum gemäß einigen Mapping-Funktionen (y_{{1}},y_{{2}}) auf einen 2D-Bildpunkt ab {\displaystyle m_{1},m_{2}} :
{\displaystyle {\begin{pmatrix}y_{1}\\y_{2}\end{pmatrix}}={\begin{pmatrix}m_{1}(x_{1},x_{2},x_{3})\\m_{2}(x_{1},x_{2},x_{3})\end{pmatrix}}}Für eine dynamische Szene, in der sich Objekte zueinander bewegen, in der Objekte verformt werden und in der sich die Kamera selbst in Bezug auf die Szene bewegt, wird ein Fixpunkt im 3D-Raum verschiedenen Stellen im Bild zugeordnet. Das Ergebnis der Zeitdifferenzierung des vorherigen Ausdrucks ist
{\displaystyle {\begin{pmatrix}{\frac {dy_{1}}{dt}}\\[2mm]{\frac {dy_{2}}{dt}}\end{pmatrix}}={\begin{pmatrix}{\frac {dm_{1}(x_{1},x_{2},x_{3})}{dt}}\\[2mm]{\frac {dm_{2}(x_{1},x_{2},x_{3})}{dt}}\end{pmatrix}}={\begin{pmatrix}{\frac {dm_{1}}{dx_{1}}}&{\frac {dm_{1}}{dx_{2}}}&{\frac {dm_{1}}{dx_{3}}}\\[2mm]{\frac {dm_{2}}{dx_{1}}}&{\frac {dm_{2}}{dx_{2}}}&{\frac {dm_{2}}{dx_{3}}}\end{pmatrix}}\,{\begin{pmatrix}{\frac {dx_{1}}{dt}}\\[2mm]{\frac {dx_{2}}{dt}}\\[2mm]{\frac {dx_{3}}{dt}}\end{pmatrix}}}Hier
{\displaystyle \mathbf {u} ={\begin{pmatrix}{\frac {dy_{1}}{dt}}\\[2mm]{\frac {dy_{2}}{dt}}\end{pmatrix}}}ist das Bewegungsfeld und der Vektor u ist sowohl von der Bildposition als (y_{{1}},y_{{2}}) auch von der Zeit t abhängig.
Ähnlich {\displaystyle \mathbf {x'} ={\begin{pmatrix}{\frac {dx_{1}}{dt}}\\[2mm]{\frac {dx_{2}}{dt}}\\[2mm]{\frac {dx_{3}}{dt}}\end{pmatrix}}}
stellt die Bewegung des 3D-Punktes in Bezug auf das Bewegungsfeld dar und
{\displaystyle \mathbf {u} =\mathbf {M} \,\mathbf {x} '}wobei {\mathbf {M}} die von der Bildposition abhängige 2\times 3 Matrix ist
{\displaystyle \mathbf {M} ={\begin{pmatrix}{\frac {dm_{1}}{dx_{1}}}&{\frac {dm_{1}}{dx_{2}}}&{\frac {dm_{1}}{dx_{3}}}\\[2mm]{\frac {dm_{2}}{dx_{1}}}&{\frac {dm_{2}}{dx_{2}}}&{\frac {dm_{2}}{dx_{3}}}\end{pmatrix}}}Entsprechend dieser Verbindung ist das Bewegungsfeld an einer festen Stelle im Bild unveränderlich gegenüber 3D-Bewegungen, die im Nullraum von liegen {\mathbf {M}} .
Beispiel: Alle Bewegungskomponenten im 3D-Raum, die senkrecht zum Brennpunkt der Kamera stehen, werden von einer Lochkamera übersehen.
Das Bewegungsfeld \mathbf {v} ist definiert als:
{\displaystyle \mathbf {v} =f{\frac {Z\mathbf {V} -V_{z}\mathbf {P} }{Z^{2}}}}wo
{\displaystyle \mathbf {V} =-\mathbf {T} -\mathbf {\omega } \times \mathbf {P} } .
wo
\mathbf {P} ist ein Punkt in der Szene, wobei Z die Entfernung zu diesem Szenenpunkt ist.
\mathbf {V} ist die relative Bewegung zwischen der Kamera und der Szene, \mathbf {T} ist die translatorische Komponente der Bewegung und
\mathbf {\omega } ist die Winkelgeschwindigkeit der Bewegung.
Wie oben erläutert, ist das Bewegungsfeld eine theoretische Schöpfung, die auf der Annahme basiert, dass die Bewegungsrichtung für jedes Pixel in einem Bild bestimmt werden kann. In der Realität können Messungen an Bilddaten jedoch nur als Annäherung an das zugrunde liegende Bewegungsfeld dienen. Das Problem ist, dass die Mobilität jedes Bildpunkts in den meisten Fällen einzigartig ist und lokal mit einer Art Nachbarschaftsoperation an den Bilddaten bewertet werden muss. Daher muss für einige Arten von Nachbarschaften anstelle des wahren Bewegungsfeldes eine Näherung verwendet werden, die allgemein als optischer Fluss bezeichnet wird. Eine Nachbarschaft mit konstanter Intensität kann beispielsweise einem Bewegungsfeld entsprechen, das nicht Null ist, aber der optische Fluss in einem solchen Bereich wäre Null, weil keine lokale Bildbewegung messbar wäre. Ebenso kann der optische Fluss nur die normale Komponente eines Bewegungsfeldes aufzeichnen, selbst wenn eine Nachbarschaft, die intrinsisch 1-dimensional ist (z. B. eine Kante oder Linie), einem beliebigen Bewegungsfeld entsprechen kann. Bildrauschen, 3D-Okklusion und zeitliches Aliasing sind Faktoren, die bei jeder optischen Flussmesstechnik natürlich auftreten und zu Diskrepanzen zwischen den gemessenen und tatsächlichen Bewegungsfeldern führen.
Zusammenfassend lässt sich sagen, dass das Bewegungsfeld eine Annäherung an den optischen Fluss ist, da es unmöglich ist, das Bewegungsfeld für alle Bildpositionen genau zu messen. Der optische Fluss kann auf verschiedene Arten berechnet werden, von denen jede einen einzigartigen Satz von Kriterien zur Bestimmung der Genauigkeit einer optischen Schätzung berücksichtigt.
{Ende Kapitel 1}
Kapitel 2: Kettenregel
In der Infinitesimalrechnung ist die Kettenregel ein mathematischer Ausdruck, der verwendet werden kann, um die Ableitung der Kombination zweier differenzierbarer Funktionen, f und g, in Bezug auf die Ableitungen von f und g zu definieren.
Genauer gesagt, wenn {\displaystyle h=f\circ g} die Funktion so ist, dass {\displaystyle h(x)=f(g(x))} für jedes x, wenn dies der Fall ist, die Kettenregel unter Verwendung der Notation von Lagrange, {\displaystyle h'(x)=f'(g(x))g'(x).}
oder gleichwertig
{\displaystyle h'=(f\circ g)'=(f'\circ g)\cdot g'.}Die Kettenregel kann auch mit der von Leibniz verwendeten Notation angegeben werden. Wenn eine Variable, z, von einer anderen Variablen, y, abhängig ist und beide Variablen von einer dritten Variablen, x, abhängig sind (d.h. y und z sind abhängige Variablen), dann ist z auch auf x angewiesen, indem die Variable y als Vermittler verwendet wird. In diesem speziellen Fall wird die Kettenregel wie folgt angegeben:
{\displaystyle {\frac {dz}{dx}}={\frac {dz}{dy}}\cdot {\frac {dy}{dx}},}und
{\displaystyle \left.{\frac {dz}{dx}}\right|_{x}=\left.{\frac {dz}{dy}}\right|_{y(x)}\cdot \left.{\frac {dy}{dx}}\right|_{x},}um zu signalisieren, an welchen Stellen die Derivate bewertet werden müssen.
Wenn es um die Integration geht, ist die Ersetzungsregel diejenige, die der Kettenregel entspricht.
Intuitiv besagt die Kettenregel, dass man, wenn man die momentane Änderungsrate von z relativ zu y und die von y relativ zu x kennt, in der Lage ist, die momentane Änderungsrate von z relativ zu x als Produkt der beiden Änderungsraten zu berechnen. Wenn man die momentane Änderungsrate von z relativ zu x kennt, dann kann man die momentane Änderungsrate von z relativ berechnen.
In den Worten von George F.
Wenn sich ein Fahrzeug doppelt so schnell bewegen kann wie ein Fahrrad und ein Fahrrad viermal so schnell fahren kann wie eine Person, die zu Fuß geht, dann sagt Simmons Folgendes: Dann fährt das Auto 2 × 4 = 8 Mal so schnell wie der Mensch."
Im Folgenden wird der Zusammenhang zwischen dieser speziellen Abbildung und der Kettenregel beschrieben:.
Seien z, y und x die (variablen) Positionen des Autos, des Fahrrads bzw. des Mannes, der zu Fuß ging.
Die Änderungsrate der relativen Positionen des Autos und des Fahrrads ist {\textstyle {\frac {dz}{dy}}=2.} ähnlich, {\textstyle {\frac {dy}{dx}}=4.} also ist das Tempo, mit dem sich die relativen Positionen des Autos und des Fußgängers ändern,
{\displaystyle {\frac {dz}{dx}}={\frac {dz}{dy}}\cdot {\frac {dy}{dx}}=2\cdot 4=8.}Die Rate der Positionsänderung ist gleich dem Verhältnis der Geschwindigkeiten, und die Geschwindigkeit wird berechnet, indem die Ableitung der Position in Bezug auf die Zeit genommen wird; Dies bedeutet, dass die Änderungsrate der Position gleich 1 ist, {\displaystyle {\frac {dz}{dx}}={\frac {\frac {dz}{dt}}{\frac {dx}{dt}}},}
oder gleichwertig {\displaystyle {\frac {dz}{dt}}={\frac {dz}{dx}}\cdot {\frac {dx}{dt}},}
Hier ist ein weiteres Beispiel für die Kettenregel in Aktion.
Es wird angenommen, dass Gottfried Wilhelm Leibniz der erste war, der die Kettenregel anwandte.
Er benutzte sie, um die