Auf Bodenfahrzeuge angewendetes Lernen: Verbesserung der Leistung von Bodenfahrzeugen durch Computer Vision Learning
Von Fouad Sabry
()
Über dieses E-Book
Was ist "Auf Bodenfahrzeuge angewendetes Lernen"?
Die Initiative "Auf Bodenfahrzeuge angewendetes Lernen" (LAGR), die von 2004 bis 2008 in Betrieb war, wurde mit der Absicht entwickelt, Folgendes zu erreichen: Beschleunigung der Entwicklung einer autonomen, wahrnehmungsbasierten Offroad-Navigation in unbemannten Roboter-Bodenfahrzeugen (UGVs). DARPA, eine Forschungsagentur des Verteidigungsministeriums der Vereinigten Staaten von Amerika, stellte Mittel für LAGR bereit.
Wie Sie davon profitieren werden
( I) Erkenntnisse und Validierungen zu den folgenden Themen:
Kapitel 1: DARPA LAGR-Programm
Kapitel 2: DARPA
Kapitel 3: Autonomer Roboter
Kapitel 4: Militärroboter
Kapitel 5: DARPA Grand Challenge
Kapitel 6: Unbemanntes Bodenfahrzeug
Kapitel 7: Europäischer Landroboter-Test
Kapitel 8: Mobiler Roboter
Kapitel 9: Brecher (Roboter)
Kapitel 10: National Robotics Engineering Center
(II) Beantwortung der häufigsten öffentlichen Fragen zum Thema Lernen bei Bodenfahrzeugen.
(III) Beispiele aus der Praxis für den Einsatz von Lernen bei Bodenfahrzeugen in vielen Bereichen.
Wer das? Das Buch richtet sich an
Profis, Studenten und Doktoranden, Enthusiasten, Hobbyisten und diejenigen, die über das Grundwissen oder die Informationen hinausgehen möchten, um jegliche Art von Lernen in Bezug auf Bodenfahrzeuge zu erlernen.
Mehr von Fouad Sabry lesen
Ähnlich wie Auf Bodenfahrzeuge angewendetes Lernen
Titel in dieser Serie (100)
Inpainting: Überbrückung von Lücken in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer Vision: Erkundung der Tiefen des Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenComputer-Stereo-Vision: Erforschung der Tiefenwahrnehmung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenBildhistogramm: Visuelle Einblicke enthüllen und die Tiefen von Bildhistogrammen in der Computer Vision erkunden Bewertung: 0 von 5 Sternen0 BewertungenBildkompression: Effiziente Techniken zur visuellen Datenoptimierung Bewertung: 0 von 5 Sternen0 BewertungenLärmminderung: Verbesserung der Klarheit, fortschrittliche Techniken zur Rauschunterdrückung in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenHistogrammausgleich: Verbesserung des Bildkontrasts für eine verbesserte visuelle Wahrnehmung Bewertung: 0 von 5 Sternen0 BewertungenVisuelle Wahrnehmung: Einblicke in die computergestützte visuelle Verarbeitung Bewertung: 0 von 5 Sternen0 BewertungenGamma-Korrektur: Verbesserung der visuellen Klarheit in der Computer Vision: Die Gammakorrekturtechnik Bewertung: 0 von 5 Sternen0 BewertungenTonzuordnung: Tone Mapping: Erhellende Perspektiven in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenUnterwasser-Computervision: Erkundung der Tiefen der Computer Vision unter den Wellen Bewertung: 0 von 5 Sternen0 BewertungenHomographie: Homographie: Transformationen in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenFarbraum: Erkundung des Spektrums von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAffine Transformation: Visuelle Perspektiven freischalten: Erforschung der affinen Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRetinex: Enthüllen Sie die Geheimnisse des computergestützten Sehens mit Retinex Bewertung: 0 von 5 Sternen0 BewertungenAdaptiver Filter: Verbesserung der Computer Vision durch adaptive Filterung Bewertung: 0 von 5 Sternen0 BewertungenBündelanpassung: Optimieren visueller Daten für eine präzise Rekonstruktion Bewertung: 0 von 5 Sternen0 BewertungenHough-Transformation: Enthüllung der Magie der Hough-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenRadon-Transformation: Aufdecken verborgener Muster in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenFilterbank: Einblicke in die Filterbanktechniken von Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenAnisotrope Diffusion: Verbesserung der Bildanalyse durch anisotrope Diffusion Bewertung: 0 von 5 Sternen0 BewertungenFarbmanagementsystem: Optimierung der visuellen Wahrnehmung in digitalen Umgebungen Bewertung: 0 von 5 Sternen0 BewertungenGemeinsame Fotoexpertengruppe: Erschließen Sie das Potenzial visueller Daten mit dem JPEG-Standard Bewertung: 0 von 5 Sternen0 BewertungenZufallsstichprobenkonsens: Robuste Schätzung in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenProjektive Geometrie: Erforschung der projektiven Geometrie in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenHadamard-Transformation: Enthüllung der Leistungsfähigkeit der Hadamard-Transformation in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenGeometrisches Hashing: Effiziente Algorithmen zur Bilderkennung und -anpassung Bewertung: 0 von 5 Sternen0 BewertungenBlob-Erkennung: Aufdecken von Mustern in visuellen Daten Bewertung: 0 von 5 Sternen0 BewertungenModell des menschlichen visuellen Systems: Wahrnehmung und Verarbeitung verstehen Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Unbemanntes Bodenfahrzeug: Fortgeschrittene Strategien und Anwendungen in der modernen Kriegsführung Bewertung: 0 von 5 Sternen0 BewertungenAutomatisiertes Testen: Testautomatisierung mit Geb und ScalaTest Bewertung: 0 von 5 Sternen0 BewertungenCloud Computing Bewertung: 0 von 5 Sternen0 BewertungenAutomatische Zielerkennung: Fortschritte in Computer-Vision-Techniken zur Zielerkennung Bewertung: 0 von 5 Sternen0 BewertungenBig Data, Fast Data Bewertung: 0 von 5 Sternen0 BewertungenPartikelfilter: Erforschung von Partikelfiltern in der Bildverarbeitung Bewertung: 0 von 5 Sternen0 BewertungenDer App-Entwicklungszyklus Bewertung: 0 von 5 Sternen0 BewertungenDependency Injection in Java: Testing mit CDI-Unit und DI-Frameworks Bewertung: 0 von 5 Sternen0 BewertungenQualitätssicherung mit JavaScript und PHP Bewertung: 0 von 5 Sternen0 BewertungenjQuery Mobile: Unit Testing Bewertung: 0 von 5 Sternen0 BewertungenUnternehmensforschung: Strategien und Taktiken für optimale militärische Entscheidungsfindung Bewertung: 0 von 5 Sternen0 BewertungenIntegration der Fahrzeuginfrastruktur: Erschließung von Erkenntnissen und Fortschritten durch Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenUnbemanntes Kampfflugzeug: Revolutionierung der Kriegsführung durch autonome Luftstreitkräfte Bewertung: 0 von 5 Sternen0 BewertungenMilitärroboter: Revolutionierung der Kriegsführung mit autonomer Technologie Bewertung: 0 von 5 Sternen0 BewertungenModerne Onlineshops: Case Study: Goodgame Studios Bewertung: 0 von 5 Sternen0 BewertungenTitanium Mobile: Multi Platform Apps mit JavaScript Bewertung: 0 von 5 Sternen0 BewertungenDas DevOps-Handbuch: Teams, Tools und Infrastrukturen erfolgreich umgestalten Bewertung: 0 von 5 Sternen0 BewertungenJavaScript für Eclipse-Entwickler: Orion, RAP und GWT Bewertung: 0 von 5 Sternen0 BewertungenJavaScript Performance Bewertung: 0 von 5 Sternen0 BewertungenOSGi. IoT und Mobile Bewertung: 0 von 5 Sternen0 BewertungenWebGIS und WebMapping für Anfänger: Anforderungen an ein anwendungsfreundliches WebGIS-System Bewertung: 0 von 5 Sternen0 BewertungenAgile Methodik Bewertung: 0 von 5 Sternen0 BewertungenMLOps – Kernkonzepte im Überblick: Machine-Learning-Prozesse im Unternehmen nachhaltig automatisieren und skalieren Bewertung: 0 von 5 Sternen0 BewertungenAlternativer Warentransport: Kann ein Segway Personal Transporter herkömmliche Methoden ersetzen? Bewertung: 0 von 5 Sternen0 BewertungenWerden Programmierer überflüssig?: Die KI-Revolution in der Softwareentwicklung Bewertung: 0 von 5 Sternen0 BewertungenBussysteme in der Fahrzeugtechnik: Protokolle, Standards und Softwarearchitektur Bewertung: 0 von 5 Sternen0 BewertungenTitanium Mobile: Apps für iPhone und Android: Der schnelle Einstieg in die App-Programmierung Bewertung: 0 von 5 Sternen0 BewertungenErkundung der Bildsammlung: Enthüllung visueller Landschaften in der Computer Vision Bewertung: 0 von 5 Sternen0 BewertungenMicroservices: Der Hype im Realitätscheck Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
Aufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Die Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenRoboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenPsychologie des Sozialismus Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Auf Bodenfahrzeuge angewendetes Lernen
0 Bewertungen0 Rezensionen
Buchvorschau
Auf Bodenfahrzeuge angewendetes Lernen - Fouad Sabry
Kapitel 1: DARPA LAGR-Programm
Das von 2004 bis 2008 laufende Programm Learning Applied to Ground Vehicles (LAGR) zielte darauf ab, die autonome, wahrnehmungsbasierte Offroad-Navigation in unbemannten Bodenfahrzeugen (UGVs) zu beschleunigen. Die DARPA, der Forschungszweig des US-Verteidigungsministeriums, unterstützte LAGR.
Mobile Roboter (z. B. Shakey) gibt es zwar bereits seit den 1960er Jahren, aber die Entwicklung von Robotern, die sich im Freien, im Gelände und auf Gelände mit zahlreichen Hindernissen fortbewegen können, wurde schrittweise vorangetrieben. In Wirklichkeit gab es keine definierten Kriterien zur Überwachung der Fortschritte. Separate Forschungsteams setzten Roboterautos in ungeübten Regierungstests ein, bei denen die Durchschnittsgeschwindigkeit und die Anzahl der erforderlichen Bedienereingriffe entlang einer festgelegten Strecke mit weit auseinander liegenden Wegpunkten überwacht wurden. Diese Tests zeigten die enormen Schwierigkeiten, die mit der Offroad-Navigation verbunden sind. Während die PerceptOR-Fahrzeuge um die Wende zum 21. Jahrhundert mit modernsten Sensoren und Algorithmen ausgestattet waren, führten sie aufgrund der begrenzten Reichweite ihrer Wahrnehmungstechnologie dazu, dass sie in natürlichen Sackgassen strandeten. Darüber hinaus hinderte sie ihre Abhängigkeit von vorgegebenen Verhaltensweisen daran, sich an unvorhergesehene Ereignisse anzupassen. Abgesehen von im Wesentlichen offenem Gelände mit wenigen Hindernissen oder auf unbefestigten Straßen waren die PerceptOR-Fahrzeuge nicht in der Lage, ohne wiederholte und häufige Bedienerhilfe zu navigieren.
Die LAGR-Initiative zielte darauf ab, die PerceptOR-Technik zu erweitern und gleichzeitig die technologischen Probleme anzugehen, die sich aus den PerceptOR-Tests ergaben.
Das Hauptziel von LAGR war es, die Offroad-Navigation von UGVs zu beschleunigen. Zu den weiteren synergetischen Zielen gehörten (1) die Etablierung einer Benchmarking-Methodik zur Messung des Fortschritts autonomer Roboter, die in unstrukturierten Umgebungen operieren, (2) die Weiterentwicklung des maschinellen Sehens und damit die Ermöglichung einer Fernwahrnehmung sowie (3) die Erhöhung der Anzahl von Institutionen und Einzelpersonen, die zur Spitzenforschung im Bereich UGV beitragen können.
Anstatt sich auf neue Hardware zu konzentrieren, sollte das LAGR-Programm die Entwicklung neuer wissenschaftlicher Erkenntnisse für die Wahrnehmung und Steuerung von Robotern in den Vordergrund stellen. Daher wurde beschlossen, den LAGR-Forschern, die Mitglieder konkurrierender Teams waren, eine Flotte identischer, relativ einfacher Roboter zur Verfügung zu stellen, damit sie sich auf die Entwicklung von Algorithmen konzentrieren konnten. Jedem Team wurden zwei Roboter der Standardausführung zur Verfügung gestellt. Sie entwickelten neue Software für diese Roboter und schickten den Code dann an ein Testteam der Regierung, das die Software auf mehreren Testkursen an Regierungsrobotern testete. Diese Kurse waren über die Vereinigten Staaten verstreut und den Teams bisher unbekannt. Auf diese Weise konnte der Code aller Teams unter nahezu identischen Bedingungen getestet werden. Nach einer anfänglichen Einführungsphase wurde der Code-Entwicklungs-/Testzyklus etwa einmal pro Monat wiederholt.
Offizielle Website des National Robotics Engineering Center (CMU NREC) der Carnegie Mellon University hat den Standardroboter entwickelt und gebaut.
Auf den Fahrzeugcomputern war ein modulares Baseline
-Wahrnehmungs- und Navigationssystem vorinstalliert, das im Wesentlichen das gleiche System war, das CMU NREC für das PerceptOR-Programm entwickelt hatte und das bei der Einführung von LAGR als Stand der Technik galt.
Die Modularität des Baseline-Systems ermöglichte es den Forschern, Teile des Baseline-Codes durch eigene Module zu ersetzen und dennoch ein voll funktionsfähiges Navigationssystem zu haben, ohne ein völlig neues Navigationssystem entwickeln zu müssen.
So konnten sie beispielsweise die Leistung ihres eigenen Hinderniserkennungsmoduls mit der des Baseline-Codes vergleichen, während alle anderen Variablen konstant blieben.
Der Baseline-Code fungierte auch als konstante Referenz – in jeder Softwareumgebung und zu jeder Zeit konnte der Code der Teams mit dem Baseline-Code verglichen werden.
Dieser schnelle Zyklus lieferte dem Regierungsteam und den Aufführungsteams unmittelbaren Input und ermöglichte es dem Regierungsteam, Prüfungskurse zu erstellen, die die Darsteller in bestimmten Wahrnehmungsaufgaben forderten und deren Schwierigkeit die aktuellen Fähigkeiten der Darsteller herausforderte, aber nicht dominierte.
Bei jedem Test mussten die Teams keinen neuen Code einreichen, dies wurde jedoch häufig getan.
Trotz dieses Spielraums sahen einige Teams den Schnelltestzyklus als nachteilig für ihre langfristige Entwicklung an und hätten sich eine längere Testpause gewünscht.
Um mit Phase II fortzufahren, musste jedes Team den Baseline-Code ändern, um die letzten drei Phase-I-Regierungstests zu bestehen. Im Durchschnitt waren Roboter, die den Code des Teams ausführten, mindestens 10 % schneller als diejenigen, die den ursprünglichen Baseline-Code ausführten.
Diese eher bescheidene Go/No Go
-Metrik wurde gewählt, um es den Teams zu ermöglichen, riskante, aber potenzielle Techniken auszuwählen, die in den ersten 18 Monaten des Programms möglicherweise noch nicht vollständig entwickelt sind.
Jedes der acht Teams erfüllte diese Statistik, das Ziel von Phase II war es, dass einige bei späteren Tests die doppelte Geschwindigkeit der Baseline erreichten, und dies wurde von einigen wenigen erreicht.
Beachten Sie, dass die Phase-I-Go/No-Go-Kriterien so konzipiert wurden, dass die Teams nicht um eine festgelegte Anzahl von Phase-II-Slots konkurrieren: Eine beliebige Anzahl von Teams war teilnahmeberechtigt, von acht bis null konnte die Prüfung bestehen.
Diese DARPA-Methode sollte die Zusammenarbeit und sogar den Codeaustausch zwischen den Teams fördern.
In Phase I, den ersten 18 Monaten der LAGR, wurden acht Teams als Performer identifiziert. Die Teams repräsentierten Applied Perception (PI Mark Ollis), Georgia Tech (PI Tucker Balch), Jet Propulsion Laboratory (PI Larry Matthies), Net-Scale Technologies (PI Uri Muller), NIST (PI James Albus), Stanford University (PI Sebastian Thrun), SRI International (PI Robert Bolles) und die University of Pennsylvania (PI Daniel Lee).
Das Stanford-Team verließ das Team am Ende der ersten Phase, um an der DARPA Grand Challenge zu arbeiten. es wurde durch das Team der University of Colorado, Boulder (PI Greg Grudic) ersetzt. Ebenfalls in Phase II zog sich das NIST-Team aus dem Wettbewerb zurück und konzentrierte sich darauf, die besten Softwarekomponenten jedes Teams in einer einzigen Lösung zu kombinieren. Roger Bostelman übernahm die Leitung der Bemühungen.
Das LAGR-Fahrzeug, das in etwa die Größe eines Einkaufswagens eines Lebensmittelgeschäfts hatte, sollte einfach zu bedienen sein. Learning Locomotion, eine Schwesterinitiative der DARPA, befasste sich mit einer ausgeklügelten motorischen Steuerung. Er wurde von einer Batterie angetrieben und verfügte über zwei unabhängig voneinander angetriebene Rollstuhlmotoren vorne sowie zwei Lenkräder hinten. Wenn die Vorderräder in die gleiche Richtung gedreht wurden, konnte der Roboter vorwärts oder rückwärts angetrieben werden. Der Roboter drehte sich, wenn diese Räder in verschiedene Richtungen angetrieben wurden.
Der Preis von 30.000 US-Dollar für das LAGR-Fahrzeug ermöglichte den Aufbau einer Flotte, die auf eine Reihe von Teams verteilt werden konnte, die den Pool von Forschern erweiterten, die zuvor an DARPA-Robotikprogrammen teilgenommen hatten. Die Höchstgeschwindigkeit des Fahrzeugs von etwa 3 Meilen pro Stunde und das relativ bescheidene Gewicht von 100 kg bedeuteten, dass es im Vergleich zu Fahrzeugen, die in früheren autonomen Bodenfahrzeuginitiativen eingesetzt wurden, ein deutlich geringeres Sicherheitsrisiko darstellte, wodurch die für jedes Team erforderlichen Mittel für den Umgang mit seinem Roboter erheblich reduziert wurden.
Trotzdem handelte es sich bei den LAGR-Fahrzeugen um hochmoderne Maschinen. Ihre Sensorsuite bestand aus zwei Sätzen von Stereokameras, einem Beschleunigungsmesser, einem Stoßfängersensor, Radencodern und einem globalen Positionierungssystem. Das Fahrzeug verfügte