Semantische Datenintelligenz im Einsatz
()
Über dieses E-Book
Ähnlich wie Semantische Datenintelligenz im Einsatz
Ähnliche E-Books
Künstliche Intelligenz: Was steckt hinter der Technologie der Zukunft? Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz für Sales, Marketing und Service: Mit AI und Bots zu einem Algorithmic Business – Konzepte und Best Practices Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in der Praxis: Anwendung in Unternehmen und Branchen: KI wettbewerbs- und zukunftsorientiert einsetzen Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz verstehen: Grundlagen – Use-Cases – unternehmenseigene KI-Journey Bewertung: 0 von 5 Sternen0 BewertungenJournalistische Praxis: Chatbots: Automatisierte Kommunikation im Journalismus und in der Public Relation Bewertung: 0 von 5 Sternen0 BewertungenBig Data und Data Science in der strategischen Beschaffung: Grundlagen – Voraussetzungen – Anwendungschancen Bewertung: 0 von 5 Sternen0 BewertungenBausteine eines Managements Künstlicher Intelligenz: Eine Standortbestimmung Bewertung: 0 von 5 Sternen0 BewertungenBetriebswirtschaftliche KI-Anwendungen: Digitale Geschäftsmodelle auf Basis Künstlicher Intelligenz Bewertung: 0 von 5 Sternen0 BewertungenVoice-Marketing: Der Siegeszug der digitalen Assistenten Bewertung: 0 von 5 Sternen0 Bewertungen30 Minuten ChatGPT Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 BewertungenKI im Job: Leitfaden zur erfolgreichen Mensch-Maschine-Zusammenarbeit Bewertung: 0 von 5 Sternen0 BewertungenDigitalisierung und Künstliche Intelligenz: Kooperation von Menschen und Maschinen aktiv gestalten Bewertung: 0 von 5 Sternen0 BewertungenData Science: Grundlagen, Architekturen und Anwendungen Bewertung: 0 von 5 Sternen0 BewertungenSharePoint Kompendium - Bd. 19 Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz für Business Analytics: Algorithmen, Plattformen und Anwendungsszenarien Bewertung: 0 von 5 Sternen0 BewertungenIT Survival Guide: Karriere- und Alltagsratgeber für die IT-Branche Bewertung: 0 von 5 Sternen0 BewertungenGestaltung und Management der digitalen Transformation: Ökonomische, kulturelle, gesellschaftliche und technologische Perspektiven Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg Bewertung: 0 von 5 Sternen0 BewertungenEinführung in die Softwaretechnik Bewertung: 0 von 5 Sternen0 BewertungenPraxiseinstieg Deep Learning: Mit Python, Caffe, TensorFlow und Spark eigene Deep-Learning-Anwendungen erstellen Bewertung: 0 von 5 Sternen0 BewertungenFunktionalität und Standardunterstützung von IoT-Software-Plattformen: HMD Best Paper Award 2019 Bewertung: 0 von 5 Sternen0 BewertungenDigitalisierung und Industrie 4.0: Technologischer Wandel und individuelle Weiterentwicklung Bewertung: 0 von 5 Sternen0 BewertungenDigitale Intelligenz: Das Betriebssystem für Digitale Revolutionäre Bewertung: 0 von 5 Sternen0 BewertungenQuick Guide KI-Projekte – einfach machen: Künstliche Intelligenz in Service, Marketing und Sales erfolgreich einführen Bewertung: 0 von 5 Sternen0 BewertungenDigitalisierung in Industrie-, Handels- und Dienstleistungsunternehmen: Konzepte - Lösungen - Beispiele Bewertung: 0 von 5 Sternen0 BewertungenChatbots: Aufbau und Anwendungsmöglichkeiten von autonomen Sprachassistenten Bewertung: 0 von 5 Sternen0 BewertungenChatbots im Coaching: Chancen im lösungs-fokussierten Coaching Bewertung: 0 von 5 Sternen0 BewertungenExtended Reality Training: Ein Framework für die virtuelle Lernkultur in Organisationen Bewertung: 0 von 5 Sternen0 BewertungenCloud Computing als neue Herausforderung für Management und IT Bewertung: 0 von 5 Sternen0 Bewertungen
Künstliche Intelligenz (KI) & Semantik für Sie
ChatGPT – Für Einsteiger: Schreibprofi mit KI, Zeit und Geld sparen ohne peinliche Fehler Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Medien-Gestaltung leicht gemacht: Von der Idee zum viralen Hit Bewertung: 0 von 5 Sternen0 BewertungenChatbotische Landingpages: Wie du deine Konkurrenz in den digitalen Staub schicken Bewertung: 0 von 5 Sternen0 BewertungenKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Bewertung: 0 von 5 Sternen0 BewertungenDie KI Bibel, mit künstlicher Intelligenz Geld verdienen: Echte Fallbeispiele und Anleitungen zum Umsetzen Bewertung: 1 von 5 Sternen1/5Psychologie des Sozialismus Bewertung: 0 von 5 Sternen0 BewertungenRoboter im Alltag: Maschinen (beinahe) wie Menschen Bewertung: 0 von 5 Sternen0 BewertungenEinstieg ins Machine Learning: Grundlagen, Prinzipien, erste Schritte Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Epische Reise des Erfolgs - 'Steigern Sie Ihren Reichtum': Mit Screenshots aus dem echten Leben - Erreichen Sie finanzielle Höhen Bewertung: 0 von 5 Sternen0 BewertungenMenschlicher Geist und Künstliche Intelligenz: Die Entwicklung des Humanen inmitten einer digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenMeistern von ChatGPT: Entriegeln Sie die Kraft der KI für verbesserte Kommunikation und Beziehungen: German Bewertung: 0 von 5 Sternen0 BewertungenWissen statt Glauben!: Das Weltbild des neuen Humanismus Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Die vierte industrielle Revolution Bewertung: 0 von 5 Sternen0 BewertungenAufstieg der Roboter: Wie unsere Arbeitswelt gerade auf den Kopf gestellt wird - und wie wir darauf reagieren müssen Bewertung: 0 von 5 Sternen0 BewertungenChatGPT: Begegnung mit einer neuen Welt: Lernen Sie Künstliche Intelligenz mit der Gratisversion ChatGPT 3.5 Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz in Sozialen Medien Bewertung: 0 von 5 Sternen0 BewertungenDigitalotopia: Sind wir bereit für die (R)Evolution der Wirklichkeit? Bewertung: 0 von 5 Sternen0 BewertungenDie Zukunft der Arbeit: Digitalisierung, Automatisierung, KI Bewertung: 0 von 5 Sternen0 Bewertungen
Rezensionen für Semantische Datenintelligenz im Einsatz
0 Bewertungen0 Rezensionen
Buchvorschau
Semantische Datenintelligenz im Einsatz - Börteçin Ege
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021
B. Ege, A. Paschke (Hrsg.)Semantische Datenintelligenz im Einsatzhttps://doi.org/10.1007/978-3-658-31938-0_1
1. Einblick in die Welt der künstlichen Intelligenz
Börteçin Ege¹
(1)
AG Corporate Semantic Web, Freie Universität Berlin, Berlin, Deutschland
Börteçin Ege
Email: info@bortecin.com
1.1 Einleitung
1.2 Die Anfangszeiten
1.3 Zwei KI-Winter und vier Meilensteine
1.4 Auf dem Weg zu selbstlernenden Maschinen
1.5 Semantische künstliche Intelligenz
1.6 Wissensgraphen
1.7 Regelbasierte Systeme
1.8 Wo liegt der Schlüssel zum Erfolg?
1.9 Quo Vadis?
Literatur
Zusammenfassung
Dieser Beitrag gibt dem Leser ein Überblick über die Künstliche-Intelligenz-Technologien und zwar von der Entstehung und Entwicklung bis zu den aktuell verwendeten Ansätzen und Methoden: Welche Höhen und Tiefen hat künstliche Intelligenz bis heute erlebt? Was verstehen wir unter neuronalen Netzen, Deep Learning sowie Machine Learning? Welche Lerntechniken gibt es für Machine Learning? Benötigen wir sowohl symbolische als auch nicht-symbolische Ansätze? Brauchen wir regelbasierte Systeme in KI-Projekten doch nicht mehr? Welche Rolle werden künftig Semantic-Web-Standards in der Entwicklung der künstlichen Intelligenz spielen? Welche Nachteile haben Machine-Learning-Ansätze? Was versteht man unter einem Blackbox-Effekt? Welche Vorteile haben Semantic-Web-Ansätze? Wo liegt der Schlüssel zum Erfolg? Was erwartet uns in Zukunft?
Dipl.-Ing. Börteçin Ege
../images/466218_1_De_1_Chapter/466218_1_De_1_Figa_HTML.jpgstudierte Informatik an der Technischen Universität Wien. Er beschäftigt sich seit 2005 mit dem Semantic Web und künstlicher Intelligenz. Im Jahr 2007 gründete er eine Arbeitsgruppe, die sich mit Semantic-Web-Technologien beschäftigt. Nach langjährigen beruflichen Erfahrungen in verschiedenen Firmen und Konzernen als Software-Engineer brachte er im Jahr 2015 mit zwei Kollegen gemeinsam sein erstes Buch, Corporate Semantic Web, beim Springer-Verlag heraus. Er ist Autor, auch von zahlreichen populärwissenschaftlichen Beiträgen.
1.1 Einleitung
Was verstehen wir eigentlich unter künstlicher Intelligenz: Einen Taschenrechner, ein Buchhaltungsprogramm oder einen Schachcomputer? Aus heutiger Sicht nennen wir eine Software, die aus ihren Erfahrungen lernen und sich dementsprechend weiterentwickeln kann, ein selbstlernendes System bzw. künstliche Intelligenz. Künstliche Intelligenz besteht aus einer Familie von Ansätzen und Techniken. Dazu zählen unter anderem Logik (z. B. Aussagenlogik, Prädikatenlogik, Entscheidbarkeit), unsicheres Wissen und Schlussfolgern (Bayessche Netze, Fuzzy-Logik), Suchstrategien (uninformierte Suche, heuristische Suche), Wissensrepräsentation (Ontologien und Semantic Web), Machine Learning (neuronale Netze und Deep Learning in Kombination von Supervised und Unsupervised Learning sowie von Reinforcement Learning), Natural Language Processing, Computervision und Robotik. In den letzten Jahren rückten insbesondere die Kategorie Machine Learning und die damit verbundenen nicht-symbolische Ansätze immer mehr in den Brennpunkt der künstlichen Intelligenz. Dabei basieren alle nicht-symbolische Machine-Learning-Ansätze eigentlich rein auf Statistik und Wahrscheinlichkeitstheorie und stellen in der Wahrheit kein echtes wissensbasiertes System dar. Man muss jedoch zugeben, dass in den letzten Jahren zum einen mit Deep Learning und zum anderen mit steigender Rechenleistung ein ganz frischer Wind in die künstliche Intelligenz kam. Beispielsweise ermöglicht Deep Learning heute sehr vieles, was früher nicht so selbstverständlich war, und zwar von der Sprachverarbeitung und Bilderkennung bis zum Go-Spielen. Im Rahmen dieses Beitrags sollen zuerst die bisherigen relativ wichtigen Entwicklungen und aktuellen Trends mit Schwerpunkt Lernen im Bereich künstliche Intelligenz unter die Lupe genommen werden.
1.2 Die Anfangszeiten
Die anfänglichen Zeiten der künstlichen Intelligenz sind durch drei Wissenschaftler gekennzeichnet: Kurt Gödel, Alan Turing und John McCarthy. Der österreichische Logiker Gödel (1906–1978) zeigte im Jahr 1931, dass wahre Aussagen in der Prädikatenlogik 1. Stufe auch herleitbar sind. Er zeigte darüber hinaus aber auch, dass es in Logiken höherer Stufen auch wahre Aussagen gibt, die jedoch nicht beweisbar sind. Diese Aussagen Gödels gelten heute als Geburtsstunde der künstlichen Intelligenz.
Der zweite Durchbruch kam durch den britischen Wissenschaftler Alan Turing (1912–1954), der später wegen seiner maßgeblichen Beiträge zur Entschlüsselung von ENIGMA bekannt wurde. So zeigte Turing im Jahr 1937 zunächst mit Halteproblem, dass es kein Programm gibt, das für eine beliebige Eingabe entscheiden kann, ob dieses Programm in eine Endloseschleife gerät oder nicht. 1950 entwickelt er den Turing-Test. Ein Turing-Test gilt als bestanden, wenn ein menschlicher Fragensteller nicht unterscheiden kann, ob seine Fragen von einem Menschen oder doch von einem Computer beantwortet werden. Obwohl der Turing-Test nicht das einzige Kriterium ist, Maschinenintelligenz zu messen, ist er insbesondere unter den Wissenschaftlern nach wie vor ein sehr populärer Ansatz. Der Turing-Test gilt jedoch bis heute nicht als bestanden.¹ Turings beispiellose Beiträge zur Informatik gelten unumstritten. Der jedes Jahr von Association for Computing Machinery (ACM) verliehene und nach Alan Turing benannte Turing-Award gilt heute als höchste Auszeichnung im Bereich Informatik und ist vergleichbar mit der Fields-Medaille im Bereich Mathematik oder sogar mit dem Nobelpreis. Im Jahr 2019 hat die britische Regierung beschlossen, Turings Bild auf die neuen 50-Pfund-Banknoten zu bringen.
Der dritte Wissenschaftler, der zur Entstehung der künstlichen Intelligenz maßgeblich beigetragen hat, ist der US-amerikanische Computerwissenschaftler John McCarthy (1927–2011), welcher im Jahr 1971 den Turing-Award erhielt. McCarthy organisierte im Jahr 1956 mit Marvin Minsky, Claude Shannon und Nathaniel Rochester den ersten Workshop über künstliche Intelligenz im Dartmouth-College in den USA. Außerdem führte er hier zum ersten Mal den Begriff künstliche Intelligenz ein. Dieser Workshop gilt heute als die Geburtsstunde der künstlichen Intelligenz. John McCarthy ist auch der Erfinder der Programmiersprache LISP (1958), welche immer noch den Markt in den USA dominiert und somit eine der am meisten benutzten Programmiersprachen im Bereich der künstlichen Intelligenz ist [1].
1.3 Zwei KI-Winter und vier Meilensteine
Auch der Lebenszyklus der künstlichen Intelligenz besteht aus Höhen und Tiefen. So hat KI bisher zwei Phasen erleben müssen, die man als KI-Winter bezeichnet. Während dieser zwei sog. KI-Winter standen fast alle weiteren Entwicklungen still, und man gab die Hoffnungen auf, dass es bald wirklich weitergehen würde. Der erste KI-Winter fällt in den Zeitraum ca. 1970–1980, während der zweite 1987–1997 stattgefunden hat. Die Gründe waren dafür jedes Mal anders, lassen sich aber generell als die Ausschöpfung der seinerzeit vorhandenen technologischen Möglichkeiten umschreiben.
1.3.1 IBM Deep Blue
Doch im Jahr 1997 kam der erste wirkliche Durchbruch: IBM Deep Blue gelang es als erstem Computer, den damals amtierenden Schachweltmeister Garry Kasparov in einer Partie zu besiegen. Ein Jahr danach schaffte es Deep Blue sogar, gegen ihn einen ganzen Wettkampf aus sechs Partien zu gewinnen. Dabei war Deep Blue eigentlich nicht so intelligent, wie es damals vielleicht von vielen angenommen wurde. Denn er war keinesfalls lernfähig, und seine Erfolge beruhten größtenteils auf einer sehr hohen Verarbeitungsgeschwindigkeit durch parallel computing. Diese Serie von Siegen gegen Kasparov war jedoch das erste Zeichen, dass der zweite sog. KI-Winter nach langen Jahren endlich vorbei war.
1.3.2 IBM Watson
Der nach dem ersten Präsidenten von IBM (Thomas J. Watson) benannte Supercomputer wurde als Teil des Forschungsprojektes DeepQA entwickelt. Watson ist in erster Linie ein QA-System, also ein System, das im Wesentlichen effizient passende Textpassagen zu einer Frage findet. Seine Berühmtheit erlangte Watson im Jahr 2011, nachdem er sich bei der US-Quizshow „Jeopardy!" gegen seine zwei menschlichen Mitstreiter durchsetzte und aus dem Rennen als klarer Sieger hervorging. Das Ziel des Projekts ist letztendlich, eine hochwertige semantische Suchmaschine zu schaffen, die möglichst auch selbstlernfähig ist. Watsons Wissensquellen bestehen insbesondere aus Enzyklopädien, Datenbanken, literarischen Werken, Taxonomien und Ontologien.² Wie von IBM mitgeteilt wurde, bestand Watsons Wissensschatz aus 200 Millionen strukturierten und unstrukturierten Dokumenten, als er 2011 bei „Jeopardy!" seinen ersten Sieg gegen einen Menschen erringen konnte. Watson ist zwar teilweise ein lernfähiges System, kann jedoch weder kreativ sein noch neues Wissen schaffen. Er ist aber ein großes und bedeutendes Vorhaben in die richtige Richtung [2].
1.3.3 Google AlphaGo
Der dritte und neueste Durchbruch kam im Jahr 2016 dieses Mal mit AlphaGo, welches von Google DeepMind entwickelt wurde. Angeblich spielten bei diesem Erfolg nicht nur Deep Learning, sondern auch Monte-Carlo-Simulationen eine wichtige Rolle. Nach Deep Blues‘ Sieg gegen Kasparov im Jahr 1997 galt ein Sieg gegen menschliche Go-Spieler als nächste Herausforderung. Der erste Sieg von AlphaGo gegen einen bekannten Go-Spieler erfolgte im Jahr 2015. Nach einer Reihe von Spielen gelang es AlphaGo im Oktober 2015 zuerst den mehrfachen Europameister Fan Hui und dann im folgenden Jahr, im März 2016, einen der weltbesten Go-Spieler, nämlich Lee Sedol, zu besiegen.
1.3.4 Autonomes Fahren
Eine weitere bahnbrechende Entwicklung ist das autonome Fahren. Unter autonomem Fahren verstehen wir Autos, die im Prinzip auch ohne menschliches Eingreifen selbst fahren können. Dank der aktuellen Entwicklungen im Bereich der künstlichen Intelligenz, insbesondere durch Deep Learning, sind große technische Fortschritte in der Bilderkennung erzielt worden, und somit ist die Erkennungskraft von bestimmten Systemen massiv gestiegen. Auch wenn sie derzeit aus bestimmten Gründen wie schlechte Sicht, verschmutzte Sensoren oder Dunkelheit manchmal versagt und dadurch Fehler, Pannen oder gar Unfälle verursacht, ist diese bahnbrechende Technologie doch auf Erfolgskurs. Nicht nur die größten Automobilhersteller wie Toyota, Volkswagen und Volvo, sondern auch Tech-Riesen wie Google und Uber befinden sich in einem Kopf-an-Kopf-Rennen, um als Erste ein zuverlässiges fahrerloses Auto mit unterschiedlichen Autonomiestufen vom assistierten Fahren und teilautomatisierten Fahren bis zum hoch- und voll automatisierten sowie völlig autonomen Fahren schon in absehbarer Zeit herzustellen.³ Das Problem beim autonomen Fahren ist eigentlich nicht wirklich der technische Fortschritt, also die KI, sondern es sind vielmehr die sozialen und ethischen Fragen, die es aufwirft, wie z. B. Was passiert bei einem unausweichlichen Unfall? Sie finden mehr zu diesem Thema in unserem Buch im Kap. 13.
Ethische und philosophische Aspekte von künstlicher Intelligenz.
1.4 Auf dem Weg zu selbstlernenden Maschinen
Grundsätzlich ist Machine Learning (ML) ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten: Dabei entwickelt ein Machine-Learning-Ansatz aufgrund der vorliegenden Beispiele sein eigenes statistisches Modell, welches dann auf neue Fragestellungen derselben Art angewendet werden kann, sodass neue Entscheidungen oder aber auch Vorhersagen getroffen werden können.
Es gibt im Prinzip drei Arten, wie Maschinen lernen können: überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised learning) und bestärkendes Lernen (reinforcement learning), die natürlich sowohl von neuronalen Netzen als auch von Deep Learning ererbt werden. Dafür unterscheiden wir im Rahmen von Machine Learning auch zwischen symbolischen und nicht-symbolischen Ansätzen. Sowohl überwachte als auch unüberwachte Lerntechniken sowie symbolische und nicht-symbolisch Techniken sind orthogonale Dimensionen. Das bedeutet, dass alle drei Machine-Learning-Lernmethoden grundsätzlich sowohl auf symbolische als auch auf nicht-symbolische Ansätze angewendet werden können. Dabei hängt die Auswahl des geeigneten Ansatzes (Verwendung von einem symbolischen oder nicht-symbolischen Ansatz in Kombination von überwachtem oder unüberwachtem Lernen usw.) natürlich auch von der Aufgabenstellung ab.
Doch wie unterscheide ich zwischen symbolischen und nicht-symbolischen Ansätzen? Antwort: Alles, was ein für Menschen interpretierbares Modell erzeugt (z. B. Entscheidungsbäume, Ontologien, Regeln), ist symbolisch. Damit sind aber z. B. Deep Learning, neuronale Netze und SVM (Support Vektor Machine) nicht-symbolisch, da sie nur eine Menge von Vektoren erzeugen. So unterscheiden sich auch die Methoden für überwachtes und unüberwachtes Lernen in der Regel. Die Problemstellung bei überwachtem Lernen ist die Vorhersage von unbekannten und zukünftigen Werten. Die Problemstellung bei unüberwachtem Lernen ist, etwas über die Daten zu erfahren. Beim bestärkenden Lernen geht es schließlich darum, von den Interaktionen mit der Umwelt zu lernen. Siehe dazu auch die Abschn. 1.4.3.1 sowie Abschn. 1.4.3.2.
1.4.1 Neuronale Netze
Die ersten neuronale Netze, die man manchmal auch künstliche neuronale Netze (Artificial Neuronal Networks, kurz ANN) nennt, wurden in den 40er-Jahren von den US-amerikanischen Wissenschaftlern Warren McCulloch (1898–1969) und Walter Pitts (1923–1969) entwickelt. Im Jahr 1962 stellte der US-amerikanische Informatiker und Psychologe Frank Rosenblatt das Konzept von Perception („Wahrnehmung") vor. 1969 entdeckten Arthur Bryson und Yu-Chi Ho Backpropagation-Verfahren für mehrschichtige Netze, welche Ende der 80er-Jahre einen massiven Einfluss auf dem Gebiet der neuronalen Netze und später auch auf die Grundlage von Deep Learning hatten (Deep Learning ist eine spezielle Art von neuronalen Netzen mit sehr vielen Schichten). Sowohl neuronale Netze als auch Deep Learning lassen sich von unserem Gehirn inspirieren, das sich aufgrund seiner Erfahrungen und seiner neuroplastischen Struktur ständig ändert (das bedeutet jedoch auf keinen Fall, dass sie wie unser Gehirn arbeiten). Die Abb. 1.1 illustriert ein vereinfachtes künstliches neuronales Netz mit zwei Zwischenschichten. Neuronale Netze bilden eine Teilmenge von Machine Learning. Aktuell gibt es eine große Anzahl von Arten von neuronalen Netzen, wie z. B. Long Short-Term Memory (LSTM), Convolutional Neural Networks (CNN), Multilayer Perceptron (MLP), Recurrent Neural Network (RNN) und Recursive Neural Network (RNN).⁴
../images/466218_1_De_1_Chapter/466218_1_De_1_Fig1_HTML.pngAbb. 1.1
Ein Beispiel zu einem vereinfachten künstlichen neuronalen Netz mit zwei Zwischenschichten
Ein neuronales Netz erkennt aus einer großen Menge von Trainingsdaten bzw. Beispielen charakteristische Eigenschaften bzw. die vorhandenen Muster. Das schafft ein neuronales Netz, indem es während des Trainings seine einzelnen Parameter und seine zugehörigen Gewichte ständig anpasst (seine innere Struktur bleibt dabei stets unverändert). Ein neuronales Netz kann in der Praxis jedoch nur für eine bestimmte Aufgabe trainiert und optimiert werden, da sonst durch weitere Trainingseinheiten bereits Gelerntes überschrieben werden könnte. Sobald einmal trainiert, leisten neuronale Netze jedoch hervorragende Arbeit. Dabei sind sie meistens viel besser als Menschen. In den letzten Jahren kommen sie nicht nur in der Wissenschaft, sondern immer mehr auch in der Praxis zum Einsatz, wie z. B. in der automatischen Bildverarbeitung, in der natürlichen Sprachverarbeitung (NLP), in der Erstellung von Wettervorhersagen sowie für die Steuerung von selbstfahrenden Autos.
1.4.2 Deep Learning
Der Begriff Deep Learning tauchte das erste Mal im Jahr 2000 auf. Deep Learning ist eine spezielle Art von neuronalen Netzen und gehört mit seiner komplexen und mehrschichtigen inneren Struktur einer anderen Klasse neuronaler Netze an. Es ist im Prinzip nichts anderes als etwas komplexere neuronale Netze und zugleich auch eine Teilmenge des Machine Learning. Verglichen mit ähnlichen Systemen basiert der Erfolg von Deep Learning auf zahlreichen Zwischenschichten, die sich zwischen Eingabe- und Ausgabeschichten befinden. Ein modernes Deep Learning wie ResNet-152 besteht heute aus mehr als 100 Schichten und Millionen Parametern. Somit sind Deep-Learning-Netze in der Lage, Objekte, wie z. B. Bilder mit einer höheren Genauigkeit zu kategorisieren [3].
Der wichtigste Aspekt von Deep Learning ist das aufwendige und Bias-behaftete Feature-Engineering für die automatische Dimensionsreduktion. Mit Bias bezeichnet man die systematische Verzerrung eines Modellverhaltens, mit anderen Worten die Abweichung zwischen dem erwarteten richtigen Modellergebnis und dem in der Praxis eingetretenen Modellergebnis.⁵ Bis zum Deep Learning war manuelles Feature-Engineering also Dimensionsreduktion durch Merkmalauswahl durch den Entwickler der Standard, aber damit auch ein Problem, denn der Entwickler musste wissen, welche Merkmale geeignet waren. Die Merkmalauswahl musste man durchführen, um die Dimension der Eingabedaten zu verringern (Fluch der Dimensionen), Objektklassifikation zu vereinfachen und somit Trainings- und Rechenzeiten deutlich zu verkürzen [1]. Genauso wie bei früheren neuronalen Netzen sind auch beim Deep Learning das Training und dessen Optimierung dennoch eine große Herausforderung. Denn oft müssen Algorithmen stundenlang, wenn nicht tagelang mit großen Datenmengen trainiert werden, aber auch dank der neuen mächtigen Grafikprozessoren (Graphics Processing Unit, kurz GPU) und immer schneller werdender Computer arbeitet Deep Learning heute viel effektiver als früher.
Durch Deep Learning erzielt man jetzt auch bei sehr komplexen Eingaben wie einer Grafik oder einem Bild eine viel höhere Analysegenauigkeit als früher. Sehr viele heutiger Innovationen wie fahrerlose Autos, unbemannte Luftfahrzeuge und intelligente Sprachassistenten wie Alexa und Siri basieren größtenteils auf Deep-Learning-Methoden. Es gibt verschiedenste Deep-Learning-Bibliotheken wie Deep Learning für Biometrie, Deep Learning für Big Data, Deep Learning für Bilderkennung, Deep Learning für Sprachverarbeitung, Deep Learning für Anomalie-Erkennung in Netzwerken, Deep Learning fürs Schach- und Go-Spielen usw. Im Jahr 2018 erhielten Geoffrey Hinton, Yoshua Bengio und Yann LeCun den Turing Award wegen ihrer Beiträge zur Weiterentwicklung von neuronalen Netzen und Deep Learning.
1.4.3 Machine Learning
Machine Learning (ML) ist im Allgemeinen nichts anderes als ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten: Dabei entwickelt eine Machine-Learning-Technik aufgrund der vorliegenden Beispiele sein eigenes statistisches Modell, welches dann auf neue Fragestellungen derselben Art angewendet werden kann, sodass neue Entscheidungen oder aber auch Vorhersagen getroffen werden können. Ein solches statistische Modell macht eigentlich nichts anderes als eine Vorhersage wie „Das, was in diesem Bild zu sehen ist, ist mit 77,7 % Wahrscheinlichkeit ein Adler". Abb. 1.2 veranschaulicht den Zusammenhang zwischen neuronale Netze, Machine Learning und Deep Learning.
../images/466218_1_De_1_Chapter/466218_1_De_1_Fig2_HTML.pngAbb. 1.2
Machine Learning ist ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten. Sowohl Deep Learning als auch neuronale Netze bilden eine Teilmenge von Machine Learning.
Aber nicht alle Machine-Learning-Ansätze müssen nach einem auf einem statistischen Modell basierenden Schema arbeiten, denn es kommt beim Machine Learning sehr stark auch auf die Art der verwendeten Wissensrepräsentation an. Daher unterscheiden wir zwischen symbolischen und nicht-symbolischen Ansätzen.
1.4.3.1 Symbolische vs. nicht-symbolische Ansätze
Symbolische Ansätze des Machine Learning basieren auf symbolische Logiken, wie z. B. Aussagen- oder Prädikatenlogik. Dabei werden die Merkmale und Zusammenhänge von Mustern explizit symbolisch repräsentiert. Daher sind sie auch sehr gut nachvollziehbar. Symbolische Ansätze setzen auf ein berechenbares und interpretierbares Verhalten. Einige Beispiele dafür sind: Entscheidungsbäume, Ontologien, Wissensgraphen und das Semantic Web. Selbst wenn Symbolismus in den letzten Jahren seine Bedeutung etwas verloren hat, gibt es aktuell auch einige symbolische Ansätze, die sehr hohe Akzeptanz genießen, wie z. B. Entscheidungsbäume, Regeln und Ontologien. Es ist jedoch möglich, dass symbolische Ansätze in Zukunft wieder sehr an Bedeutung gewinnen, wenn die Nachvollziehbarkeit eines Systems wieder in den Vordergrund rückt [4].
Bei nicht-symbolischen Ansätzen werden das Wissen sowie die zugehörigen Zusammenhänge nicht explizit, sondern implizit gespeichert. Die Wissensrepräsentationen müssen zuerst anhand einer großen Menge von Beispielen trainiert werden. Im Gegensatz zu den symbolischen Ansätzen ist das Verhalten eines nicht-symbolischen Ansatzes oft nicht nur ganz unvorhersehbar, sondern auch nicht immer nachvollziehbar. So kann man oft im Nachhinein nicht ermitteln, wie z. B. die Parameter eines neuronalen Netzes ihre Werte bekommen haben und das Netz zu seiner Entscheidung gekommen ist (Blackbox-Effekt). Trotzdem haben nicht-symbolischen Ansätze derzeit u. a. aufgrund ihrer hohen Flexibilität und Einsetzbarkeit für die Industrie mit Abstand die wichtigste Bedeutung. Auf nicht-symbolischen Ansätzen basierende Machine-Learning-Techniken lassen sich im Prinzip mit drei Lernverfahren kombinieren: überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised Learning) und bestärkendes Lernen (reinforcement learning). Zu nicht-symbolischen Ansätzen zählen nicht nur neuronale Netze und Deep Learning, sondern auch Techniken wie die Support Vektor Machine (SVM).
1.4.3.2 Lerntechniken für Machine Learning
Wenn es um Lernmethoden bei Machine Learning geht, muss man auch bedenken, dass bestimmte Lernmethoden zu bestimmten Ansätzen besser passen. So unterscheiden sich in der Regel insbesondere die Methoden für überwachtes und unüberwachtes Lernen. Die Problemstellung bei überwachtem Lernen (supervised learning) ist die Vorhersage von unbekannten und zukünftigen Werten, dafür ist die Problemstellung bei unüberwachtem Lernen (unsupervised learning), etwas über die Daten zu erfahren. Die dritte Lernmethode wäre dann bestärkendes Lernen (reinforcement learning), bei dem es um völlig selbstständiges Lernen durch die eigenen Erfahrungswerte bzw. durch Belohnung oder Bestrafung geht. Ein typisches Beispiel zu solchen Systemen sind mobile Roboter wie AlphaGo und AlphaZero.
1.4.3.2.1 Überwachtes Lernen
Beim überwachten Lernen (supervised learning) muss jeder einzelne Datensatz, mit dem das Netz trainiert werden soll, bereits mit der richtigen Antwort (label/Etikett) markiert worden sein. Wenn das Netz z. B. Flugzeugmodelle erkennen soll, dann muss jedes Flugzeugbild in den Trainigsdaten jeweils mit dem richtigen Label beschriftet sein wie Boeing 737, Boeing 777, Airbus 320 usw. So bringt man der Maschine bei, wie ein Flugzeug und ein bestimmtes Modell aussehen. Im Prinzip erstellt man dadurch am Ende eine Nachschlagetabelle.
Wenn man aber bedenkt, dass ein Teil der heutigen erfolgreichen Systeme mit hunderttausenden sogar in manchen Fällen mit Millionen von Beispielen trainiert werden muss, kann das schnell zu aufwendig sein. Ohne ein erfolgreiches Training kann es normalerweise kein System schaffen, auf neue Beispiele mit einer sehr hohen Genauigkeit zu antworten. Bei Anwendung solcher Verfahren muss daher immer sichergestellt sein, dass Beispiele möglichst richtig sind und hohe Qualität haben, sonst besteht die Gefahr, dass die Maschine am Ende doch etwas Falsches lernt.
Das Problem mit der Nachschlagetabelle kommt erst dann, wenn sie wirklich zu groß wird. Dann muss jedes neue Bild zuerst mit sehr vielen anderen Bildern verglichen werden, um herauszufinden, welcher Kategorie es angehört. Um diesen Aufwand zu vermeiden, verwendet man eine mathematische Funktion. Diese Funktion kennt aufgrund der Erfahrungswerte den zu erwartenden Wert und ist in der Lage zu schätzen, ob das neue Bild z. B. ein Flugzeug ist oder nicht, wenn ja welches Modell usw. und all das, ohne jedes Bild in der Datenbank einzeln zu vergleichen [5].
Überwachtes Lernen wird oft zur Klassifizierung von Objekten in Bildern und zur Erstellung von Vorhersagen und Prognosen verwendet, z. B. in medizinischen Bereichen. Beispiele für Ansätze, auf die überwachtes Lernen angewendet werden, sind Entscheidungsbäume (symbolisch) oder nicht-symbolische Ansätze wie Regressionsmodelle (lineare und logistische Regression), Klassifikations- und Regressionsbäume (CART), Random Forests, Bayessche Modelle, SVM (Support Vector Machine) sowie neuronale Netze [4]. Die Abb. 1.3 zeigt das Prinzip des überwachten Lernens (supervised learning).
../images/466218_1_De_1_Chapter/466218_1_De_1_Fig3_HTML.pngAbb. 1.3
Überwachtes Lernen
Die beliebtesten Varianten von neuronalen Netzen, die mit Supervised Learning verwendet werden, sind: Convolutional Neural Networks (CNN), Multilayer Perceptron (MLP) und Recursive Neural Networks (RNN). Während man CNN für die Mustererkennung heutzutage insbesondere in digitalen Kameras und Smartphones verwendet, wird MLP für die Behandlung von Daten mit unspezifischer Struktur eingesetzt. RNN wird jedoch für die Verarbeitung sequenzieller Daten wie Video, Audio und Text verwendet. In diesem Bereich sind aktuell zwei Verfahren führend: Gated Recurrent Unit (GRU) und Long Short-Term Memory (LSTM) [6].
1.4.3.2.2 Unüberwachtes Lernen
Wie bereits erwähnt, ist die Problemstellung bei unüberwachtem Lernen (unsupervised learning), etwas über die Daten zu erfahren und diese entsprechend zu gruppieren (Englisch: Clustering). Oft handelt es sich hier um große Datenmengen ohne eine bestimmte Struktur und ein bestimmtes Label. Die Struktur der Daten sowie deren Zusammenhänge werden erst zur Verarbeitung der Daten aufgespürt. Die Abb. 1.4 illustriert das Prinzip des unüberwachten Lernens (unsupervised learning). Das ist jedoch in den meisten Fällen keine leichte Aufgabe, zumindest mit den derzeitigen Ansätzen und Methoden. Hier sieht man auch, warum überwachtes Lernen häufiger eingesetzt wird als unüberwachtes Lernen: Denn die Akkuratheit des erlernten Modells ist mit überwachten Verfahren typischerweise höher als bei unüberwachten Verfahren.
../images/466218_1_De_1_Chapter/466218_1_De_1_Fig4_HTML.pngAbb. 1.4
Unüberwachtes Lernen
Die unüberwachte Lernmethode ist eigentlich das, was uns Menschen am nächsten liegt. Denn auch die Menschen lernen selbstbestimmt und unüberwacht, d. h. anhand von nur sehr wenigen oder gar keinen konkret benannten Daten [7]. Es ist jedoch derzeit mit den vorhandenen Ansätzen und Methoden nicht so leicht, ein solches System zu entwickeln. Wenn dies jedoch zukünftig erreicht wird, wird bestimmt ein neues Kapitel im Bereich künstliche Intelligenz zu öffnen sein.
Für unüberwachtes Lernen können z. B. Clustering (nicht-symbolisch) oder aber auch Assoziationsregellernen (symbolisch) eingesetzt werden. Beispiele für Ansätze, die beim unüberwachten Lernen angewendet werden, sind Generative Adversarial Networks (GAN), Hidden Markov Model (HMM), Hauptkomponenten-Analyse sowie k-means Clustering.
1.4.3.2.3 Bestärkendes Lernen
Beim bestärkenden Lernen (reinforcement learning) lernt das System durch seine Interaktionen und Erfahrungen direkt von der Umwelt. Der Entscheidungsträger ist das Modell selbst. Durch seine Handlungen und Interaktionen mit der Umwelt erfährt er bei richtiger Entscheidung eine Belohnung oder aber eine Bestrafung, wenn diese doch nicht richtig bzw. zielführend war. Einem solchen System wird vom Entwickler am Anfang nur das Ziel vorgegeben. Die Abb. 1.5 veranschaulicht das Prinzip des bestärkenden Lernens (reinforcement learning).
../images/466218_1_De_1_Chapter/466218_1_De_1_Fig5_HTML.pngAbb. 1.5
Bestärkendes Lernen
Ein typisches Beispiel für bestärkendes Lernen ist ein mobiler Roboter, der sich in einem Raum befindet und den Weg zum Ausgang finden möchte. Dem Roboter sind in diesem Fall weder seine eigene räumliche Position noch die Position des Ausgangs bekannt. Ihm stehen für die Wahrnehmung seiner Umwelt nur seine Sensoren sowie Kameras zur Verfügung. Er weiß auch noch nicht, wo sich mögliche Hindernisse befinden. Der Roboter muss jedoch selbst nach jeder eigenen Aktion lernen, ob diese zielführend war oder nicht, und am Ende selbst den Weg zum Ausgang finden.
1.5 Semantische künstliche Intelligenz
Wenn es um Machine Learning geht, werden auch in Bezug auf das Semantic Web einige berechtigte Fragen gestellt wie: Warum ist die dominante Technik im Bereich künstliche Intelligenz derzeit Machine Learning und nicht das Semantic Web? Sind Machine-Learning-Techniken in der Lage, Semantic-Web-Techniken vollständig zu ersetzen? usw. Hier soll versucht werden, eine Antwort auf solche Fragen zu finden.
Sowohl Machine Learning als auch das Semantic Web sind Projekte im Bereich künstliche Intelligenz. Einer der wichtigen Bausteine von Semantic-Web-Anwendungen sind neben Regeln sogenannte Ontologien, mit welchen Wissen und Zusammenhänge sehr aussagekräftig dargestellt werden können. Ontologien gehören zur Kategorie der symbolischen Ansätze des Machine Learning, während derzeit sehr populäre ML-Ansätze wie neuronale Netze und Deep Learning zu den nicht-symbolischen gehören. Eine wichtige Eigenschaft von Ontologien ist, dass sie nicht wie ein neuronales Netz oder Deep Learning trainiert werden, sondern modelliert werden müssen, und zwar derzeit in den meisten Fällen manuell, was natürlich ein ziemlich aufwendiger und teurer Prozess ist. Einmal modelliert, können sie jedoch sehr komplexe Sachverhalte mit einer hohen semantischen Ausdruckstärke repräsentieren.
Ein sehr wichtiger Vorteil von Ontologien ist dabei deren Nachvollziehbarkeit. Also haben Semantic-Web-Anwendungen, die mit Ontologien entwickelt wurden, nicht nur hohe Ausdrucksstärke, sondern kommen auch zu Ergebnissen, die im Gegensatz zu den Ergebnissen von nicht-symbolischen Ansätzen wie neuronale Netze mit Blackbox-Effekten völlig nachvollziehbar sind.
Grundsätzlich gibt es ein wichtiges Zusammenspiel zwischen Machine Learning und semantischer KI, welches man auch semantische Plausibilisierung nennt. D. h., man überprüft mithilfe von Ontologien, ob die Detektionsergebnisse eines neuronalen Netzes überhaupt zutreffend sein können. Zum Beispiel kann ein autonomes Fahrzeug zwar ein