Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Semantische Datenintelligenz im Einsatz
Semantische Datenintelligenz im Einsatz
Semantische Datenintelligenz im Einsatz
eBook558 Seiten4 Stunden

Semantische Datenintelligenz im Einsatz

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Semantische Technologien haben mit der Entwicklung von datenbasierten Systemen wie Neuronale Netze, Deep Learning und Machine Learning ihre Bedeutung nicht verloren, sondern werden als effiziente wissensbasierte Systeme immer wichtiger. Denn intelligente Systeme der Zukunft müssen nicht nur in der Lage sein zu sagen, was sie entschieden haben, sondern auch wie sie zu dieser Entscheidung gekommen sind. Solche Systeme sind jedoch nur mit Hilfe von wissensbasierten Systemen auf der Grundlage von semantischen Technologien erreichbar. Heute reichen die Anwendungen von semantischen Systemen von der semantischen Suche, Knowledge Graphs, Chatbots, NLP, in der Medizin bis zur Telekommunikation, Verwaltung und Robotik. Semantische Technologien werden spätestens mit dem Voranschreiten des Internet of Things (IoT) und Industrie 4.0 Anwendungen allgegenwärtig sein. Dies ist unumgänglich, denn ohne sie ist auch die Interoperabilität unter Maschinen und insbesondere unter Roboter für eine intelligente Zusammenarbeit und Produktion nicht so einfach umsetzbar. Dafür gibt es bereits heute zahlreiche Beispiele aus der Industrie.


SpracheDeutsch
HerausgeberSpringer Vieweg
Erscheinungsdatum9. Sept. 2021
ISBN9783658319380
Semantische Datenintelligenz im Einsatz

Ähnlich wie Semantische Datenintelligenz im Einsatz

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Semantische Datenintelligenz im Einsatz

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Semantische Datenintelligenz im Einsatz - Börteçin Ege

    © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021

    B. Ege, A. Paschke (Hrsg.)Semantische Datenintelligenz im Einsatzhttps://doi.org/10.1007/978-3-658-31938-0_1

    1. Einblick in die Welt der künstlichen Intelligenz

    Börteçin Ege¹  

    (1)

    AG Corporate Semantic Web, Freie Universität Berlin, Berlin, Deutschland

    Börteçin Ege

    Email: info@bortecin.com

    1.1 Einleitung

    1.2 Die Anfangszeiten

    1.3 Zwei KI-Winter und vier Meilensteine

    1.4 Auf dem Weg zu selbstlernenden Maschinen

    1.5 Semantische künstliche Intelligenz

    1.6 Wissensgraphen

    1.7 Regelbasierte Systeme

    1.8 Wo liegt der Schlüssel zum Erfolg?

    1.9 Quo Vadis?

    Literatur

    Zusammenfassung

    Dieser Beitrag gibt dem Leser ein Überblick über die Künstliche-Intelligenz-Technologien und zwar von der Entstehung und Entwicklung bis zu den aktuell verwendeten Ansätzen und Methoden: Welche Höhen und Tiefen hat künstliche Intelligenz bis heute erlebt? Was verstehen wir unter neuronalen Netzen, Deep Learning sowie Machine Learning? Welche Lerntechniken gibt es für Machine Learning? Benötigen wir sowohl symbolische als auch nicht-symbolische Ansätze? Brauchen wir regelbasierte Systeme in KI-Projekten doch nicht mehr? Welche Rolle werden künftig Semantic-Web-Standards in der Entwicklung der künstlichen Intelligenz spielen? Welche Nachteile haben Machine-Learning-Ansätze? Was versteht man unter einem Blackbox-Effekt? Welche Vorteile haben Semantic-Web-Ansätze? Wo liegt der Schlüssel zum Erfolg? Was erwartet uns in Zukunft?

    Dipl.-Ing. Börteçin Ege

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Figa_HTML.jpg

    studierte Informatik an der Technischen Universität Wien. Er beschäftigt sich seit 2005 mit dem Semantic Web und künstlicher Intelligenz. Im Jahr 2007 gründete er eine Arbeitsgruppe, die sich mit Semantic-Web-Technologien beschäftigt. Nach langjährigen beruflichen Erfahrungen in verschiedenen Firmen und Konzernen als Software-Engineer brachte er im Jahr 2015 mit zwei Kollegen gemeinsam sein erstes Buch, Corporate Semantic Web, beim Springer-Verlag heraus. Er ist Autor, auch von zahlreichen populärwissenschaftlichen Beiträgen.

    1.1 Einleitung

    Was verstehen wir eigentlich unter künstlicher Intelligenz: Einen Taschenrechner, ein Buchhaltungsprogramm oder einen Schachcomputer? Aus heutiger Sicht nennen wir eine Software, die aus ihren Erfahrungen lernen und sich dementsprechend weiterentwickeln kann, ein selbstlernendes System bzw. künstliche Intelligenz. Künstliche Intelligenz besteht aus einer Familie von Ansätzen und Techniken. Dazu zählen unter anderem Logik (z. B. Aussagenlogik, Prädikatenlogik, Entscheidbarkeit), unsicheres Wissen und Schlussfolgern (Bayessche Netze, Fuzzy-Logik), Suchstrategien (uninformierte Suche, heuristische Suche), Wissensrepräsentation (Ontologien und Semantic Web), Machine Learning (neuronale Netze und Deep Learning in Kombination von Supervised und Unsupervised Learning sowie von Reinforcement Learning), Natural Language Processing, Computervision und Robotik. In den letzten Jahren rückten insbesondere die Kategorie Machine Learning und die damit verbundenen nicht-symbolische Ansätze immer mehr in den Brennpunkt der künstlichen Intelligenz. Dabei basieren alle nicht-symbolische Machine-Learning-Ansätze eigentlich rein auf Statistik und Wahrscheinlichkeitstheorie und stellen in der Wahrheit kein echtes wissensbasiertes System dar. Man muss jedoch zugeben, dass in den letzten Jahren zum einen mit Deep Learning und zum anderen mit steigender Rechenleistung ein ganz frischer Wind in die künstliche Intelligenz kam. Beispielsweise ermöglicht Deep Learning heute sehr vieles, was früher nicht so selbstverständlich war, und zwar von der Sprachverarbeitung und Bilderkennung bis zum Go-Spielen. Im Rahmen dieses Beitrags sollen zuerst die bisherigen relativ wichtigen Entwicklungen und aktuellen Trends mit Schwerpunkt Lernen im Bereich künstliche Intelligenz unter die Lupe genommen werden.

    1.2 Die Anfangszeiten

    Die anfänglichen Zeiten der künstlichen Intelligenz sind durch drei Wissenschaftler gekennzeichnet: Kurt Gödel, Alan Turing und John McCarthy. Der österreichische Logiker Gödel (1906–1978) zeigte im Jahr 1931, dass wahre Aussagen in der Prädikatenlogik 1. Stufe auch herleitbar sind. Er zeigte darüber hinaus aber auch, dass es in Logiken höherer Stufen auch wahre Aussagen gibt, die jedoch nicht beweisbar sind. Diese Aussagen Gödels gelten heute als Geburtsstunde der künstlichen Intelligenz.

    Der zweite Durchbruch kam durch den britischen Wissenschaftler Alan Turing (1912–1954), der später wegen seiner maßgeblichen Beiträge zur Entschlüsselung von ENIGMA bekannt wurde. So zeigte Turing im Jahr 1937 zunächst mit Halteproblem, dass es kein Programm gibt, das für eine beliebige Eingabe entscheiden kann, ob dieses Programm in eine Endloseschleife gerät oder nicht. 1950 entwickelt er den Turing-Test. Ein Turing-Test gilt als bestanden, wenn ein menschlicher Fragensteller nicht unterscheiden kann, ob seine Fragen von einem Menschen oder doch von einem Computer beantwortet werden. Obwohl der Turing-Test nicht das einzige Kriterium ist, Maschinenintelligenz zu messen, ist er insbesondere unter den Wissenschaftlern nach wie vor ein sehr populärer Ansatz. Der Turing-Test gilt jedoch bis heute nicht als bestanden.¹ Turings beispiellose Beiträge zur Informatik gelten unumstritten. Der jedes Jahr von Association for Computing Machinery (ACM) verliehene und nach Alan Turing benannte Turing-Award gilt heute als höchste Auszeichnung im Bereich Informatik und ist vergleichbar mit der Fields-Medaille im Bereich Mathematik oder sogar mit dem Nobelpreis. Im Jahr 2019 hat die britische Regierung beschlossen, Turings Bild auf die neuen 50-Pfund-Banknoten zu bringen.

    Der dritte Wissenschaftler, der zur Entstehung der künstlichen Intelligenz maßgeblich beigetragen hat, ist der US-amerikanische Computerwissenschaftler John McCarthy (1927–2011), welcher im Jahr 1971 den Turing-Award erhielt. McCarthy organisierte im Jahr 1956 mit Marvin Minsky, Claude Shannon und Nathaniel Rochester den ersten Workshop über künstliche Intelligenz im Dartmouth-College in den USA. Außerdem führte er hier zum ersten Mal den Begriff künstliche Intelligenz ein. Dieser Workshop gilt heute als die Geburtsstunde der künstlichen Intelligenz. John McCarthy ist auch der Erfinder der Programmiersprache LISP (1958), welche immer noch den Markt in den USA dominiert und somit eine der am meisten benutzten Programmiersprachen im Bereich der künstlichen Intelligenz ist [1].

    1.3 Zwei KI-Winter und vier Meilensteine

    Auch der Lebenszyklus der künstlichen Intelligenz besteht aus Höhen und Tiefen. So hat KI bisher zwei Phasen erleben müssen, die man als KI-Winter bezeichnet. Während dieser zwei sog. KI-Winter standen fast alle weiteren Entwicklungen still, und man gab die Hoffnungen auf, dass es bald wirklich weitergehen würde. Der erste KI-Winter fällt in den Zeitraum ca. 1970–1980, während der zweite 1987–1997 stattgefunden hat. Die Gründe waren dafür jedes Mal anders, lassen sich aber generell als die Ausschöpfung der seinerzeit vorhandenen technologischen Möglichkeiten umschreiben.

    1.3.1 IBM Deep Blue

    Doch im Jahr 1997 kam der erste wirkliche Durchbruch: IBM Deep Blue gelang es als erstem Computer, den damals amtierenden Schachweltmeister Garry Kasparov in einer Partie zu besiegen. Ein Jahr danach schaffte es Deep Blue sogar, gegen ihn einen ganzen Wettkampf aus sechs Partien zu gewinnen. Dabei war Deep Blue eigentlich nicht so intelligent, wie es damals vielleicht von vielen angenommen wurde. Denn er war keinesfalls lernfähig, und seine Erfolge beruhten größtenteils auf einer sehr hohen Verarbeitungsgeschwindigkeit durch parallel computing. Diese Serie von Siegen gegen Kasparov war jedoch das erste Zeichen, dass der zweite sog. KI-Winter nach langen Jahren endlich vorbei war.

    1.3.2 IBM Watson

    Der nach dem ersten Präsidenten von IBM (Thomas J. Watson) benannte Supercomputer wurde als Teil des Forschungsprojektes DeepQA entwickelt. Watson ist in erster Linie ein QA-System, also ein System, das im Wesentlichen effizient passende Textpassagen zu einer Frage findet. Seine Berühmtheit erlangte Watson im Jahr 2011, nachdem er sich bei der US-Quizshow „Jeopardy!" gegen seine zwei menschlichen Mitstreiter durchsetzte und aus dem Rennen als klarer Sieger hervorging. Das Ziel des Projekts ist letztendlich, eine hochwertige semantische Suchmaschine zu schaffen, die möglichst auch selbstlernfähig ist. Watsons Wissensquellen bestehen insbesondere aus Enzyklopädien, Datenbanken, literarischen Werken, Taxonomien und Ontologien.² Wie von IBM mitgeteilt wurde, bestand Watsons Wissensschatz aus 200 Millionen strukturierten und unstrukturierten Dokumenten, als er 2011 bei „Jeopardy!" seinen ersten Sieg gegen einen Menschen erringen konnte. Watson ist zwar teilweise ein lernfähiges System, kann jedoch weder kreativ sein noch neues Wissen schaffen. Er ist aber ein großes und bedeutendes Vorhaben in die richtige Richtung [2].

    1.3.3 Google AlphaGo

    Der dritte und neueste Durchbruch kam im Jahr 2016 dieses Mal mit AlphaGo, welches von Google DeepMind entwickelt wurde. Angeblich spielten bei diesem Erfolg nicht nur Deep Learning, sondern auch Monte-Carlo-Simulationen eine wichtige Rolle. Nach Deep Blues‘ Sieg gegen Kasparov im Jahr 1997 galt ein Sieg gegen menschliche Go-Spieler als nächste Herausforderung. Der erste Sieg von AlphaGo gegen einen bekannten Go-Spieler erfolgte im Jahr 2015. Nach einer Reihe von Spielen gelang es AlphaGo im Oktober 2015 zuerst den mehrfachen Europameister Fan Hui und dann im folgenden Jahr, im März 2016, einen der weltbesten Go-Spieler, nämlich Lee Sedol, zu besiegen.

    1.3.4 Autonomes Fahren

    Eine weitere bahnbrechende Entwicklung ist das autonome Fahren. Unter autonomem Fahren verstehen wir Autos, die im Prinzip auch ohne menschliches Eingreifen selbst fahren können. Dank der aktuellen Entwicklungen im Bereich der künstlichen Intelligenz, insbesondere durch Deep Learning, sind große technische Fortschritte in der Bilderkennung erzielt worden, und somit ist die Erkennungskraft von bestimmten Systemen massiv gestiegen. Auch wenn sie derzeit aus bestimmten Gründen wie schlechte Sicht, verschmutzte Sensoren oder Dunkelheit manchmal versagt und dadurch Fehler, Pannen oder gar Unfälle verursacht, ist diese bahnbrechende Technologie doch auf Erfolgskurs. Nicht nur die größten Automobilhersteller wie Toyota, Volkswagen und Volvo, sondern auch Tech-Riesen wie Google und Uber befinden sich in einem Kopf-an-Kopf-Rennen, um als Erste ein zuverlässiges fahrerloses Auto mit unterschiedlichen Autonomiestufen vom assistierten Fahren und teilautomatisierten Fahren bis zum hoch- und voll automatisierten sowie völlig autonomen Fahren schon in absehbarer Zeit herzustellen.³ Das Problem beim autonomen Fahren ist eigentlich nicht wirklich der technische Fortschritt, also die KI, sondern es sind vielmehr die sozialen und ethischen Fragen, die es aufwirft, wie z. B. Was passiert bei einem unausweichlichen Unfall? Sie finden mehr zu diesem Thema in unserem Buch im Kap. 13.

    Ethische und philosophische Aspekte von künstlicher Intelligenz.

    1.4 Auf dem Weg zu selbstlernenden Maschinen

    Grundsätzlich ist Machine Learning (ML) ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten: Dabei entwickelt ein Machine-Learning-Ansatz aufgrund der vorliegenden Beispiele sein eigenes statistisches Modell, welches dann auf neue Fragestellungen derselben Art angewendet werden kann, sodass neue Entscheidungen oder aber auch Vorhersagen getroffen werden können.

    Es gibt im Prinzip drei Arten, wie Maschinen lernen können: überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised learning) und bestärkendes Lernen (reinforcement learning), die natürlich sowohl von neuronalen Netzen als auch von Deep Learning ererbt werden. Dafür unterscheiden wir im Rahmen von Machine Learning auch zwischen symbolischen und nicht-symbolischen Ansätzen. Sowohl überwachte als auch unüberwachte Lerntechniken sowie symbolische und nicht-symbolisch Techniken sind orthogonale Dimensionen. Das bedeutet, dass alle drei Machine-Learning-Lernmethoden grundsätzlich sowohl auf symbolische als auch auf nicht-symbolische Ansätze angewendet werden können. Dabei hängt die Auswahl des geeigneten Ansatzes (Verwendung von einem symbolischen oder nicht-symbolischen Ansatz in Kombination von überwachtem oder unüberwachtem Lernen usw.) natürlich auch von der Aufgabenstellung ab.

    Doch wie unterscheide ich zwischen symbolischen und nicht-symbolischen Ansätzen? Antwort: Alles, was ein für Menschen interpretierbares Modell erzeugt (z. B. Entscheidungsbäume, Ontologien, Regeln), ist symbolisch. Damit sind aber z. B. Deep Learning, neuronale Netze und SVM (Support Vektor Machine) nicht-symbolisch, da sie nur eine Menge von Vektoren erzeugen. So unterscheiden sich auch die Methoden für überwachtes und unüberwachtes Lernen in der Regel. Die Problemstellung bei überwachtem Lernen ist die Vorhersage von unbekannten und zukünftigen Werten. Die Problemstellung bei unüberwachtem Lernen ist, etwas über die Daten zu erfahren. Beim bestärkenden Lernen geht es schließlich darum, von den Interaktionen mit der Umwelt zu lernen. Siehe dazu auch die Abschn. 1.4.3.1 sowie Abschn. 1.4.3.2.

    1.4.1 Neuronale Netze

    Die ersten neuronale Netze, die man manchmal auch künstliche neuronale Netze (Artificial Neuronal Networks, kurz ANN) nennt, wurden in den 40er-Jahren von den US-amerikanischen Wissenschaftlern Warren McCulloch (1898–1969) und Walter Pitts (1923–1969) entwickelt. Im Jahr 1962 stellte der US-amerikanische Informatiker und Psychologe Frank Rosenblatt das Konzept von Perception („Wahrnehmung") vor. 1969 entdeckten Arthur Bryson und Yu-Chi Ho Backpropagation-Verfahren für mehrschichtige Netze, welche Ende der 80er-Jahre einen massiven Einfluss auf dem Gebiet der neuronalen Netze und später auch auf die Grundlage von Deep Learning hatten (Deep Learning ist eine spezielle Art von neuronalen Netzen mit sehr vielen Schichten). Sowohl neuronale Netze als auch Deep Learning lassen sich von unserem Gehirn inspirieren, das sich aufgrund seiner Erfahrungen und seiner neuroplastischen Struktur ständig ändert (das bedeutet jedoch auf keinen Fall, dass sie wie unser Gehirn arbeiten). Die Abb. 1.1 illustriert ein vereinfachtes künstliches neuronales Netz mit zwei Zwischenschichten. Neuronale Netze bilden eine Teilmenge von Machine Learning. Aktuell gibt es eine große Anzahl von Arten von neuronalen Netzen, wie z. B. Long Short-Term Memory (LSTM), Convolutional Neural Networks (CNN), Multilayer Perceptron (MLP), Recurrent Neural Network (RNN) und Recursive Neural Network (RNN).⁴

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Fig1_HTML.png

    Abb. 1.1

    Ein Beispiel zu einem vereinfachten künstlichen neuronalen Netz mit zwei Zwischenschichten

    Ein neuronales Netz erkennt aus einer großen Menge von Trainingsdaten bzw. Beispielen charakteristische Eigenschaften bzw. die vorhandenen Muster. Das schafft ein neuronales Netz, indem es während des Trainings seine einzelnen Parameter und seine zugehörigen Gewichte ständig anpasst (seine innere Struktur bleibt dabei stets unverändert). Ein neuronales Netz kann in der Praxis jedoch nur für eine bestimmte Aufgabe trainiert und optimiert werden, da sonst durch weitere Trainingseinheiten bereits Gelerntes überschrieben werden könnte. Sobald einmal trainiert, leisten neuronale Netze jedoch hervorragende Arbeit. Dabei sind sie meistens viel besser als Menschen. In den letzten Jahren kommen sie nicht nur in der Wissenschaft, sondern immer mehr auch in der Praxis zum Einsatz, wie z. B. in der automatischen Bildverarbeitung, in der natürlichen Sprachverarbeitung (NLP), in der Erstellung von Wettervorhersagen sowie für die Steuerung von selbstfahrenden Autos.

    1.4.2 Deep Learning

    Der Begriff Deep Learning tauchte das erste Mal im Jahr 2000 auf. Deep Learning ist eine spezielle Art von neuronalen Netzen und gehört mit seiner komplexen und mehrschichtigen inneren Struktur einer anderen Klasse neuronaler Netze an. Es ist im Prinzip nichts anderes als etwas komplexere neuronale Netze und zugleich auch eine Teilmenge des Machine Learning. Verglichen mit ähnlichen Systemen basiert der Erfolg von Deep Learning auf zahlreichen Zwischenschichten, die sich zwischen Eingabe- und Ausgabeschichten befinden. Ein modernes Deep Learning wie ResNet-152 besteht heute aus mehr als 100 Schichten und Millionen Parametern. Somit sind Deep-Learning-Netze in der Lage, Objekte, wie z. B. Bilder mit einer höheren Genauigkeit zu kategorisieren [3].

    Der wichtigste Aspekt von Deep Learning ist das aufwendige und Bias-behaftete Feature-Engineering für die automatische Dimensionsreduktion. Mit Bias bezeichnet man die systematische Verzerrung eines Modellverhaltens, mit anderen Worten die Abweichung zwischen dem erwarteten richtigen Modellergebnis und dem in der Praxis eingetretenen Modellergebnis.⁵ Bis zum Deep Learning war manuelles Feature-Engineering also Dimensionsreduktion durch Merkmalauswahl durch den Entwickler der Standard, aber damit auch ein Problem, denn der Entwickler musste wissen, welche Merkmale geeignet waren. Die Merkmalauswahl musste man durchführen, um die Dimension der Eingabedaten zu verringern (Fluch der Dimensionen), Objektklassifikation zu vereinfachen und somit Trainings- und Rechenzeiten deutlich zu verkürzen [1]. Genauso wie bei früheren neuronalen Netzen sind auch beim Deep Learning das Training und dessen Optimierung dennoch eine große Herausforderung. Denn oft müssen Algorithmen stundenlang, wenn nicht tagelang mit großen Datenmengen trainiert werden, aber auch dank der neuen mächtigen Grafikprozessoren (Graphics Processing Unit, kurz GPU) und immer schneller werdender Computer arbeitet Deep Learning heute viel effektiver als früher.

    Durch Deep Learning erzielt man jetzt auch bei sehr komplexen Eingaben wie einer Grafik oder einem Bild eine viel höhere Analysegenauigkeit als früher. Sehr viele heutiger Innovationen wie fahrerlose Autos, unbemannte Luftfahrzeuge und intelligente Sprachassistenten wie Alexa und Siri basieren größtenteils auf Deep-Learning-Methoden. Es gibt verschiedenste Deep-Learning-Bibliotheken wie Deep Learning für Biometrie, Deep Learning für Big Data, Deep Learning für Bilderkennung, Deep Learning für Sprachverarbeitung, Deep Learning für Anomalie-Erkennung in Netzwerken, Deep Learning fürs Schach- und Go-Spielen usw. Im Jahr 2018 erhielten Geoffrey Hinton, Yoshua Bengio und Yann LeCun den Turing Award wegen ihrer Beiträge zur Weiterentwicklung von neuronalen Netzen und Deep Learning.

    1.4.3 Machine Learning

    Machine Learning (ML) ist im Allgemeinen nichts anderes als ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten: Dabei entwickelt eine Machine-Learning-Technik aufgrund der vorliegenden Beispiele sein eigenes statistisches Modell, welches dann auf neue Fragestellungen derselben Art angewendet werden kann, sodass neue Entscheidungen oder aber auch Vorhersagen getroffen werden können. Ein solches statistische Modell macht eigentlich nichts anderes als eine Vorhersage wie „Das, was in diesem Bild zu sehen ist, ist mit 77,7 % Wahrscheinlichkeit ein Adler". Abb. 1.2 veranschaulicht den Zusammenhang zwischen neuronale Netze, Machine Learning und Deep Learning.

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Fig2_HTML.png

    Abb. 1.2

    Machine Learning ist ein Oberbegriff für die Generierung von Wissen aus Beispieldaten oder Erfahrungswerten. Sowohl Deep Learning als auch neuronale Netze bilden eine Teilmenge von Machine Learning.

    Aber nicht alle Machine-Learning-Ansätze müssen nach einem auf einem statistischen Modell basierenden Schema arbeiten, denn es kommt beim Machine Learning sehr stark auch auf die Art der verwendeten Wissensrepräsentation an. Daher unterscheiden wir zwischen symbolischen und nicht-symbolischen Ansätzen.

    1.4.3.1 Symbolische vs. nicht-symbolische Ansätze

    Symbolische Ansätze des Machine Learning basieren auf symbolische Logiken, wie z. B. Aussagen- oder Prädikatenlogik. Dabei werden die Merkmale und Zusammenhänge von Mustern explizit symbolisch repräsentiert. Daher sind sie auch sehr gut nachvollziehbar. Symbolische Ansätze setzen auf ein berechenbares und interpretierbares Verhalten. Einige Beispiele dafür sind: Entscheidungsbäume, Ontologien, Wissensgraphen und das Semantic Web. Selbst wenn Symbolismus in den letzten Jahren seine Bedeutung etwas verloren hat, gibt es aktuell auch einige symbolische Ansätze, die sehr hohe Akzeptanz genießen, wie z. B. Entscheidungsbäume, Regeln und Ontologien. Es ist jedoch möglich, dass symbolische Ansätze in Zukunft wieder sehr an Bedeutung gewinnen, wenn die Nachvollziehbarkeit eines Systems wieder in den Vordergrund rückt [4].

    Bei nicht-symbolischen Ansätzen werden das Wissen sowie die zugehörigen Zusammenhänge nicht explizit, sondern implizit gespeichert. Die Wissensrepräsentationen müssen zuerst anhand einer großen Menge von Beispielen trainiert werden. Im Gegensatz zu den symbolischen Ansätzen ist das Verhalten eines nicht-symbolischen Ansatzes oft nicht nur ganz unvorhersehbar, sondern auch nicht immer nachvollziehbar. So kann man oft im Nachhinein nicht ermitteln, wie z. B. die Parameter eines neuronalen Netzes ihre Werte bekommen haben und das Netz zu seiner Entscheidung gekommen ist (Blackbox-Effekt). Trotzdem haben nicht-symbolischen Ansätze derzeit u. a. aufgrund ihrer hohen Flexibilität und Einsetzbarkeit für die Industrie mit Abstand die wichtigste Bedeutung. Auf nicht-symbolischen Ansätzen basierende Machine-Learning-Techniken lassen sich im Prinzip mit drei Lernverfahren kombinieren: überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised Learning) und bestärkendes Lernen (reinforcement learning). Zu nicht-symbolischen Ansätzen zählen nicht nur neuronale Netze und Deep Learning, sondern auch Techniken wie die Support Vektor Machine (SVM).

    1.4.3.2 Lerntechniken für Machine Learning

    Wenn es um Lernmethoden bei Machine Learning geht, muss man auch bedenken, dass bestimmte Lernmethoden zu bestimmten Ansätzen besser passen. So unterscheiden sich in der Regel insbesondere die Methoden für überwachtes und unüberwachtes Lernen. Die Problemstellung bei überwachtem Lernen (supervised learning) ist die Vorhersage von unbekannten und zukünftigen Werten, dafür ist die Problemstellung bei unüberwachtem Lernen (unsupervised learning), etwas über die Daten zu erfahren. Die dritte Lernmethode wäre dann bestärkendes Lernen (reinforcement learning), bei dem es um völlig selbstständiges Lernen durch die eigenen Erfahrungswerte bzw. durch Belohnung oder Bestrafung geht. Ein typisches Beispiel zu solchen Systemen sind mobile Roboter wie AlphaGo und AlphaZero.

    1.4.3.2.1 Überwachtes Lernen

    Beim überwachten Lernen (supervised learning) muss jeder einzelne Datensatz, mit dem das Netz trainiert werden soll, bereits mit der richtigen Antwort (label/Etikett) markiert worden sein. Wenn das Netz z. B. Flugzeugmodelle erkennen soll, dann muss jedes Flugzeugbild in den Trainigsdaten jeweils mit dem richtigen Label beschriftet sein wie Boeing 737, Boeing 777, Airbus 320 usw. So bringt man der Maschine bei, wie ein Flugzeug und ein bestimmtes Modell aussehen. Im Prinzip erstellt man dadurch am Ende eine Nachschlagetabelle.

    Wenn man aber bedenkt, dass ein Teil der heutigen erfolgreichen Systeme mit hunderttausenden sogar in manchen Fällen mit Millionen von Beispielen trainiert werden muss, kann das schnell zu aufwendig sein. Ohne ein erfolgreiches Training kann es normalerweise kein System schaffen, auf neue Beispiele mit einer sehr hohen Genauigkeit zu antworten. Bei Anwendung solcher Verfahren muss daher immer sichergestellt sein, dass Beispiele möglichst richtig sind und hohe Qualität haben, sonst besteht die Gefahr, dass die Maschine am Ende doch etwas Falsches lernt.

    Das Problem mit der Nachschlagetabelle kommt erst dann, wenn sie wirklich zu groß wird. Dann muss jedes neue Bild zuerst mit sehr vielen anderen Bildern verglichen werden, um herauszufinden, welcher Kategorie es angehört. Um diesen Aufwand zu vermeiden, verwendet man eine mathematische Funktion. Diese Funktion kennt aufgrund der Erfahrungswerte den zu erwartenden Wert und ist in der Lage zu schätzen, ob das neue Bild z. B. ein Flugzeug ist oder nicht, wenn ja welches Modell usw. und all das, ohne jedes Bild in der Datenbank einzeln zu vergleichen [5].

    Überwachtes Lernen wird oft zur Klassifizierung von Objekten in Bildern und zur Erstellung von Vorhersagen und Prognosen verwendet, z. B. in medizinischen Bereichen. Beispiele für Ansätze, auf die überwachtes Lernen angewendet werden, sind Entscheidungsbäume (symbolisch) oder nicht-symbolische Ansätze wie Regressionsmodelle (lineare und logistische Regression), Klassifikations- und Regressionsbäume (CART), Random Forests, Bayessche Modelle, SVM (Support Vector Machine) sowie neuronale Netze [4]. Die Abb. 1.3 zeigt das Prinzip des überwachten Lernens (supervised learning).

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Fig3_HTML.png

    Abb. 1.3

    Überwachtes Lernen

    Die beliebtesten Varianten von neuronalen Netzen, die mit Supervised Learning verwendet werden, sind: Convolutional Neural Networks (CNN), Multilayer Perceptron (MLP) und Recursive Neural Networks (RNN). Während man CNN für die Mustererkennung heutzutage insbesondere in digitalen Kameras und Smartphones verwendet, wird MLP für die Behandlung von Daten mit unspezifischer Struktur eingesetzt. RNN wird jedoch für die Verarbeitung sequenzieller Daten wie Video, Audio und Text verwendet. In diesem Bereich sind aktuell zwei Verfahren führend: Gated Recurrent Unit (GRU) und Long Short-Term Memory (LSTM) [6].

    1.4.3.2.2 Unüberwachtes Lernen

    Wie bereits erwähnt, ist die Problemstellung bei unüberwachtem Lernen (unsupervised learning), etwas über die Daten zu erfahren und diese entsprechend zu gruppieren (Englisch: Clustering). Oft handelt es sich hier um große Datenmengen ohne eine bestimmte Struktur und ein bestimmtes Label. Die Struktur der Daten sowie deren Zusammenhänge werden erst zur Verarbeitung der Daten aufgespürt. Die Abb. 1.4 illustriert das Prinzip des unüberwachten Lernens (unsupervised learning). Das ist jedoch in den meisten Fällen keine leichte Aufgabe, zumindest mit den derzeitigen Ansätzen und Methoden. Hier sieht man auch, warum überwachtes Lernen häufiger eingesetzt wird als unüberwachtes Lernen: Denn die Akkuratheit des erlernten Modells ist mit überwachten Verfahren typischerweise höher als bei unüberwachten Verfahren.

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Fig4_HTML.png

    Abb. 1.4

    Unüberwachtes Lernen

    Die unüberwachte Lernmethode ist eigentlich das, was uns Menschen am nächsten liegt. Denn auch die Menschen lernen selbstbestimmt und unüberwacht, d. h. anhand von nur sehr wenigen oder gar keinen konkret benannten Daten [7]. Es ist jedoch derzeit mit den vorhandenen Ansätzen und Methoden nicht so leicht, ein solches System zu entwickeln. Wenn dies jedoch zukünftig erreicht wird, wird bestimmt ein neues Kapitel im Bereich künstliche Intelligenz zu öffnen sein.

    Für unüberwachtes Lernen können z. B. Clustering (nicht-symbolisch) oder aber auch Assoziationsregellernen (symbolisch) eingesetzt werden. Beispiele für Ansätze, die beim unüberwachten Lernen angewendet werden, sind Generative Adversarial Networks (GAN), Hidden Markov Model (HMM), Hauptkomponenten-Analyse sowie k-means Clustering.

    1.4.3.2.3 Bestärkendes Lernen

    Beim bestärkenden Lernen (reinforcement learning) lernt das System durch seine Interaktionen und Erfahrungen direkt von der Umwelt. Der Entscheidungsträger ist das Modell selbst. Durch seine Handlungen und Interaktionen mit der Umwelt erfährt er bei richtiger Entscheidung eine Belohnung oder aber eine Bestrafung, wenn diese doch nicht richtig bzw. zielführend war. Einem solchen System wird vom Entwickler am Anfang nur das Ziel vorgegeben. Die Abb. 1.5 veranschaulicht das Prinzip des bestärkenden Lernens (reinforcement learning).

    ../images/466218_1_De_1_Chapter/466218_1_De_1_Fig5_HTML.png

    Abb. 1.5

    Bestärkendes Lernen

    Ein typisches Beispiel für bestärkendes Lernen ist ein mobiler Roboter, der sich in einem Raum befindet und den Weg zum Ausgang finden möchte. Dem Roboter sind in diesem Fall weder seine eigene räumliche Position noch die Position des Ausgangs bekannt. Ihm stehen für die Wahrnehmung seiner Umwelt nur seine Sensoren sowie Kameras zur Verfügung. Er weiß auch noch nicht, wo sich mögliche Hindernisse befinden. Der Roboter muss jedoch selbst nach jeder eigenen Aktion lernen, ob diese zielführend war oder nicht, und am Ende selbst den Weg zum Ausgang finden.

    1.5 Semantische künstliche Intelligenz

    Wenn es um Machine Learning geht, werden auch in Bezug auf das Semantic Web einige berechtigte Fragen gestellt wie: Warum ist die dominante Technik im Bereich künstliche Intelligenz derzeit Machine Learning und nicht das Semantic Web? Sind Machine-Learning-Techniken in der Lage, Semantic-Web-Techniken vollständig zu ersetzen? usw. Hier soll versucht werden, eine Antwort auf solche Fragen zu finden.

    Sowohl Machine Learning als auch das Semantic Web sind Projekte im Bereich künstliche Intelligenz. Einer der wichtigen Bausteine von Semantic-Web-Anwendungen sind neben Regeln sogenannte Ontologien, mit welchen Wissen und Zusammenhänge sehr aussagekräftig dargestellt werden können. Ontologien gehören zur Kategorie der symbolischen Ansätze des Machine Learning, während derzeit sehr populäre ML-Ansätze wie neuronale Netze und Deep Learning zu den nicht-symbolischen gehören. Eine wichtige Eigenschaft von Ontologien ist, dass sie nicht wie ein neuronales Netz oder Deep Learning trainiert werden, sondern modelliert werden müssen, und zwar derzeit in den meisten Fällen manuell, was natürlich ein ziemlich aufwendiger und teurer Prozess ist. Einmal modelliert, können sie jedoch sehr komplexe Sachverhalte mit einer hohen semantischen Ausdruckstärke repräsentieren.

    Ein sehr wichtiger Vorteil von Ontologien ist dabei deren Nachvollziehbarkeit. Also haben Semantic-Web-Anwendungen, die mit Ontologien entwickelt wurden, nicht nur hohe Ausdrucksstärke, sondern kommen auch zu Ergebnissen, die im Gegensatz zu den Ergebnissen von nicht-symbolischen Ansätzen wie neuronale Netze mit Blackbox-Effekten völlig nachvollziehbar sind.

    Grundsätzlich gibt es ein wichtiges Zusammenspiel zwischen Machine Learning und semantischer KI, welches man auch semantische Plausibilisierung nennt. D. h., man überprüft mithilfe von Ontologien, ob die Detektionsergebnisse eines neuronalen Netzes überhaupt zutreffend sein können. Zum Beispiel kann ein autonomes Fahrzeug zwar ein

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1