Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Cognitive Computing: Steigerung des systemischen Intelligenzprofils
Cognitive Computing: Steigerung des systemischen Intelligenzprofils
Cognitive Computing: Steigerung des systemischen Intelligenzprofils
eBook1.000 Seiten10 Stunden

Cognitive Computing: Steigerung des systemischen Intelligenzprofils

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Ziel des Buches ist, artifizielle Systeme als kognitive Modelle und damit als wissensbasierte Agenten zu konzeptionalisieren und diese Agentenmodelle durch rechnerbasierte Technologien in prozessualer und funktionaler Hinsicht zu kognitiven Problemlösungssysteme auszugestalten. Das Ziel eines solchen Ansatzes liegt in der Steigerung des systemischen Kognitionsquotienten solcher Systeme. Erreichbar wird dieses Ziel durch die Konzeptionalisierung von Modellen auf Basis einer Kognitionstheorie, der (Aus)implementierung dieser Modelle durch den Einsatz der Cognitive Computing Technologie unter Verwendung der Programmiersprache Java und der Validierung dieser Lösungen im Rahmen von Simulationen.

Das Buch wendet sich gleichermaßen an Studierende, Fachleute aller Fachrichtungen als auch den interessierten Leser. Indem die einzelnen Kapitel einen Brückenschlag zwischen Standardwissen und Wissen aus Nachbargebieten, wie Kognitionswissenschaft oder Informatik darstellen, versucht dieses Handbuch ein tiefgreifendes Verständnis des komplexen Themengebietes „Artifizielle Kognition“ zu ermöglichen und dabei dennoch voraussetzungsfrei lesbar zu bleiben.

SpracheDeutsch
HerausgeberSpringer Vieweg
Erscheinungsdatum13. Nov. 2014
ISBN9783662440759
Cognitive Computing: Steigerung des systemischen Intelligenzprofils

Ähnlich wie Cognitive Computing

Ähnliche E-Books

Technik & Ingenieurwesen für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Cognitive Computing

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Cognitive Computing - Matthias Haun

    © Springer-Verlag Berlin Heidelberg 2014

    Matthias HaunCognitive Computing10.1007/978-3-662-44075-9_1

    1. Prolog als Motivation

    Matthias Haun¹  

    (1)

    VETEC Ventiltechnik GmbH, Speyer, Deutschland

    Matthias Haun

    Email: matthias.haun@web.de

    1.1 Probleme als Herausforderung

    1.2 Cognitive Computing als Wissenschaftsdiziplin

    1.3 Kognitive Systeme als Problemlösungssysteme

    Literatur

    Die generelle Motivation für dieses Buch und damit zur Entwicklung kognitiver Systeme liegt in der Erkenntnis, dass Computer zwar schnell und mit enormer Präzision solche Probleme berechnen und damit lösen können, die sich gut definieren lassen, aber sich bisher eher schwer tun wenn es um die Lösung von nur ungenau umrissenen Problemen geht. Maschinen, wie Robotersysteme oder Softwareprogramme, wie Agentensysteme sollen also Fähigkeiten „einverleibt" bekommen, die sie in die Lage versetzen, Probleme zu lösen, die bisher nur Menschen lösen konnten.

    1.1 Probleme als Herausforderung

    Derzeit sehen sich der Staat, die Unternehmen und die Gesellschaft mit einer Vielzahl von Problemen konfrontiert: Staatliche Finanzprobleme, Liberalisierung der Märkte, zunehmende internationale Kooperationen, Globalisierung, Boom in den asiatischen Ländern bei gleichzeitiger Sättigung in den entwickelten Staaten, Fragmentierung bei gleichzeitiger Polarisierung der Märkte, Ethisierung, Technologisierung und Beschleunigung der Innovationsrate bei gleichzeitiger Verpflichtung zum nachhaltigen Wirtschaften . Gleichzeitig zu dieser Problemsituation zeichnet sich – wenn auch noch eher schleichend – eine vierte industrielle Revolution ab, indem durch eine „Intelligenzierung von Produktionsanlagen und industriellen Erzeugnissen bis hin zu Alltagsprodukten mit integrierten Speicher- und Kommunikationsfähigkeiten, Funksensoren, eingebetteten Aktuatoren und intelligenten Softwaresystemen eine Brücke zwischen virtueller („cyber space) und dinglicher Welt geschlagen werden soll. Diese Brücke wird eine wechselseitige Synchronisation zwischen digitalem Modell und der physischen Realität gestatten. Letzteres wird nicht nur die derzeitigen Produktlebenszyklen nachhaltig beeinflussen, sondern auch neue Produktplanungs-, und -steuerungs-sowie Fertigungsprozesse erfordern. So kann das Ziel ressourcensparender, weil effizienter Produktionsprozesse angestrebt werden. Außerdem kann damit der Tatsache entsprochen werden, dass das Internet der Dinge zum Garanten und Treiber für neue „smarte Geschäftsmodelle , zur Entwicklung intelligenter und damit „smarter Produkte und zum Bereitstellen mehrwertiger und damit „smarter" Dienstleistungen avanciert.

    In dieser Problemlandschaft hat sich der Computer als eine Schlüsseltechnologie zur Problemlösung etabliert. Der heutige Mensch schreibt mit PCs, informiert sich im Internet und kommuniziert per E-Mail oder Handy. Selbst wer sich diesem Computeralltag entzieht, vertraut sich computergestützten Produktions-, Versorgungs-, Verkehrs- und Gesundheitssystemen an. Diese Tatsache kommt in der Begrifflichkeit der „vierten Kulturtechnik" zum Ausdruck:

    Neben die traditionellen Kulturtechniken Lesen, Schreiben und Rechnen tritt als eine neue vierte Kulturtechnik die Handhabung computergestützter Informations- und Datenverarbeitung. (Zimmerli 1988)

    Dahinter stehen logische Beweis-, Steuerungs-, Planungs- und Organisationsaufgaben, die von Computersystemen auch bisher erledigt wurden, in Zukunft aber mehr oder weniger selbständig und intelligent ausgeführt werden müssen. Sprache und Denken, Wahrnehmen und Fühlen, Interaktion und Kommunikation sind längst Forschungsthemen der unterschiedlichen Wissenschaftsdisziplinen, mit dem Ziel, die traditionellen Schranken von Mensch-Maschine-Systemen zu erforschen und zu überwinden. So entfaltet sich das Cognitive Computing zu einem ausgedehnten Forschungsgebiet, das zahlreiche verschiedene Fachdisziplinen in einer interdisziplinären Wissenschaftsdisziplin vereinigt. Ohne Anspruch auf Vollständigkeit können hier Mechanik, Maschinenbau, Elektrotechnik, Antriebstechnik, Biologie und Informatik, Mathematik, Regelungstechnik, Sensortechnik und Künstliche Intelligenz aufgezählt werden.

    Gemäß der klassischen Auffassung sind Lösungsysteme, Aufgaben und Umgebung miteinander verknüpft und können nicht unabhängig voneinander betrachtet werden (Abb. 1.1).

    A305667_1_De_1_Fig1_HTML.gif

    Abb. 1.1

    Klassischer Ansatz von Lösungssystemen

    Die zukünftigen Anforderungen lassen hingegen Lösungssysteme erwarten, die nicht nur Aufgaben „abarbeiten beziehungsweise sich in einer bestimmten Umgebung nur „verhalten, sondern auf und in diese Umwelt „einwirken". Sie reagieren auf Umgebungsreize in sinnvoller Weise und können durch Interaktionen bzw. durch zukünftige Interoperation mit der Umwelt auch nicht voraus geplante Probleme adäquat lösen. Damit wird bereits recht früh in diesem Buch postuliert, dass die zukünftigen Lösungssysteme als intelligente Verhaltenssysteme zum einen von der Komplexität ihrer Umgebung weitgehend bestimmt werden, aber durch ihr eigenes intelligentes Verhalten auf diese Umwelt einwirken. Die zukünftigen intelligenten Lösungssysteme entwickeln sich daher mit ihrer Umwelt und umgekehrt (Abb. 1.2)!

    A305667_1_De_1_Fig2_HTML.gif

    Abb. 1.2

    Zukünftige Lösungssysteme

    Fasst man an dieser frühen Stelle des Buches sowohl die Systeme des Alltags und die Lösungsysteme als Agentensysteme auf, so wird man von diesen Agenten in Zukunft erwarten, dass sie „denken bevor sie handeln, dass sie aus Erfahrung lernen und damit Probleme „intelligent lösen können. Dabei wird in diesem Buch ein eher intuitiver Begriff vom Denken verwendet, da man nach wie vor keine notwendigen und hinreichenden Bedingungen angeben kann, mit deren Hilfe man final entscheiden kann, ob eine bestimmte Entität bzw. ein konkretes Objekt denkt. Es ist also der intuitive umgangssprachliche Begriff des Denkens in seiner ganzen Vagheit, der in den folgenden Überlegungen verwendet wird (Abb. 1.3).

    A305667_1_De_1_Fig3_HTML.gif

    Abb. 1.3

    Agentensysteme als generische Problemlösungssysteme

    Der Begriff des Agentensystems wird dabei im Folgenden in enger Anlehnung an die Modelle aus der Robotik verwendet, wo diese Modelle In- und Outputs verarbeiten. Diese oft autonome Agenten genannten Modelle empfinden einfache Systeme nach, nehmen die Umwelt direkt über Sensoren (z. B. Bildkameras) wahr und können selbst unmittelbar mit Effektoren bzw. Aktoren (z. B. Motoren) operieren.

    Es werden Systeme sein müssen, die sich selbst weiterentwickeln, um solche Aufgaben auch zu lösen, für die sie ursprünglich nicht dediziert programmiert wurden. Um eine solche Weiterentwicklung anstreben zu können, werden diese Agentensysteme neben dem Zugriff auf inhärentes Wissen, um darauf basierend Schlussfolgerungen zu ziehen, vor allem Daten und Informationen aus der Umgebung sammeln, um diese Informationen in stimmige Handlungsempfehlungen umzuwandeln. Übersteigt eine Aufgabe trotz der vorhandenen Wissensbasis die Fähigkeit eines solches Agenten, wird er von sich aus versuchen, durch geeignete Such- und Rechercheverfahren beispielsweise die riesige Informationsmenge des Internets für die Wissenserweiterung zu nutzen.

    1.2 Cognitive Computing als Wissenschaftsdiziplin

    Im Allgemeinen versteht man unter Cognitive Computing die Orchestrierung von Erkenntnissen aus den unterschiedlichen Disziplinen, wie beispielsweise Philosophie , Psychologie , Informatik , Linguistik , Mathematik und Neurowissenschaften . Im Besonderen umfasst Cognitive Computing die Kombination unterschiedlicher wissenschaftlicher Modelle aus den Kognitionswissenschaften und Technologien aus dem Bereich der Künstlichen Intelligenz (Artificial Intelligence ) und des Künstlichen Lebens (Artificial Life ). In diesem Sinne wird in diesem Buch der Versuch unternommen, eine Art technologischer Erweiterung der Kognitionswissenschaften zu entwickeln, die sowohl eine konsequente Methoden- und Erkenntnisintegration von natur- und geisteswissenschaftlichen Aspekten anstrebt, dabei eine grundlagentheoretische Verfahrensweise zugrunde legt, als auch eine technologische, kommerzielle und damit praxisnahe Ausrichtung verfolgt. Insofern handelt es sich beim Cognitive Computing um eine Wissenschaftsdisziplin , die mit kognitiven Modellen arbeitet und diese Modelle als Vorlage („Blaupause") zur software- und hardwaretechnischen Implementierung problemlösungsfähiger bzw. lauffähiger Systeme bereitstellt. Im Einzelnen dienen dabei die Technologien des Cognitive Computing der Realisierung von auf Modellen basierenden Lösungen und setzen sich aus symbolischen (Produktionsregeln, Fuzzy Logik, Rekursive Algorithmen, Agentensysteme) und subsymbolischen (neuronale Netze) Ansätzen zusammen. Gerade der multiplikative Einsatz der unterschiedlichen symbolischen und subsymbolischen Techniken vermag Problemlösungsräume zu erschließen, die dem bisherigen, singulären Einsatz der Techniken eher verschlossen blieben.

    Es ist darauf hinzuweisen, dass die einzelnen Techniken des Cognitive Computing punktuell auch unter den Begriffen des Soft Computing , Computational Intelligence , Organic Computing oder auch Ubiquitous Computing und Autonomic Computing abgehandelt werden. Unter Computational Intelligence werden allerdings primär Techniken verstanden, die mit dem Begriff des Soft Computing vergleichbar sind, wie Neuronale Netze, Genetisches Programmieren, Schwarmintelligenz und Fuzzy Systeme. Der Fokus der Computational Intelligence liegt daher eher auf solchen subsymbolischen Techniken. Im Zusammenhang mit Organic Computing werden selbstorganisierende Systeme untersucht, daher werden primär Neuronale Netze, Evolutionäre Algorithmen sowie Zellularautomaten behandelt. Insofern scheint die Einführung des Begriffs des Cognitive Computing aus wissenschaftsphilosophischer Sicht gerechtfertigt, da es sich hier erstmalig um eine Orchestrierung intradisziplinär gewonnener Erkenntnisse, um eine multiplikative Verknüpfung symbolischer und subsymbolischer Ansätze und damit um eine umfassende Technologisierung von kognitionswissenschaftlichen Erkenntnissen handelt.

    Den Techniken gemeinsam ist der Aspekt der Repräsentation von Wissen in natürlichen und künstlichen Systemen. Wissen bedeutet in diesem Zusammenhang in einer bestimmten Situation innerhalb eines Problemraumes adäquat zu handeln. Bei den Ansätzen handelt es sich zum einen um symbolische Ansätze der Wissensrepräsentation , wie Produktionsregelsysteme, Logik-basierte Verfahren, fallbasiertes Schließen, bis hin zu stochastischen Automaten. Diese Ansätze nutzen meist diskrete Konzepte, mit deren Hilfe logische Aussagen oder Zustände repräsentiert werden können. Es wird allerdings gezeigt werden, dass es bei gewissen Problemkonstellationen bzw. in speziellen Problemdomänen nicht ausreicht, Wissen auschließlich auf symbolische Weise zu präsentieren, um damit Lösungen zu erarbeiten. Die symbolische Wissensrepräsentation verfügt nicht über die notwendigen und hinreichenden Mittel, um in solchen Problemräumen intelligentes Verhalten zu erzeugen. Daher werden im Rahmen des Cogntive Computing auch subsymbolische Ansätze verwendet, die mit Repräsentationen unterhalb der Symbolebene arbeiten. Hier wird dann nicht mehr die Rede von Symbolen, Deduktion und Produktionsregeln die Rede sein, sondern parallel ablaufende Prozesse und strukturelle Kopplungen im Fokus stehen.

    Es wird stufenweise ein Modell der artifiziellen Kognition entwickelt, das unter Anwendung von symbolischen und subsymbolischen Ansätzen zu einem Kognitionsmodell wird, das im späteren Verlauf des Buches einer Algorithmisierung zugänglich ist. Letzteres impliziert, dass Kognition als Berechnungsvorgang („Computation) verstanden werden kann. Als solches Verständnis ist es die Grundlage dafür, um im Rahmen der Implementierung solche Computerprogramme entwickeln zu können, um die im Rahmen der Konzeptionalisierung entwickelten Modelle kognitiver Prozesse abzubilden. Insofern steht der Begriff der „Computation in diesem Buch nicht nur für ein bestimmtes soft- bzw. hardwaretechnisches Modell, sondern auch für eine bestimmte technische Realisierung. Eben diese Entwicklung vom Modell zur realisierten Lösung offenbarte eine Krise, in der nicht nur die kognitive Modellierung steckt, sondern von der jeder modellbasierte Lösungsansatz betroffen zu sein scheint. Es fehlt an grundlegenden, interdisziplinären Vorgehensmodellen, die so allgemein ausgeprägt sind, um Domänen in den Griff zu bekommen, die nicht nur durch rein formal-logische Repräsentationskonzepte und Schlüsse erfassbar sind. Insofern wird nach der Entwicklung des Kognitionsmodells ein Vorgehensmodell vorgestellt, das den geforderten interdisziplinären Zugang zu den Problem- aber auch den Lösungsräumen ermöglicht.

    Sowohl bei der Modellierung kognitiver Phänomene als auch bei der späteren Implementierung dieser Modelle in konkrete Systemlösungen werden durch die interdisziplinäre Vorgehensweise einzelne Erkenntnisse aus den unterschiedlichen Wissenschaftsdisziplinen integriert. Ziel ist dabei, eine möglichst allgemeine, aber dennoch verwertbare Sichtweise für Intelligenz , Denken , Erkennen und damit Kognition zu erarbeiten. Obwohl das Phänomen der Kognition aus verschiedenen Perspektiven beleuchtet wird, gilt die menschliche Kognition (human cognition) als natürliches Vorbild. Dadurch, dass Cognitive Computing ihrem Gegenstand und ihren Methoden nach nicht nur eine kultur- und naturwissenschaftliche, sondern auch eine technologische Wissenschaft ist, erscheint sie als eine wissenschaftliche Disziplin neuen Typs.

    Die spezifische Nähe von Theorie und Praxis beziehungsweise von Modell und Systemlösung macht eine veränderte wissenschaftsphilosophische Betrachtung erforderlich. Neben dieser Nähe erscheinen auch die Aspekte der Theorienpluralität , der Transdisziplinarität und der durch die Technologie induzierte Zirkularität wissenschaftsphilosophisch relevant. Deshalb ist es sicherlich notwendig, die Instrumente der klassischen Wissenschaftsmodelle (Kuhn, Lakatos, Feyerabend etc.) kritisch zu würdigen, um zum einen ihre Anwendungsmöglichkeiten auf die sich abzeichnende Technologisierung der Wissenschaft zu erörtern und zum anderen an den Stellen, an welchen sich die „klassischen Methoden als unzureichend erweisen, nach neuen Beschreibungsmustern zu suchen. Dieser Notwendigkeit in der erforderlichen Tiefe nachzukommen, erscheint jedoch an dieser Stelle zu früh, würde außerdem den Rahmen dieses Buches sprengen und bleibt daher weiteren Arbeiten und Autoren überlassen. Dennoch sei kurz die in diesem Buch vertretene Wissenschaftsauffassung angedeutet, um eine „philosophische Verortung bereits an dieser frühen Stelle zu ermöglichen:

    Das Ganze ist nicht gleich der Summe der Teile.

    Komplexe Systeme sind vernetzte, dynamische Ganzheiten.

    Offene Systeme sind mit ihrer Umwelt vernetzt und tauschen mit ihr Materie, Energie und Informationen.

    Das Verhalten komplexer Systeme lässt sich nicht im Einzelnen vorhersehen, jedoch beeinflussen.

    Komplexe Systeme weisen erkennbare Ordnungsmuster auf, die gestaltet werden können.

    Lenkung (Steuerung, Regelung) hält ein System unter Kontrolle.

    Soziale Systeme können lernen und sich qualitativ entwickeln.

    Der Mensch verfügt über empirisches Wissen, das in konstruktivistischer Weise an ihn selbst und seine kognitiven Fähigkeiten gebunden ist.

    Dieses Wissen ist nicht an die objektive Struktur einer wie auch immer gearteter Wirklichkeit gebunden, sondern ist Wissen von genau der Welt, wie sie der Einzelne kognitiv erfasst.

    Das Buch strebt nicht an, ein „wahres" Abbild dieser Wirklichkeit zu liefern, sondern will vielmehr Vorschläge zur Entwicklung von verwertbaren Realitätskonstrukten anbieten.

    In diesem Sinne verfolgt das Buch einen handlungstheoretischen Ansatz, indem Wissen als die Fähigkeit bzw. Eignung aufgefasst wird, in einer bestimmten Situation intelligent zu handeln.

    Der wissenschaftsphilosophische Ansatz, der diesem Buch zugrunde liegt, basiert einerseits im kritischen Rationalismus nach Karl Popper und andererseits auf den Erkenntnissen der Phänomenologie und der Hermeneutik . Dieser Ansatz, unter Einbeziehung der Modell- und Systemtheorie, wird insbesondere durch einen Konstruktivismus geprägt und durch neue Ansätze der Informatik „operationalisiert".

    1.3 Kognitive Systeme als Problemlösungssysteme

    Mit Hilfe des kognitiven Modells lassen sich allerdings nicht nur kognitive soft- und hardwaretechnische Systeme entwickeln. Der kognitive Ansatz lässt sich auch auf Organisationen und Strukturen anwenden. Dabei werden beispielsweise Unternehmen als wissensbasierte bzw. kognitive Organisationen aufgefasst und damit als kognitive Modelle konzeptionalisiert, um diese Modelle dann durch rechnerbasierte Technologien in prozessualer und funktionaler Hinsicht so auszugestalten, dass sich dadurch messbare Mehrwerte in den Wertschöpfungsketten erzielen lassen. Insofern gilt das Cognitive Computing neben dem Business Process Managements (BPM) und dem Business Intelligence (BI) als eine Schlüsseltechnologie für die Probleme und Herausforderungen, mit denen sich jedes Unternehmen, die Gesellschaft als Ganzes und damit jeder Einzelne konfrontiert sieht. So können beispielsweise Städte und Kommunen wirtschaftlichen Erfolg erzielen, wenn es ihnen gelingt, die Anforderungen von Konzernen und Mitbürgern nachhaltig in Einklang zu bringen, sprich: zu vernetzen. So bevorzugen multinationale Konzerne und ausländische Geschäftsleute die Infrastrukturen moderner Städte und Kommunen. Leider sucht man in Europa solche Infrastrukturen dagegen häufig vergebens. Erschwerend kommt hinzu, dass derzeit Städte und Kommunen mit Luftverschmutzung, Energieverschwendung und Verkehrslärm, als Folge der Entwicklung, kämpfen. Die schlechte Ökobilanz verursacht Kosten in Milliardenhöhe. Auch die Wasser- und Energieversorgung oder die Müllbeseitigung bekommen die Behörden nur schwer in den Griff. Hier helfen Cognitive Computing Technologien, um aus Daten und Informationen das wertvolle Wissen zu generieren, um die genannten Probleme zu lösen.

    Mit Hilfe des kognitiven Modellansatzes lassen sich aber auch Probleme der Mobilität oder Energie als kognitive Strukturen auffassen, diese dann als kognitive Modelle konzeptionalisieren, um diese Modelle dann wiederum durch rechnerbasierte Cognitive Computing Technologien in prozessualer und funktionaler Hinsicht auszugestalten (Abb. 1.4). Letzteres scheint dringend notwendig, denn trotz der zahlreichen, aber leider verteilten Bemühungen um die Einführung und Etablierung von Elektromobilität, basiert die gegenwärtige Energieversorgung des Straßenverkehrs zum überwiegenden Teil auf fossilen Energiequellen, d. h. auf den Erdölprodukten Benzin bzw. Diesel. Auch die in Verbindung mit der weltweit steigenden Nachfrage nach Mobilität und Erdöl zunehmende ökonomische, wie auch strategische Bedeutung (bei gleichzeitiger Endlichkeit dieser Ressource), konnte den Etablierungsprozess von Elektromobilität nicht beschleunigen. Dennoch: Das derzeitige System der Mobilität, welches nahezu vollständig auf die Verfügbarkeit des fossilen Energieträgers Erdöl ausgerichtet ist, lässt sich in dieser Form nicht in die Zukunft übertragen. Der Entwicklung und Verbreitung neuer Antriebskonzepte wird deshalb für die Sicherstellung einer gesellschaftlich notwendigen Mobilität, die gleichzeitig auch den beiden Zielen Nachhaltigkeit und Klimaschutz Rechnung trägt, eine erhebliche Bedeutung zugeordnet. Elektrofahrzeuge und die damit notwendigen intelligenten bzw. kognitiven Infrastrukturen stellen einen wichtigen Bestandteil der modernen und nachhaltigen Mobilität dar.

    A305667_1_De_1_Fig4_HTML.gif

    Abb. 1.4

    Kognitive Lösungen

    Kognitive Robotik wird eine weitere Generation neuer, weil intelligenter, kognitiver Robotersysteme ermöglichen. Die neue Generation der Kognitiven Roboter wird neben der Simulationstechnik auf die Technologien des Cognitive Computing zugreifen. Dieser Einbezug der Technologien des Cognitive Computing wird nachhaltig zu neuen Architekturen von Robotersystemen führen, was dann wiederum von zentraler Bedeutung für die Ausgestaltung dieser Systeme mit intrinsischer Intelligenz sein wird. Die Kernvoraussetzung einer solchen artifiziellen Intelligenz im Bereich der Robotik ist zum einen die Fähigkeit, selbständig denken und damit aus sich heraus Schlüsse ziehen zu können. Zum anderen wird maschinelles Lernen und sensorgestütztes Handeln, das Interoperieren, das Bewegen in einer bzw. das Einwirken auf eine dynamische Umwelt , deren Zustände sich permanent ändern und daher unsicher sind, erst ermöglicht.

    Insofern handelt es sich beim Cognitive Computing in der Tat um eine Wissenschaftsdisziplin, die nicht nur mit kognitiven Modellen arbeitet, sondern diese Modelle im Rahmen einer entsprechenden Methodik und unter Anwendung spezieller Techniken als kognitive Lösungen in Form kognitiver Strukturen, kognitiver Organisationen oder kognitiver Systeme zur Problemlösung bereitstellt.

    Literatur

    Zimmerli, W.: Künstliche Intelligenz – Die Herausforderung der Philosophie durch den Computer. Forum Interdiszip. Forsch. 1, 27 (1988)

    © Springer-Verlag Berlin Heidelberg 2014

    Matthias HaunCognitive Computing10.1007/978-3-662-44075-9_2

    2. Grundlagen

    Matthias Haun¹  

    (1)

    VETEC Ventiltechnik GmbH, Speyer, Deutschland

    Matthias Haun

    Email: matthias.haun@web.de

    2.1 Erkenntnistheoretisches Fundament

    2.2 Methodik

    2.3 System-, Modell-, Simulations- und Wissenstheorie

    2.3.1 Systeme

    2.3.2 Modelle

    2.3.3 Simulationen

    2.3.4 Wissen

    2.4 Symbolismus

    2.4.1 Symbolverarbeitung

    2.4.2 Produktionsregelsysteme

    2.4.3 Fuzzy Logik

    2.4.4 Rekursive Algorithmen

    2.5 Subsymbolismus

    2.5.1 Konnektionismus

    2.5.2 Konnektionistische Systeme

    2.5.3 Konnektionistische Modelle

    2.6 Interoperationalismus

    2.7 Künstliche Intelligenz

    2.7.1 Historie

    2.7.2 Konzepte

    2.7.3 Kritik

    2.7.4 Implikationen

    2.8 Cognitive Computing

    2.9 Artifizielle Kognition und Systemische Intelligenz

    Literatur

    Dieses Kapitel ist der Behandlung wichtiger Grundlagen und der Einführung zentraler Begriffe gewidmet. Der Gebrauch schlecht definierter Ausdrücke mit zentraler Bedeutung sollte in einem guten Buch bzw. in fundierten Theorien vermieden werden. In gewissem Sinne stellen der Verlauf dieses Buches und seine Inhalte ein wissenschaftliches Experiment dar, indem immer Fragen an die Natur gestellt werden. Aus den Antworten und aus den Daten werden vorläufige Vermutungen, das heißt Hypothesen, abgeleitet, diese der Gemeinschaft der Leser vorgestellt und damit auch der Validierung bzw. Kritik ausgesetzt. Eine Hypothese, die wiederholt solchen Tests standgehalten hat und die durch viele Beobachtungen und Experimente belegt werden kann, wird schließlich in den Status einer Theorie erhoben.

    2.1 Erkenntnistheoretisches Fundament

    Das Buch beschäftigt sich im Allgemeinen mit der Entwicklung sogenannter „kognitiver Lösungen (cognitive solutions ), bei denen es darum geht, Lösungssysteme zunächst als wissensbasierte bzw. kognitive Modelle zu konzeptionalisieren und diese Modelle mit Software und Hardware „intelligent bzw. „kognitiv auszugestalten. Im Speziellen wird damit die Konzeptionalisierung und Implementierung einer „artifiziellen Kognition (artificial cognition) verfolgt, die durch die Orchestrierung von Simulationen naturanaloger Verfahren das intelligente Verhalten von Lösungssystemen erzeugen soll. Dazu ist eine enge Anlehnung an die Computertechnologie, der Künstlichen-Intelligenz-Forschung (Artificial Intelligence), der Erforschung Künstlichen Lebens (Artificial Life) im Allgemeinen und des Forschungsprogramms Cognitive Robotic bzw. Cognitive Computing im Speziellen gefordert. Darüber hinaus bestehen gerade durch das Cognitive Computing Anknüpfungspunkte zu den zwei Megaprojekten der USA und der EU, wo es im Rahmen des Brain Activity Map Projekts um die Erfassung der Aktivitäten von Nervenzellen, deren Kartierung und somit um das Funktionsverständnis des Gehirnes geht. Dagegen liegt der Fokus des von der europäischen Union geförderten Human Brain Projekts weniger auf der Kartierung, sondern vielmehr auf der Entwicklung einer Plattform bzw. der Computersimulation des Gehirns. Generell wird dadurch der Versuch gestartet, durch die Synchronisation der Erkenntnisse u. a. aus der Kognitionswissenschaft und der Computerwissenschaften das Verständnis des menschlichen Gehirns als Organ und der Kognition als Artefakt dieses Organs auf eine neue Ebene zu heben. Dazu soll ein Modell des Gehirns entwickelt werden, das alle Strukturen des Organs umfasst. Auf Basis dieses Modells und unter Einsatz von Supercomputern sollen sich dann die Aktivitäten des Gehirns simulieren lassen. Dabei baut dieses Projekt auf den Erkenntnissen des Vorgängerprojektes „Blue Brain Project " der ETH Lausanne auf, das zwar eine Reihe interessanter Arbeiten hinterlässt, allerdings auch die zum Ziel gesetzte Simulation der Aktivität einer kortikalen Säule hat vermissen lassen.¹ Insofern werden im weiteren Verlauf dieses Buches unter dem Begriff „Artificial Cognition" sowohl auf Erkenntnisse des Forschungsprogramms Cognitive Robotic bzw. Cognitive Computing, als auch dem des Human Brain Projekts² bzw. Activity Map Projekts³ zugegriffen und somit zum Gegenstandsbereich des Buches.

    Den Rahmen dieser Erkenntnisverwertung bilden einige erkenntnistheoretischen Positionen, die im Folgenden kurz erläutert werden sollen. So werden Positionen des Konstruktivismus vertreten, nach denen Entitäten bzw. Objekte erst als Resultat eines Konstruktionsprozesses existieren. Die Existenz solcher Entitäten kann insofern nur postuliert werden, wenn es eine Methode oder ein Prinzip zu ihrer Konstruktion gibt. Mit anderen Worten besteht der Kerngedanke des Konstruktivismus darin, dass die menschliche Wahrnehmung , das Denken und Erinnern nicht eine äußere Realität abbildet oder repräsentiert, sondern womöglich eine eigene Wirklichkeit erzeugt bzw. konstruiert.

    Dabei gilt es zu bedenken, dass es „den Konstruktivismus an sich nicht gibt, da der Begriff „konstruktivistisch mehrdeutig verwendet wird. So beschäftigt sich beispielsweise der empirische Konstruktivismus zum einen mit den Objekten der Wirklichkeit und zum anderen mit Konstruktionsprozessen der Wirklichkeit. Die Wirklichkeitskonstruktion wird somit auch hier als konstruktivistischer Prozess aufgefasst. Mit dieser Auffassung werden alle die Gegenstände angesprochen, die auch bei der Entwicklung von Simulationen naturanaloger Prozesse zum Tragen kommen. Es sind dies neben dem Prozess als solchem, Voraussetzungen, Bedingungen und auch die Folgen der kognitiven Konstruktion von Wirklichkeiten. Aber auch eher entwicklungsnahe Aspekte, wie physiologische, biologische, anthropologische Voraussetzungen, Wahrnehmungs-, Daten-, Informationsverarbeitungsprozesse, Affekt-, Situations- und Wissensmanagement werden in die Überlegungen mit einbezogen. Dabei werden Gebiete der Kognitionswissenschaften und Künstlichen Intelligenz-Forschung aufgesucht, wenn es um die Voraussetzungen von Lernen, Interoperation und Kommunikation, der Ordnungsbildung und der Entstehung von Organisationen, beziehungsweise des Phänomens der Emergenz in Prozessen der Selbstorganisation geht.

    Die eher philosophische Frage, was systemische Erkenntnis ist oder maximal sein kann, wie sie erlangt und wie sie gerechtfertigt werden kann, verwandelt sich damit in die Frage, wie das Substrat einer solchen Erkenntnis, die Maschine und deren Komponenten, eine solche Erkenntnis erzeugt. Dabei soll der Begriff der Maschine in der funktionalen Weise eines abstrakten Tupels M = (Q,I,O,∫) mit einer Zustandsmenge Q, einer Eingabemenege I, einer Ausgabemenge O und einer Zustandssübergangsfunktion ∫ betrachtet werden. Eine solche Maschine kann dann durch ihre möglichen Sytemzustände und die Art und Weise, wie sie Anfangszustände in Endzustände überführt, hinreichend modelliert werden.

    Zunächst gilt es zu berücksichtigen, dass das System niemals aus seinem Erkenntnisbereich und den darin entwickelnden Repräsentationen der Wirklichkeit heraustreten kann. Zusätzlich stellt das Erkennen vor allem einen selbstbezüglichen Prozess dar, indem das System dann über Wissen verfügen kann, wenn es dieses über einen kognitiven Prozess und den darin verankerten Operationen selbst entwickelt hat. Wissen als Resultat eines solchen Erkenntnisprozesses ist demnach nicht ein „Entdecken, sondern ein „Konstruieren einer Realität und einer Wirklichkeit. Insofern rekurriert dieser Ansatz insbesondere auf Ansätze aus Systemtheorie , Neurobiologie und Kybernetik , die annehmen, dass kognitive Systeme „informationsdicht" sind, indem sie ihre Wirklichkeit selbst erzeugen.

    Die Rückwendung dieses Konstruktivismus und damit die Abkehr vom radikalen Konstruktivismus besteht darin, dass er einen Wissensbegriff etabliert, der nicht ohne Ontologie und damit Repräsentation auskommt (Abb. 2.1).

    A305667_1_De_2_Fig1_HTML.gif

    Abb. 2.1

    Varianten des Konstruktivismus

    Die Ontologie beeinflusst dabei nicht nur die Konzeptionalisierung (Modelle) und die Implementierung (Klassen, Methoden etc.), sondern auch die Methodik des gesamten Entwicklungsprozesses. Beispielsweise gliedert sich ein an der Ontologie orientierter Entwicklungsprozess in folgende Phasen: Planung: Identifikation der Aufgaben, Planung der Aufgaben, Identifikation der Ressourcen. Kontrolle der korrekten Abwicklung der Aufgaben. Qualitätssicherung: Qualitätssicherung aller im Entwicklungsprozess anfallender Produkte (Ontologie, Softwarekomponenten, Dokumentation etc.) Vor-Entwicklung: Plattform- und Entwicklungsumgebung, Grobspezifikation, Machbarkeitsstudien, Entwicklung: Konzeptionalisierung, Formalisierung, Implementierung. Nach-Entwicklung: Wartung, Produktion, Refactoring. Die Phasen 1 bis 6 unterstützenden Aktivitäten: Wissens-Akquise, Evaluierung, Integration durch Wiederverwendung bereits bestehender Lösungen, Dokumentation, Konfigurations-Management, Projektmanagement.

    Der artifiziell-systemischen Kognition kommt daher vor allem eine aktive, konstruktive und adaptive Funktion zu und besteht nicht in der passiven Abbildung einer objektiven Wirklichkeit. Insofern besteht Wissen in der Konstruktion von in Begriffen gefassten Entitäten, die entweder mit der Erfahrungswelt eins sind oder aber mit dieser Erfahrungswelt in Konflikt geraten können. Diese Konstrukte müssen im System daher in einem ersten Schritt zunächst mit der ontologischen Welt im Sinne einer Repräsentation übereinstimmen (Minimalforderung), sie müssen aber noch nicht in das Gesamtkonzept der Erfahrung „passen. Wenn diese begrifflichen Entitäten als Wissen dann auch noch passen (Maximalforderung), so heißt dies nicht mehr und nicht weniger, als dass dieses Wissen sich der Erfahrungswelt als Selektionsmechanismus stellt, und aus diesem Rückkopplungsprozess ein für das erkennende System so lange gangbares „viables Verhalten erzeugt wird, als dieses die Problemlösung sichert.

    Eine solche Sichtweise widerspricht nicht den Erkenntnissen der Kognitionswissenschaften. Die Repräsentation im neuronalen Substrat erfüllt demnach nicht nur eine Abbildfunktion zwischen Umwelt und kognitivem Apparat, sondern sie konstruiert durch kontinuierliche physische Veränderung das zum Überleben und zur Reproduktion des Organismus adäquate Verhalten und stellt damit eine stabile Beziehung zwischen Umwelt und Organismus dar. Das Repräsentationssystem nimmt aktiv an diesen Konstruktionsprozessen teil. Die Dynamik der Umwelt spielt dabei nur die Rolle eines Auslösers (Pertubation), welche die durch das Repräsentationssystem determinierten Verhaltensweisen selektiert. Strategien von Versuch und Irrtum bzw. der funktionalen Passung bestimmen die Beziehung zwischen Umwelt und Repräsentationssystem. Die Repräsentationsstruktur wird so lange versuchsweise verändert und durch Verhalten externalisiert, bis ein intern oder extern festgestellter Fehler minimiert bzw. der homöostatische Zustand hergestellt ist.

    Diese Rückwendung soll auch der Auffassung gängiger konstruktivistischer Epistemologien widersprechen, dass man nicht mehr vernünftig von Beobachtungsdaten sprechen kann, dass diese nicht Informationen über die Außenwelt, sondern lediglich Konstruktionen des Bewusstseins darstellen, die keine Aussagen über eine von diesem Bewusstsein unabhängige äußere Welt zulassen. Ebenfalls widersprochen wird der damit oftmals vorgebrachten Behauptung, dass Erklärungen nicht auf Sätzen mit empirischem Gehalt oder wahren Sätzen beruhen müssen, sondern das angestrebte Ziel einer Erklärung nur in ihrer „Viabilität , Passung oder Fitness zum Ausdruck kommt. Theorien, Gesetze und damit auch Erklärungen sind demzufolge „viabel bzw. „fit, wenn sie dem Überleben in der Wissenschaftspraxis dienen. Gleichwohl soll die Erkenntnis über die Erkenntnis „naturalisiert werden, um so den Erklärungen auf diese Weise auch einen instrumentellen Charakter zukommen zu lassen.

    Dies lässt die folgenden Hypothesen zu:

    Die Repräsentation ist keine passive Abbildung, sondern eine aktive Konstruktion der Umwelt im kognitiven System.

    Weil der Zugang zur Umwelt nur über die Repräsentation im kognitiven System (Brainware ) laufen kann, ist die Repräsentation der Umwelt von der Struktur dieses kognitiven Systems determiniert und nicht von der objektiven Struktur der Umwelt.

    Da das kognitive System nicht nur mit eigenen oder anderen Systemzuständen interagiert, sondern vielmehr mit der Umwelt interoperiert, dringen Daten und Information von außen ins System ein.

    Daten und Information werden nach Maßgabe der Strukturdeterminanten des Systems aus den über das perzeptive System eingehenden Signalen erst erzeugt und im kognitiven Prozess durch Semantik angereichert.

    Die im kognitiven System verkörperte Dynamik ist von daher kein unabhängiges, objektives Wissen über die Außenwelt und die Wirklichkeit, sondern abhängig von der Struktur des kognitiven Systems im erkennenden Umgang mit seiner Umgebung.

    Im Verlaufe des Buches wird das Verhältnis des Kognitiven und Mentalen zum Physischen behandelt und annähernd erklärt werden müssen. An dieser Stelle soll dabei der Begriff des „Mentalen " noch in klassischer Verwendungsweise als Kürzel für die recht heterogene Ansammlung von kognitiven, intentionalen und phänomenalen Kompetenzen und Manifestationen stehen, die Lebewesen charakterisieren. Hierzu wird eine reduktionistisch-funktionale Sichtweise eingenommen, wo Emergenz- und Supervenienztheorien sowie reduktionistische und eliminative Ansätze unterschiedliche Lösungen bereitstellen.

    Mit „Emergenz" ist an dieser Stelle gemeint, dass Phänomene ihrem Ursprung nach physikalisch, chemisch, oder biologisch zu sein scheinen, dass aber diese Phänomene keinesfalls auf diese Ebene zurückgeführt werden können.

    Im Rahmen der Konzeptionalisierung erfolgt zum einen eine „wohl temperierte", d. h. schrittweise Reduktion der Theorien von einer höheren Beschreibungsebene auf eine darunter liegende, solange, bis das Ziel der Reduktion in der Implementierung erreicht ist (Mikroreduktion). So besteht die Mikroreduktion beispielsweise darin, die Soziologie als Wissenschaft der Interaktion von Gruppen auf die Psychologie als Wissenschaft des Verhaltens einzelner Menschen zu reduzieren. Von dieser Erklärungsebene ausgehend, werden die Gesetze und Theorien, mit denen sich das Verhalten von Menschen erklären und beschreiben lässt, auf Theorien der Biologie reduziert. Auf diese Weise lässt sich beispielweise das Verhalten eines Menschen in einer bestimmten Situation mit dem Vokabular einer psychologistischen oder gar physikalistischen Sprache formulieren, beschreiben und erklären.

    So bauen die Simulationen im Rahmen der Validierung auf den Möglichkeiten der Mikroreduktion auf. Zum anderen kommen die Erklärungen in diesem Buch auf der Makroebene nicht ohne den Rückgriff auf Gesetze oder Sachverhalte einer Makroebene aus (Makroreduktion). Die Notwendigkeit des Rückgriffs auf eine Makroebene wird deutlich, dass ein System, dessen Verhalten oder Eigenschaften erklärt werden sollen, nicht losgelöst von seiner Umwelt betrachtet werden kann. Wird das System simuliert, so müssen Eigenschaften und Prozesse der Umwelt in die Simulation mit einfließen.

    So erfordern psychologische Erklärungen beispielsweise sehr oft eine Makroreduktion, d. h. sie nehmen Bezug auf soziologische Faktoren, auch wenn sie eine materielle und damit physikalische Basis haben.

    Das reduktionistische Programm dieses Buches steht und fällt mit der Möglichkeit, das kognitive Vokabular auf das Vokabular des Cognitive Computing und damit letztlich auf das physikalische Vokabular zu reduzieren. Kern dieses Reduktionismus muss sein, Argumente für die Hypothese aufzuzeigen, dass sich die Rede vom Kognitiven auf die Technologie des Cognitive Computing reduzieren lässt.

    Die Grundidee dieses Reduktionismus kann anhand einer Zwiebel metaphorisch verstanden werden: Funktionen oder Ereignisse einer bestimmten Schicht werden durch Prozesse hervorgerufen, die in einer tiefer liegenden Schicht stattfinden. Mit anderen Worten besteht der harte Kern aus der Kognitionswissenschaft und dem Cognitive Computing, deren weitere Schale wiederum die Physik und Philosophie, und dort wiederum die Informatik und das Simulationsexperiment bilden.

    Eine Argumentation in diesem Buch wird unter anderem sein, dass das eine Vokabular kommensurabel zum anderen ist, weil zwar nicht dieselben Ereignisse betrachtet und beschrieben, aber diese ereignishaften Differenzen durch Modelle ausgeglichen bzw. die semantische Lücke durch Simulationen überwunden werden kann.

    In Bezug auf die Entwicklung von Computerprogrammen zeigen sich damit gewisse reduktionistische Implikationen. Menschliches Wissen im Allgemeinen, aber auch Sachverhalte oder Gegenstandsbeschreibungen im Besonderen, müssen für die Programmierung explizit gemacht und damit in Form von propositionalen Satzgehalten ausgedrückt werden. Ein weiterer Reduktionsschritt besteht darin, dass dieses vergegenständlichte Wissen auch noch formalisiert und damit bestimmten formallogischen Regeln unterworfen werden muss. Letzteres ist sicherlich die weitaus größere Reduktion, welche zur Programmierung der Computersysteme vorgenommen werden muss.

    Durch die Modelle und Simulationen soll die Hypothese der Identität kognitiver Zustände und Prozesse mit funktionalen Zuständen und Prozessen trotz fehlender empirischer Befunde gestützt werden. Auf dieser Annahme bauen jedoch die Simulationen als formalisierte und implementierte „Brückengesetze " auf, die eine Isomorphie der funktionalen Zustände eines Programms auf der einen und jener des menschlichen Bewusstseins bzw. der artifiziellen Kognition auf der anderen Seite stützen sollen. Dabei dient die klassische Auffassung von Bewusstsein als Subsumption von absichtsvollem Handeln (Intentionalität), Intelligenz (Intuition, Introspektion und Kreativität) als Vorgabe (Blaupause) für die Realisierung eines artifiziellen Bewusstseins durch ein kognitives System. Im Gegensatz dazu wird im Folgenden unter natürlichem und damit menschlichem Bewusstsein ein erweitertes (Selbst)Bewusstsein verstanden, das dadurch entsteht, dass sich der Mensch in seiner Sprachlichkeit rekursiv auf sich selbst bezieht (Selbstreferentialität ). Diese Selbstbeobachtung kann durch eine wechselseitige Fremdbeobachtung angereichert werden, was dann zu einem selbstkritischen Selbstbewusstsein führen kann, aber nicht muss.

    Im Folgenden wird also im Falle eines natürlichen Bewusstseins stets von Selbstbewusstsein die Rede sein, wodurch beide Begriffe synonym und in Abgrenzung zum artifiziellen Bewusstsein behandelt werden.

    Eine Grundposition dieses Buches ist also, dass Simulationen durchaus als Erklärungen benutzt werden können.

    Wenngleich im Rahmen der Implementierung der Simulationsprogramme die Einsicht aus dem Konstruktivismus verwertet wird, dass es unter Umständen nicht ausreicht, funktionales Verhalten zu simulieren, sondern dass auch die strukturellen Veränderungen und Prozesse mit untersucht werden müssen, wenn natürliche kognitive System verstanden, erklärt und in Simulationsprogramme überführt werden sollen.

    Sie eignen sich für diese Aufgabe, weil mit ihnen nicht nur Ergebnisse produziert werden können, die gut mit zu beobachtenden Ereignissen übereinstimmen, sondern sie zeigen auch auf, dass die modellierten und simulierten Prozesse im Original der Realität ähnlich sind.

    Die Eignung des methodischen Funktionalismus, der besagt, dass die Betrachtungsweise kognitiver Phänomene als funktionaler Phänomene für die Zwecke der Forschung angemessen sind, ergibt sich aber auch aus einem rein praktischen Umstand, weil sich die darin getroffenen theoretischen Annahmen einigermaßen leicht computertechnisch umsetzen und implementieren lassen. Dies darf und soll an dieser Stelle nicht verschwiegen werden.

    Die Bestätigung dieser Annahme führt zur starken Hypothese der Kognitionswissenschaft, die durch die gute Übereinstimmung der Simulationsergebnisse und der tatsächlich gemachten Beobachtungen zwar gestützt, jedoch bis dato nicht durch eine gesicherte empirische Evidenz, die für die Isomorphie der Prozesse spricht, also durch den empirischen Nachweis von Symbolverarbeitungs- oder von subsymbolischen Informationsverarbeitungsprozessen gefestigt wird (Abb. 2.2).

    A305667_1_De_2_Fig2_HTML.gif

    Abb. 2.2

    Reduktion auf Modelle und deren Erweiterung durch Simulation

    Nach dem in diesem Buch verfolgten Ansatz sind Theorien die Basis für die Konzeptionalisierung von Kognitionsmodellen. Dabei sind Theorien als auch die Modelle Bestandteil eines zukünftigen allgemeinen Modelles der Kognition, wobei in den einzelnen Modellen jeweils andere Zusatzannahmen getroffen werden. Die einzelnen Theorien und Modelle decken folgenden Gegenstandsbereich ab:

    Ein allgemeines Modell beinhaltet, dass Kognition Informationsverarbeitung ist. Informationsverarbeitende Prozesse transformieren Eingaben durch Anwendung einer Abbildungsrelation in Ausgaben. Rein mathematisch handelt es sich in der Tat um Relationen und nicht um Funktionen, da die Abbildung nicht zwingend eineindeutig und umkehrbar sein muss. Von der physischen Realisation der informationsverarbeitenden Prozesse wird abgesehen, da ihre Beschreibung rein funktionalistisch erfolgt. Das allgemeine Modell soll dabei idealtypisch für alle kognitiven Systeme gelten und diese erklären.

    Das natürliche Modell besitzt gegenüber dem allgemeinen Modell einen wesentlich kleineren Gültigkeitsbereich, da dies nur auf natürliche Systeme, insbesondere Lebewesen, anwendbar ist. Es kommen Elemente hinzu, die berücksichtigen, dass die informationsverarbeitenden Prozesse zum einen durch biologische Strukturen realisiert werden, dass bestimmte kognitive Fähigkeiten im Laufe der Kindheit erlernt werden und dass zum anderen Menschen bzw. deren zentrales Nervensystem stochastischen Prozessen unterliegen. Mit Hilfe dieses Modells kann das Verhalten von natürlichen kognitiven Systemen erklärt und prognostiziert werden. Grundsätzlich sind die in den allgemeinen und natürlichen Modellen beschriebenen Informationsverarbeitungsprozesse auf funktionaler Ebene identisch, doch müssen Zusatzannahmen getroffen werden, um das Verhalten von natürlichen kognitiven Systemen erklären zu können.

    Das artifizielle Modell besitzt gegenüber dem allgemeinen Modell ebenfalls einen wesentlich kleineren Gültigkeitsbereich. Die Theorie erklärt Informationsverarbeitung auf Basis von Computern oder ähnlich strukturierten Systemen. So müssen beispielsweise Elemente in der Theorie enthalten sein, die erklären, wie Daten-, Informations- und Wissensstrukturen gespeichert und abgerufen werden. Wiederum sind die in den allgemeinen und artifiziellen Modellen beschriebenen Informationsverarbeitungsprozesse auf funktionaler Ebene identisch.

    Philosophisch umstritten ist ein solcher Funktionalismus dahingehend, inwieweit seine Aussagekraft allein aus der modellhaften und später dann technologischen Realisierung entsteht, so dass sich ohne die Computersimulation seine Aussagekraft zur Beschreibung kognitiver Phänomene auflöst und dann die Gefahr erwächst, lediglich fiktionale Annahmen zu treffen. Die Existenz der Modelle und der Simulation (Computer und Programm) mit ihren strukturellen Eigenheiten bedingt nach dieser Überlegung die Aussagekraft der funktionalistischen Theorie.

    Insgesamt ist damit die Annahme formuliert, dass eine vereinigende Theorie der Kognition möglich ist, wobei diese selbst noch nicht das Verhalten von natürlichen und künstlichen kognitiven Systemen erklären kann. Für diese Erklärung sind in beiden Fällen Zusatzannahmen notwendig. Es müssen Theorie- und Modellelemente enthalten sein, mit denen die jeweilige spezifische Art und Weise der Informationsverarbeitung erklärt werden kann. Die Zusatzannahmen enthalten damit Anweisungen zur Reduktion, sowohl der Theorie biologischer, wie auch jener technischer Informationsverarbeitung auf eine Theorie allgemeiner Informationsverarbeitung. Daraus folgt aber auch, dass Simulationen allenfalls Teilelemente einer allgemeinen Theorie der Kognition wiedergeben können. Im Rahmen des Cognitive Computing werden daher Theorien sowohl für natürliche als auch für artifizielle (künstliche) kognitive Systeme entwickelt. Diese Entwicklung setzt voraus, dass grundsätzlich akzeptiert wird, dass Kognition eine Form der Informationsverarbeitung ist. Wird diese Annahme abgelehnt, ist das Unternehmen der Reduktion kognitiver Prozesse auf Informationsverarbeitungsprozesse zumindest in Frage gestellt und damit zur philosophischen Auseinandersetzung freigestellt. Insofern verfolgt dieses Buch an dieser Stelle einen funktionalistischen Ansatz , indem Simulationen zumindest für Werkzeuge im Dienste der Erklärung von Kognition dienen.

    Im Verlauf dieses Buches wird auch ein Paradigma der Symbolverarbeitung formuliert und nimmt damit an dieser Stelle erneut einen rein funktionalistischen Standpunkt ein, d. h. auf der Ebene der funktionalen Beschreibung sind die mentalen Zustände eines Menschen vergleichbar mit denen eines Computers, auf dem ein Programm abläuft. In Bezug auf kognitionswissenschaftliche Aspekte können Bewusstsein, Intelligenz, Intentionen, Ziele, Wünsche, etc. als mentale Zustände identifiziert und als solche mit funktionalen Zuständen gleichgesetzt werden, wobei die Zuordnung nicht kontingenterweise, sondern durch Verknüpfung von Aussagen (nomologisch) geschieht. Die Frage, inwieweit damit Computer, die ein entsprechendes Programm abarbeiten, ebenfalls mentale Zustände besitzen, bleibt an dieser Stelle offen und soll in einer weiteren, dann aber ausschließlich philosophischen Auseinandersetzung, beantwortet werden. Neben dieser Konzentration verfolgt das Buch aber auch einen pragmatischen Ansatz . Anstatt zu fragen, wie mentale Zustände auf physikalisch zu beschreibende Vorgänge reduziert werden können, wird der Frage nachgegangen, wie eben diese Vorgänge durch kognitive oder mentale Vorgänge zu beschreiben sind.

    Dies erfolgt in etwa nach dem alltagssprachlichen Muster, wie beispielsweise über ein Auto die Aussage getroffen werden kann, dass es sich bewegt bzw. fährt, anstatt zu sagen, dass sich unter der Motorhaube gewisse Teile in bestimmten Zuständen befinden, die dazu führen, dass andere Teile eine Zustandsveränderung erfahren etc.

    Es wird also von dem Umstand Gebrauch gemacht, dass es leichter sein kann, eine bekannte Maschine mit mentalen Eigenschaften und Zuständen zu beschreiben, als sich an seiner inneren physikalischen Struktur zu orientieren. Dieser verfolgte Pragmatismus hat den Seiteneffekt, dass er als Kriterium der Güte von Theorien den Aspekt der Wahrheit durch Aspekte wie Anwendbarkeit, Einfachheit oder Realisierbarkeit ersetzt. Dennoch wird die Annahme mentaler Zustände, Prozesse oder Entitäten nicht abgelehnt, obwohl sie zum einen zusätzliche Annahmen bei der Erklärung kognitiver Systeme bedingen, zum anderen nicht direkt beobachtbar sind und somit eine empirische Evidenz für ihre Existenz nur indirekt erfahrbar ist.

    Die Übereinstimmung von Simulationsergebnissen und Beobachtungen lässt sich mit den beiden Ansätzen der Symbolmanipulation im Rahmen eines Symbolismus oder subsymbolischer Prozesse im Rahmen eines Subsymbolismus erzielen.

    Eine darin inkludierte Annahme ist, dass subsymbolische Prozesse in neuronalen Netzen als Basis dazu benutzt werden können, auf einer höheren Stufe der Informationsverarbeitung Symbolmanipulation zu realisieren.

    In diesem Sinne wird ein Symbolsystem als eine „Maschine verstanden, die im Ablauf der Zeit eine sich entwickelnde Anzahl von Symbolstrukturen hervorbringt. Für diese Symbolstrukturen sind zwei Aspekte zentral. Zum einen „bezeichnet ein Ausdruck einen Gegenstand, wenn das System bei gegebenem Ausdruck entweder den Gegenstand selbst beeinflussen kann oder sein Verhalten vom Gegenstand abhängig ist. In beiden Fällen gewinnt man über den Ausdruck Zugang zum Gegenstand, und das ist das Wesen der Bezeichnung. Zum anderen kann das System einen Ausdruck „interpretieren", wenn der Ausdruck einen Prozess bezeichnet und wenn das System bei gegebenem Ausdruck den Prozess ausführen kann. Aus dem Aspekt der Bezeichnung und der Interpretation folgt die Hypothese, dass ein solches Symbolsystem über die notwendigen und hinreichenden Mittel für allgemeine intelligente Handlungen verfügt. Dabei soll unter einer solchen intelligenten Handlung verstanden werden, dass das System in irgendeiner wirklichen Situation ein Verhalten zeigt, das den Zielen des Systems entspricht und sich dadurch den Erfordernissen der Umgebung anpassen kann, wenngleich innerhalb bestimmter Grenzen hinsichtlich Geschwindigkeit und Komplexität. Ein solches Symbolsystem ist eine Instantiierung einer universalen Maschine. Die Symbolsystem-Hypothese geht demnach davon aus, dass artifizielle Intelligenz durch einen universalen Computer realisiert und natürliche Intelligenz simuliert werden kann.

    Insofern wird damit der Auffassung widersprochen, dass maschinelle Informationsverarbeitung a priori „dumm und menschliche Informationsverarbeitung a priori „intelligent zu sein scheint.

    Das Buch formuliert daher einen kognitiven Symbolismus und stellt folgende Anforderungen an natürliche und artifizielle intelligente Systeme:

    Repräsentation: Das System muss eine Repräsentation der Welt haben, sie manipulieren und erweitern können.

    Formalismus: Kern der Repräsentation ist ein Formalismus,

    Heuristik : Die Programmierung des Formalismus muss so beschaffen sein, dass Problemlösen sich mittels einer Suchstrategie systematisch auffinden oder mittels Deduktion systematisch beweisen lassen.

    Zu diesen Anforderungen an die Systeme wird in Bezug auf die Konzeptionalisierung bzw. die Konstruktion solcher Systeme durch Modellierung von folgenden Annahmen ausgegangen:

    Es gibt eine objektive, vom Menschen unabhängige Welt.

    Diese Welt ist im Prinzip erkennbar.

    Das Wissen über diese Welt wird in Form von bedeutungstragenden Symbolen repräsentiert.

    Die Mechanismen der Erkenntnisgewinnung und der Intelligenz bestehen im Umgang mit diesen Symbolen durch Manipulation.

    Dieser Erkenntnisprozess kann zerlegt werden, d. h. es gibt kleinste bzw. atomare Erkenntniseinheiten, die die Bestandteile des Wissens darstellen.

    Diese Annahmen einer rationalen Rekonstruktion gelten dabei sowohl für die in diesem Buch verfolgten symbolischen, als auch für den subsymbolischen Ansatz. Letztlich muss auch noch der Tatsache Rechnung getragen werden, dass die entwickelten Modelle auch für solche artifizielle Systeme geeignet erscheinen, die sich nicht nur in der Umwelt bewegen, sondern in der einen oder anderen Weise an dieser Umwelt partizipieren bzw. diese beeinflussen. Dies führt zu folgenden, eher systembezogenen und wissenschaftsphilosophisch relevanten Anforderungen:

    Kontextualität: Die kognitiven Systeme müssen in irgendeiner Form in der Welt eingebettet sein und durch Sensoren und Effektoren in unmittelbarem physischem Kontakt zu ihrer Umwelt stehen.

    Selbstorganisation und Plastizität : Die Mechanismen der Erkenntnisgewinnung und der Intelligenz dürfen nicht nur ausschließlich programmiert sein, da dies eine explizite und ausschließliche Rekonstruktion bedeuten würde.

    Intentionalität : Die Systeme müssen vielmehr lernfähig und sozialisierbar sein, eine eigene Geschichte haben und handelnd in die Welt eingreifen können.

    Eine weitere wesentliche fundamentale Annahme dieses Buches ist die der Wissensbasiertheit und zwar in der Form, dass ein intelligentes System Wissen über die Welt im Allgemeinen und über die Problemdomäne im Speziellen benötigt,, in der sich dieses System bewegt, dort interagiert bzw. interoperiert. Dieses Wissen muss zusätzlich in geeigneter Form dem System repräsentiert werden, damit es von diesem System auch entsprechend verarbeitet werden kann. Insofern kann man diese Repräsentation umgangssprachlich als „formalisierte Version der Welt beziehungsweise der Problemdomäne bezeichnen. Dabei geht eine ganz wesentliche Voraussetzung in diese Definition ein, die auch außerhalb dieses Buches eine tiefe Verankerung, vor allem in der kognitiven Philosophie (philosophy of mind), hat: Nämlich dass die Welt oder die Problemdomäne in Form von begrifflich beschreibbaren Objekten und Zuständen (etwa „Apfel, „Frucht, „Farbe, „rot") und ihre Beziehungen untereinander, objektiv als solche existiert. Diese Voraussetzung der Existentia der Welt und der Problemdomäne ist damit auch existentiell die diesem Buch zugrunde gelegte Erkenntnistheorie, die damit auf Evidenzen zurückgreifen kann. Ein intelligentes System muss also ein geeignetes Abbild dieser Evidenzen besitzen oder sich aneignen, um an diesen Evidenzen orientiert, intelligentes Verhalten zu zeigen.

    Ein weiteres, erkenntnistheroetrisches Fundament besteht darin, dass sich auf Basis der Interdisziplinarität der Kognitionswissenschaft durch eine Konzentration auf die technologischen Realisierungsmöglichkeiten eine Transdisziplinarität der Forschungsinteressen ergibt, so dass daraus eine Technologisierung der Kognitionswissenschaften erfolgt und damit insgesamt eine wissenschaftliche Disziplin neuen Typs entsteht. Die ihr eigene und enge Verbindung zwischen Theorie und Technik, zwischen Wissen-Können und Realisieren-Können, zwischen der Wissenschaft des Kognitiven und Mentalen und der Computertechnologie als Simulationsmedium kommt in dieser Disziplin und damit auch in deren Namen als Cognitive Computing zum Ausdruck. Speziell diese Computer- und Informationstechnologie im Allgemeinen und die Techniken zur Simulation naturanaloger Verfahren im Speziellen bringen demnach eine neue spezifische Qualität in die damit transdisziplinären Forschungen des Cognitiv Computing ein. Durch diesen Einbezug von Technik bzw. Technologie und die dadurch bedingte Erweiterung des Forschungsbereiches wird auch verhindert, dass sich eine durch die Technologien bedingte Zirkularität in Form eines „blinden Flecks" manifestiert. Dieser Aspekt der Zirkularität kommt in der Kognitionsforschung dahingehend zum Ausdruck, dass Gegenstand und Methodik im Ergebnistyp der Computersimulationen zusammen fallen, da die Ergebnisse der Forschungsmethode den Gegenstand konstituieren.

    Sowohl Theorien, Modelle und Computersimulationen fungieren als Ausgangs- und Endpunkt der Forschungen und allen diesen Elementen kommt entscheidende Bedeutung in Form einer multiplikativen Verknüpfung zu (Abb. 2.3).

    A305667_1_De_2_Fig3_HTML.gif

    Abb. 2.3

    Erkenntnis als multiplikative Verknüpfung

    Gerade durch den Einsatz von Technologie zur Erklärung und Simulation kognitiver Fähigkeiten lassen sich unterschiedliche Forschungsinteressen aus unterschiedlichen Disziplinen vermengen. Insofern wird damit die Realisierung früherer Idealvorstellung transdisziplinärer Kooperationen möglich:

    Die mit Denken, Verstand, Sprache, Wissen, Erkenntnis und Wahrnehmung des Menschen zusammenhängenden Probleme und ihre Formalisierung gehören nicht ausschließlich in eine Disziplin, sondern fallen in zahlreiche Einzelwissenschaften, die als Transdisziplin nach einer integrativen Lösung streben (Gardner 1989)

    Cognitive Computing wird als eine technologisch orientierte und als natur- und geisteswissenschaftlich zu verstehende Disziplin aufgefasst, die unter Einsatz von Computern, also durch rechnergestützte Algorithmisierung menschliche und künstliche Intelligenzleistungen zu modellieren und zu simulieren sucht.

    Wenn also die Kognitionswissenschaft zunächst als ein interdisziplinäres und dann aufgrund der Technologisierung durch das Cognitive Computing als transziplinäre Disziplin aufgefasst wird, lässt sich diese Auffassung auch dadurch legitimieren, dass sich deren äußerste Fachgrenzen in einer ersten Näherung an drei Kriterien festmachen lassen:

    an der Erweiterung des Gegenstandsbereiches,

    an der Erweiterung der Forschungsmethoden und

    an der Erweiterung der wissenschaftlichen Gemeinschaft als Ansammlung von Fachleuten eines Wissenschaftsgebietes.

    Die Rolle der Scientific Community (im Folgenden als Wissensgemeinschaft bezeichnet) wird im Verlauf der nächsten Jahre eher noch an Bedeutung zunehmen. Vor allem deshalb, weil neben Paradigma gerade von der Wissenschaftsgemeinschaft auch eine Immunisierungsfunktion ausgeht, indem neue Theorieansätze marginalisiert und andersdenkende Wissenschaftler diskriminiert werden. Die wissenschaftliche Gemeinschaft ist als wissenschaftsphilosophische Kategorie im Bereich des Cognitive Computing demnach so grundlegend, dass sie eine wesentliche Rolle spielen und ein eigenes Forschungsgebiet werden wird.

    Gerade das Kriterium der Forschungsmethoden macht die Umbruchsituation erkennbar, indem das Cognitive Computing die klassische Kognitionswissenschaft technologisiert, damit zu einer Erweiterung des Methodenkanons führt und dies nicht nur zu einer Erkenntnis-und Wissenserweiterung führt, sondern auch eine kritische Auseinandersetzung mit diesen neuen Möglichkeiten bedingt.

    Eine solche kritische Auseinandersetzung wird durch die Erwartung motivert, dass die durch die Technologisierung der Kognitionswissenschaften möglichen Simulationen nicht nur die Welt, sondern auch die Sichtweisen auf diese und den Menschen nachhaltig verändern wird. So wie die bloße Existenz des Fernrohrs – als Beispiel einer frühen Technologie – die Kultur des Sehens im Ganzen und die kulturellen Wahrnehmungsformen verändert hat, werden auch die Fortschritte der Kognitionswissenschaften das allgemeine Bild vom Menschen tiefgreifend verändern. Dies zeigt sich in ersten Ansätzen daran, dass klassische Problem- und Fragestellungen aus einer neuen Perspektive betrachtet bzw. gestellt werden müssen: Wie soll man sich aufgrund der Neurotechnologie die Beziehung zwischen Gehirn und Bewusstsein denken? (McDermott 2007) Gibt es noch so etwas wie eine Seele oder eine Persönlichkeit? Was bleibt noch von der Willensfreiheit und Autonomie des Menschen? Aber auch: Muss das Rechtssystem in Anbetracht der Tatsache, dass Systeme mit einer artifiziellen Kognition ausgestattet werden, an die neue Faktenlage angepasst werden? Wer wird die Verantwortung tragen, wenn autonome Systeme trotz oder wegen deren inhärenten artifiziellen Kognition zum Schaden von Menschen entscheiden und entsprechend handeln? Die notwendige Auseinandersetzung mit solchen (alten) Fragenstellungen und die daraus resultierenden (neuen) Antworten könnten bereits ein verändertes Gesamtbild des Menschen und seiner Welt ergeben. Ein wesentlicher Punkt dabei ist, dass auch die mit einer artifiziellen Kognition ausgestatteten Systeme und deren Einbettung in Experimente und Alltag selbst aktiv und autonom auf diesen Veränderungsprozess einwirken.

    2.2 Methodik

    Das vorliegende Buch behandelt das Problem der prozessualen und funktionalen Ausgestaltung von artifiziell-kognitiven Systemen. Im Sinne der Wissenschaftsphilosophie ist diese Untersuchung als ein Forschungsprogramm oder vorsichtig als Paradigma anzusehen, d. h. als ein zunächst interdisziplinäres, dann transdisziplinäres Unternehmen, dessen charakteristischste Methode die kognitive Modellierung ist, nämlich die formale und auf Computer implementierte Modellierung kognitiver Prozesse in Verbindung mit der Überprüfung dieser Modelle durch empirische Analyse natürlicher kognitiver Systeme.

    Vorsichtig daher, weil zum einen im Sinne von T.S. Kuhn oder I. Lakatos. Die Wissenschaft operiert nach dieser Sichtweise in einem anerkannten Paradigma, das eine Grundorientierung der Forschung vorgibt. Es umfasst die disziplinären Grundlagen (Theorien, Methoden, Gegenstandsbestimmungen, Definitionen, Instrumentarien, Techniken etc.), deren Infragestellung dann allerdings zu einem Paradigmenwechsel führen kann. Das Paradigma erweist sich demnach als Rahmen für die Forschung, das die kreativen und gerichteten Prozesse kanalisiert und bei Irritationen wieder ausrichtet, d. h. in die alten Bahnen zurückzubringen versucht. Eine Wissenschaft befindet sich also solange innerhalb eines Paradigmas, als die gemeinsamen Problemlösungen innerhalb dieser Wissenschaftsgemeinschaft nicht in Frage gestellt werden. Vorsichtig aber auch deshalb, weil damit nicht präjudiziert werden soll, dass ein Wandel in den kognitionswissenschaftlichen Vorstellungen diese Dimension einer „wissenschaftlichen Revolution erreicht. Immerhin könnte gerade die Untersuchungen ergeben, dass die Kognitionswissenschaft im Allgemeinen und das Cognitive Computing im Speziellen eine „Transdiziplin ist, die ganz ohne Paradigma auskommt, da andere Momente die Theoriedynamik bestimmen.

    Die Diskussion um Kognition im Allgemeinen und exemplarisch um das des Leib-Seele-Problems wird auf der einen Seite von Philosophen geführt, auf der anderen Seite unter anderem von Psychologen, Neurologen, Linguisten, Anthropologen oder eben inzwischen von auch Informatikern. Auf der einen Seite wird (fast) ausschließlich theoretisch gearbeitet, auf der anderen Seite wird die Empirie großgeschrieben. Beide Methoden haben ihre Daseinsberechtigung, gelten sie doch als unverzichtbar, wenn es um Erkenntnisgewinnung bei der Lösung solcher Fragestellungen geht. Dennoch kann man sich nicht des Eindrucks erwehren, dass die einzelnen Forschenden hier und da aneinander vorbeireden. Dies macht sich schon daran bemerkbar, dass häufig ein völlig anderes Vokabular zur Formalisierung der jeweiligen Theorien benutzt wird. So sprechen Psychologen von Problemlösungsverhalten, Zweck-Mittel-Analyse oder funktionalen Zuständen, wo Philosophen von intentionalem Handeln, wertebasierter Folgenabschätzung und mentalen Zuständen reden. Die Forderung dieses Buches, dass sich Forscher unter dem Dach der Kognitionswissenschaft bzw. dem des Cognitive Computing zur interdisziplinären Zusammenarbeit treffen müssen, zeigt deutlich, dass Erkenntnisfortschritte nur durch konzertierte Aktionen im Rahmen einer interdisziplinären Auseinandersetzung zu erzielen sind.

    Das Geburtsjahr der Kognitionswissenschaft lässt sich nicht exakt ausmachen, aber in die Jahre rund um 1965 legen. In diesem Zeitraum wurden erste funktionierende Systeme entwickelt, die aus Sicht der KI-Forscher als informationsverarbeitende Systeme bezeichnet werden konnten (Gardner 1992).

    Diese Methodik spiegelt sich auch in der Gliederung des Buches wieder (Abb. 2.4).

    A305667_1_De_2_Fig4_HTML.gif

    Abb. 2.4

    Methodik als Vorgehensmodell

    Dabei dienen die im Folgenden genannten Eckpunkte als Orientierungspunkte für die zielorientierte Entwicklung der Problematik.

    Das Problem der natürlichen und artifiziellen Kognition soll sachlich und rational diskutiert werden, um die bisher eher diffus und verteilt geführten Überlegungen „rational" zu strukturieren. Dabei soll sowohl eine Brücke zwischen der öffentlichen und der wissenschaftlichen Diskussion geschlagen als auch der Spalt zwischen geistes- bzw. kulturwissenschaftlicher und naturwissenschaftlicher Begrifflichkeit überbrückt werden.

    Für eine rationale Strukturierung des Problems ist ein wechselseitiger Austausch zwischen naturwissenschaftlichen und geistes- bzw. kulturwissenschaftlichen Erkenntnissen notwendig, d. h. das Vorhaben des Buches hat zunächst einen interdisziplinären Charakter. Gerade die neuen Erkenntnisse der Neurowissenschaften und die zunehmende Entwicklung neuer Technologien lässt die philosophische Begrifflichkeit „unscharf" werden, so dass neue philosophische Konzepte in Auseinandersetzung mit den Naturwissenschaften entwickelt werden müssen. Damit soll der Tatsache entgegengewirkt werden, dass sich Technologien über Herstellung bzw. Machbarkeit definieren. Gleichzeitig überschreiten aber auch die in diesem Buch initiierten soft- und hardware-technischen Entwicklungen die naturwissenschaftlichen Grenzen, weil sie im zunehmenden Maße in ursprünglich philosophische Bereiche (z. B. Bewusstsein) vordringen, somit auch anwendungsbezogene Probleme aufwerfen und letztlich transdisziplinär Lösungen entwickeln.

    Der interdisziplinäre Charakter des Buches erfordert eine Methodik, welche durch den vorläufigen Begriff der „Kognitionsphilosophie " charakterisiert werden kann. Dabei werden philosophische Begriffe auf ihre empirische Realität bzw. Plausibilität untersucht, in Bezug zu den gegenwärtigen kognitionswissenschaftlichen Kenntnissen gesetzt und im Rahmen einer soft- bzw.- hardwaretechnischen Implementierung im Rahmen von Simulationen einer Validierung zugeführt. Eine solche kognitionsphilosophische Methodik weist einen exemplifikatorischen Charakter auf und kann daher auf verschiedenste Probleme im Spannungsfeld zwischen Informatik, Philosophie und Kognitionswissenschaften angewendet werden.

    Da das vorliegende Buch im Diskussionsfeld zwischen der anthropologisch-philosophischen Auffassung der Kognition und der zunehmenden Entwicklung neuer Technologien für Ausgestaltung von artifiziellen Systemen mit einer systemischen Intelligenz und der ethisch-politischen Vertretbarkeit derselben angesiedelt ist, kann die kognitionsphilosophische Methodik hier in einem ersten Schritt zur Entwicklung von empirisch fundierten Kriterien zur Beurteilung der systemischen Intelligenz in Form eines systemischen Intelligenz – bzw. Kognitionsprofils profils dienen.

    Dieser methodische Charakter des Buches soll zum einen mehr über das natürliche (menschliche) Denken in Erfahrung bringen, die spätere technische Simulation vorbereiten und letztlich die Gefahr der Mechanisierung des Kognitiven bzw. des Denkens verhindern:

    Die Erklärung bedient sich fast durchweg des technischen (oder als technisch verstandenen) Vokabulars der Informatik und erweist sich somit deutlich als ein Maschinenmodell des Geistes. (Schefe 1991)

    Das vorliegende Buch orientiert sich in methodischer Hinsicht im Speziellen an den folgenden Leitlinien , da die allgemeine Vorgehensweise durch empirische Bezüge zwischen theoretischen und beobachtbaren Sachverhalten sowie durch die Analyse einzelner Begriffe geprägt ist.

    Es werden theoretische Begriffe (z. B. Kognition, Bewusstsein, Intelligenz etc.) in Beziehung zu beobachtbaren Sachverhalten gesetzt. Dabei werden die theoretischen Begriffe konzeptionalisiert, so dass entsprechende Hypothesen, die empirisch überprüfbar und entsprechende Modelle, die im Rahmen einer Implementierung lauffähig sind, aufgestellt bzw. erstellt werden können.

    Bei der Hypothesenbildung , der Konzeptionalisierung und Implementierung der theoretischen Begriffe wird ein Hintergrundwissen verwendet, welches sich sowohl auf zentrale theoretische Annahmen und Hilfsannahmen als auch auf vorliegende empirische und erkenntnistheoretische Befunde stützt. Die exakte Rekonstruktion und Explikation dieses Hintergrundwissens ist sowohl bei vorliegenden zu kritisierenden Theorien (mentale Modelle und kognitive Modelle etc.) als auch bei selbst zu entwickelnden Theorien (z. B. Kognitionstheorie, Cognitive Computing etc.) von zentraler Bedeutung, da erst dann eine logische und nicht nur eine intuitive Beziehung zwischen theoretischem Begriff und praktischer Technologieanwendung hergestellt werden kann.

    Das Buch versucht, keine bzw. nur „minimal-invasive metaphysische Annahmen zu machen. An die Stelle solch metaphysischer Annahmen (z. B. Formen einer bestimmten Geist-Gehirn-Theorie) rückt die Herstellung einer Beziehung zwischen theoretischen und beobachtbaren Evidenzen und Sachverhalten, wodurch die philosophischen Aussagen über Kognition mit den gegenwärtigen Kenntnissen der Funktion und Organisation des Gehirns verknüpft werden. So bleibt beispielsweise die Frage offen bzw. den Philosophen überlassen, inwieweit in der „Computation überhaupt noch eine Differenz zwischen „Geist und „Materie auszumachen ist.

    In diesem Buch werden philosophische und kognitionswissenschaftliche und Aspekte aus der Informatik direkt miteinander verknüpft, wodurch eine gewisse Komplexität gerade im Konzeptionalisierungs- bzw. Implementierungsteil nicht vermieden werden kann. Infolgedessen kann das Buch auch partiell umgekehrt gelesen werden. In einem ersten Schritt können die Kapitel über die Validierung zur Vermittlung eines Überblicks gelesen werden, während die Teile bezüglich der Konzeptionalisierung und Implementierung zur Vertiefung selektiver Aspekte und einzelner spezieller Fragestellungen erst in einem zweiten Schritt herangezogen werden können.

    Charakteristisch für den Einsatz des Cognitive Computing ist seine Verwendung sowohl im Rahmen eines Bottom-Up- als auch eines Top-Down-Ansatzes. Im Verlaufe eines Top-Down-Ansatzes geht man vom Abstrakten, Allgemeinen, Übergeordneten schrittweise auf das Konkrete, Spezielle, Untergeordnete zu. Hingegen verfolgt der Bottom-Up-Ansatz den umgekehrten Weg, indem, ausgehend vom Konkreten, Speziellen und Untergeordneten, dem Allgemeinen, Abstrakten und Übergeordneten zugestrebt wird.

    Aus Sicht der Entwicklung werden im Falle des „Top-Down"-Ansatzes Programme erstellt, die aus einer bereits bestehenden Theorie hervorgehen, also eine andere Formulierung der Theorie darstellen. Im Gegensatz dazu werden beim Bottom-Up-Ansatz Programme entwickelt, um mit ihnen Ausgabedaten zu produzieren, die dem Verhalten des modellierten und simulierten Realitätsausschnitts entsprechen.

    Dies lässt auch noch eine andere Sichtweise zu. Top-Down-Ansätze lassen sich als „Als-ob-Lösungen auffassen, indem ein Lösungsmodell für eine ganze Klasse von Problemen als analoge Modelllösung erachtet wird. Im Gegensatz steht das Bottom-Up-Verfahren, das „Im-Prinzip-Lösungen liefert, von denen sich dann andere Problemlösungen musterhaft erschließen lassen.

    Erreicht die Güte der Ergebnisse dann ein bestimmtes Maß, werden die Programme als Theorien verwendet.

    Um im Falle des „Top-Down"-Verfahrens sicherzustellen, dass die Formulierung der Theorie mittels einer Programmiersprache die Theorie selbst adäquat wiedergibt, ist im Rahmen der Implementierung eine geeignete Programmiersprache zu finden, die es ermöglicht, den programmtechnischen Ballast klein zu halten und so den Blick auf das Wesentliche nicht verstellt.

    Unabhängig von diesem Ansatz wird der Weg vom Problem zur Lösung von bestimmten Einflussgrößen bestimmt. So erweitern kognitionspsychologische und biologische Inspirationen vorhandene einfache Modelle durch detailliertere Inspirationen . Analysen führen zu einem theoretischen Modell, das zur Vereinheitlichung vorhandener Modelle oder zu Erweiterungen führen kann. Zu guter Letzt ergeben sich problemspezifische Anforderungen, die

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1