Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
Von Christoph Engemann und Andreas Sudmann
()
Über dieses E-Book
Im digitalen Wandel ist Lernen damit kein Privileg des Menschen mehr. Vielmehr verschieben sich mit maschinellen Lernverfahren die Relationen zwischen Erkenntnismöglichkeiten, technischen Umwelten und humanen Akteuren.
Dieser Band vermittelt erstmals für den deutschsprachigen Raum einen Überblick über die medialen, infrastrukturellen und historischen Voraussetzungen des maschinellen Lernens.
Ähnlich wie Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
Titel in dieser Serie (58)
Interpreting Networks: Hermeneutics, Actor-Network Theory & New Media Bewertung: 0 von 5 Sternen0 BewertungenNew Media Culture: Mediale Phänomene der Netzkultur Bewertung: 0 von 5 Sternen0 BewertungenInternet der Dinge: Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt Bewertung: 0 von 5 Sternen0 BewertungenDas halbwegs Soziale: Eine Kritik der Vernetzungskultur Bewertung: 0 von 5 Sternen0 BewertungenBig Data: Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie Bewertung: 0 von 5 Sternen0 BewertungenVernetzt - Zur Entstehung der Netzwerkgesellschaft Bewertung: 0 von 5 Sternen0 BewertungenPraktiken medialer Transformationen: Übersetzungen in und aus dem digitalen Raum Bewertung: 0 von 5 Sternen0 BewertungenMachine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz Bewertung: 0 von 5 Sternen0 BewertungenDigitale Datenbanken: Eine Medientheorie im Zeitalter von Big Data Bewertung: 0 von 5 Sternen0 BewertungenPolitical Participation in the Digital Age: An Ethnographic Comparison Between Iceland and Germany Bewertung: 0 von 5 Sternen0 BewertungenIm Bann der Plattformen: Die nächste Runde der Netzkritik Bewertung: 0 von 5 Sternen0 BewertungenBlogLife: Zur Bewältigung von Lebensereignissen in Weblogs Bewertung: 0 von 5 Sternen0 BewertungenÄsthetik digitaler Medien: Aktuelle Perspektiven Bewertung: 0 von 5 Sternen0 BewertungenPerforming the Digital: Performativity and Performance Studies in Digital Cultures Bewertung: 0 von 5 Sternen0 BewertungenDatengesellschaft: Einsichten in die Datafizierung des Sozialen Bewertung: 0 von 5 Sternen0 BewertungenBilder verteilen: Fotografische Praktiken in der digitalen Kultur Bewertung: 0 von 5 Sternen0 BewertungenKritische Kollektivität im Netz: Anonymous, Facebook und die Kraft der Affizierung in der Kontrollgesellschaft Bewertung: 0 von 5 Sternen0 BewertungenIndivisualisierung & Clashplay: Die Funktion des Avatars in neuartigen fankulturellen Praxen Bewertung: 0 von 5 Sternen0 BewertungenSmartphones als digitale Nahkörpertechnologien: Zur Kybernetisierung des Alltags Bewertung: 0 von 5 Sternen0 BewertungenAffekt Macht Netz: Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft Bewertung: 0 von 5 Sternen0 BewertungenLeben nach Zahlen: Self-Tracking als Optimierungsprojekt? Bewertung: 0 von 5 Sternen0 BewertungenDas quantifizierte Selbst: Zur Genealogie des Self-Trackings Bewertung: 0 von 5 Sternen0 BewertungenDas Ende der Informationskontrolle: Zur Nutzung digitaler Medien jenseits von Privatheit und Datenschutz Bewertung: 0 von 5 Sternen0 BewertungenWhistleblowing for Change: Exposing Systems of Power and Injustice Bewertung: 0 von 5 Sternen0 BewertungenDigitalität und Privatheit: Kulturelle, politisch-rechtliche und soziale Perspektiven Bewertung: 0 von 5 Sternen0 BewertungenInternet in Nairobi, Kenia: Medienaneignung als Konstruktion Bewertung: 0 von 5 Sternen0 BewertungenDer Wert der Digitalisierung: Gemeinwohl in der digitalen Welt Bewertung: 0 von 5 Sternen0 BewertungenNetwork Publicy Governance: On Privacy and the Informational Self Bewertung: 0 von 5 Sternen0 BewertungenDigitaler Nihilismus: Thesen zur dunklen Seite der Plattformen Bewertung: 0 von 5 Sternen0 Bewertungen(Dis)Obedience in Digital Societies: Perspectives on the Power of Algorithms and Data Bewertung: 0 von 5 Sternen0 Bewertungen
Ähnliche E-Books
Das Zeitalter der Daten: Was Sie über Grundlagen, Algorithmen und Anwendungen wissen sollten Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz Bewertung: 0 von 5 Sternen0 BewertungenModerne Datenanalyse mit R: Daten einlesen, aufbereiten, visualisieren, modellieren und kommunizieren Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz: Was steckt hinter der Technologie der Zukunft? Bewertung: 0 von 5 Sternen0 BewertungenDie Künstliche Intelligenz des Kapitals Bewertung: 0 von 5 Sternen0 BewertungenSemantische Datenintelligenz im Einsatz Bewertung: 0 von 5 Sternen0 BewertungenKommunikation mit unverständlichen Maschinen Bewertung: 0 von 5 Sternen0 BewertungenMensch und Künstliche Intelligenz: Herausforderungen für Kultur, Wirtschaft und Gesellschaft Bewertung: 0 von 5 Sternen0 Bewertungen365 Tage, 365 Einsichten: Ihr Weg zur KI-Meisterschaft Bewertung: 0 von 5 Sternen0 BewertungenPraxiseinstieg Deep Learning: Mit Python, Caffe, TensorFlow und Spark eigene Deep-Learning-Anwendungen erstellen Bewertung: 0 von 5 Sternen0 BewertungenUnser täglich' Information: Eine Einführung in die Vergangenheit und die Zukunft der Konsumenten-Informatik Bewertung: 0 von 5 Sternen0 BewertungenAutonome Systeme und Arbeit: Perspektiven, Herausforderungen und Grenzen der Künstlichen Intelligenz in der Arbeitswelt Bewertung: 0 von 5 Sternen0 BewertungenBewusstsein, Zeit und Symmetrien: Eine Reise durch die Gebiete des menschlichen Wissens zu den Ursprüngen von Intelligenz und Bewusstsein Bewertung: 0 von 5 Sternen0 BewertungenPlanspiele - Vernetzung gestalten: Forschungsergebnisse und Praxisbeispiele für morgen Bewertung: 0 von 5 Sternen0 BewertungenDigitalisierung als Distributivkraft: Über das Neue am digitalen Kapitalismus Bewertung: 0 von 5 Sternen0 BewertungenKI & Recht kompakt Bewertung: 0 von 5 Sternen0 BewertungenVision Quanten-Internet: Ultraschnell und hackersicher Bewertung: 0 von 5 Sternen0 BewertungenWie Maschinen lernen: Künstliche Intelligenz verständlich erklärt Bewertung: 0 von 5 Sternen0 BewertungenGestaltung und Management der digitalen Transformation: Ökonomische, kulturelle, gesellschaftliche und technologische Perspektiven Bewertung: 0 von 5 Sternen0 BewertungenVirtuelle Universität: Digitalisierung erfordert neue Lernparadigmen Bewertung: 0 von 5 Sternen0 BewertungenData Science: Eine praxisorientierte Einführung im Umfeld von Machine Learning, künstlicher Intelligenz und Big Data - 2., erweiterte Auflage Bewertung: 0 von 5 Sternen0 BewertungenComputer wie Götter: Die Rechenknechte übernehmen die Herrschaft Bewertung: 0 von 5 Sternen0 BewertungenDas digitale Wir: Unser Weg in die transparente Gesellschaft Bewertung: 0 von 5 Sternen0 BewertungenKreative Intelligenz: Wie ChatGPT und Co die Welt verändern werden Bewertung: 0 von 5 Sternen0 BewertungenLehre.Lernen.Digital: Jahrgang 4, 2023 Ausgabe 2 Bewertung: 0 von 5 Sternen0 BewertungenKünstliche Intelligenz – Wann übernehmen die Maschinen? Bewertung: 3 von 5 Sternen3/5Internet der Dinge: Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt Bewertung: 0 von 5 Sternen0 BewertungenLehre.Lernen.Digital: Jahrgang 4, 2023 Ausgabe 1 Bewertung: 0 von 5 Sternen0 Bewertungen
Populärkultur & Medienwissenschaft für Sie
Musik/Medien/Kunst: Wissenschaftliche und künstlerische Perspektiven Bewertung: 0 von 5 Sternen0 BewertungenErz, Wismut oder Uran?: Der Uranbergbau der AG/SDAG Wismut in DDR-Publikationen Bewertung: 0 von 5 Sternen0 Bewertungenschön normal: Manipulationen am Körper als Technologien des Selbst Bewertung: 0 von 5 Sternen0 BewertungenVom imaginären Leben in der Spätmoderne: Wie technische Bilder die Realität beeinflussen Bewertung: 0 von 5 Sternen0 BewertungenSchlüsselwerke der Kulturwissenschaften Bewertung: 0 von 5 Sternen0 BewertungenComics: Zur Geschichte und Theorie eines populärkulturellen Mediums Bewertung: 0 von 5 Sternen0 BewertungenModezeitschrift und Zuschneidewerk: Das Schnittmusterjournal "Frohne Modelle" in Schötmar (Lippe) Bewertung: 0 von 5 Sternen0 BewertungenVisuelle Gewalt: Menschenbilder aus der Psychiatrie des 20. Jahrhunderts Bewertung: 0 von 5 Sternen0 BewertungenWie man einen verdammt guten Thriller schreibt Bewertung: 0 von 5 Sternen0 BewertungenDer Hobbit und Der Herr der Ringe: Howard Shores Filmmusiken im Vergleich Bewertung: 0 von 5 Sternen0 BewertungenPaolo Sorrentino: Das Werk eines Ästheten Bewertung: 0 von 5 Sternen0 BewertungenPhilosophieren mit Filmen Bewertung: 0 von 5 Sternen0 BewertungenBestseller in der Weimarer Republik 1925-1930 Bewertung: 0 von 5 Sternen0 BewertungenUnscharfe Grenzen: Perspektiven der Kultursoziologie Bewertung: 0 von 5 Sternen0 BewertungenPOP: Kultur und Kritik (Jg. 4, 1/2015) Bewertung: 0 von 5 Sternen0 BewertungenRadio als Hör-Spiel-Raum: Medienreflexion - Störung - Künstlerische Intervention Bewertung: 0 von 5 Sternen0 BewertungenFilmgeschichte als Krisengeschichte: Schnitte und Spuren durch den deutschen Film Bewertung: 0 von 5 Sternen0 BewertungenEndlichkeit: Zur Vergänglichkeit und Begrenztheit von Mensch, Natur und Gesellschaft Bewertung: 0 von 5 Sternen0 BewertungenHeterotopien: Perspektiven der intermedialen Ästhetik Bewertung: 0 von 5 Sternen0 BewertungenVielfalt / Diversität Bewertung: 0 von 5 Sternen0 BewertungenMonster: Zu Körperlichkeit und Medialität im modernen Horrorfilm Bewertung: 0 von 5 Sternen0 BewertungenIndustrie 4.0 und Digitalisierung – Innovative Geschäftsmodelle wagen! Bewertung: 0 von 5 Sternen0 BewertungenAuf dem Weg zu einer Neuen Aufklärung: Ein Plädoyer für zukunftsorientierte Geisteswissenschaften Bewertung: 0 von 5 Sternen0 BewertungenTopologie.: Zur Raumbeschreibung in den Kultur- und Medienwissenschaften Bewertung: 0 von 5 Sternen0 BewertungenPerformativität: Eine Einführung Bewertung: 0 von 5 Sternen0 BewertungenAllianzen: Kritische Praxis an weißen Institutionen Bewertung: 0 von 5 Sternen0 BewertungenVerlagsratgeber Lektorat: Registererstellung Bewertung: 0 von 5 Sternen0 BewertungenMinimalismus - Ein Reader Bewertung: 0 von 5 Sternen0 BewertungenStrategien ›kultureller Kannibalisierung‹: Postkoloniale Repräsentationen vom brasilianischen Modernismo zum Cinema Novo Bewertung: 0 von 5 Sternen0 Bewertungen
Verwandte Kategorien
Rezensionen für Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
0 Bewertungen0 Rezensionen
Buchvorschau
Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz - Christoph Engemann
I.Epistemologien und Genealogien des maschinellen Lernens
»Down-to-earth resolutions«
Erinnerungen an die KI als eine »häretische Theorie«
Bernhard J. Dotzler
»…and I k’n tell a fortune pretty good when I’ve got somebody along to find out the facts for me.«
MARK TWAIN, THE ADVENTURES OF HUCKLEBERRY FINN
»The Talking Robot was a tour de force, a thoroughly impractical device, possessing publicity value only.«
ISAAC ASIMOV, ROBBIE
»What we want is a machine that can learn from experience.«
ALAN TURING, LECTURE TO L.M.S. FEB. 20 1947
»…und die Frage, ob Computer denken konnten, hatte längst ihre Unschuld verloren, denn was sie konnten, lehrte einen das Fürchten, wie auch immer man es nennen wollte, und Denken sollte man in diesem Zusammenhang vielleicht nicht überschätzen.«
NORBERT GSTREIN, IN DER FREIEN WELT
Medien sind nicht nur Teil der Welt. Medien machen Welt. Zum Beispiel durch Werbung. Denn so erfolgreich kann Werbung sein, dass sie ein Sehen und Hören der Leute macht, das Markennamen wie die Dinge selbst vernimmt, und dass ein Heidegger dieses Vernehmen gegen einen Dingbegriff in Stellung bringen konnte, der das Ding als »Einheit einer Mannigfaltigkeit des in den Sinnen Gegebenen« definiert:
Niemals vernehmen wir, wie er [dieser Dingbegriff] vorgibt, im Erscheinen der Dinge zunächst und eigentlich einen Andrang von Empfindungen, z.B. Töne und Geräusche, sondern wir hören den Sturm im Schornstein pfeifen, wir hören das dreimotorige Flugzeug, wir hören den Mercedes im unmittelbaren Unterschied zum Adler-Wagen. (Heidegger 1935/36: 10)
Keine der beiden genannten Firmen, sondern der Autohersteller, der das Hören selbst zum Namen und daher auch zu seiner Marke erkoren hatte, hatte das Motorengeräusch zum Werbeargument gemacht (Potužníková 2015: 129). Dessen ungeachtet, fährt die philosophische Argumentation fort wie folgt:
Viel näher als alle Empfindungen sind uns die Dinge selbst. Wir hören im Haus die Tür schlagen und hören niemals akustische Empfindungen oder auch nur bloße Geräusche. Um ein reines Geräusch zu hören, müssen wir von den Dingen weghören, unser Ohr davon abziehen, d.h. abstrakt hören. (Heidegger 1935/36: 10)
Wir, die Menschen, heißt das, haben es bei dem, was wir wahrnehmen, nie mit den bloßen Sinnesdaten, sondern »immer bereits mit Interpretation zu tun« (Winograd/Flores 1989: 127).¹
Umgekehrt die Maschinen. Ausgestattet mit einer entsprechenden Sensorik, hören sie – wenn man es überhaupt hören nennen will – erst einmal nur und ausschließlich ›abstrakt‹, also ›bloße Geräusche‹. Und weil sie deren Erkennung, ob also ein Motor brummt, eine Tür schlägt oder eine Uhr tickt, immer erst in weiteren Schritten errechnen müssen, ohne dafür von sich aus über einen die »Fragen nach Relevanz, Kontext und Hintergrundbezug« der Daten beantwortenden »Horizont« zu verfügen, hat man den Unternehmungen einer sogenannten ›starken KI‹ gerade schon zu Zeiten ihrer höchsten Blüte die Voraussage ihres notwendigen Scheiterns entgegenhalten können. Als wäre wieder einmal alles nur »Werbung« und »Werbeaufwand«, hieß etwa die Ankündigung einer »Robotergeneration, die ›sehen‹, ›fühlen‹ und ›denken‹ kann«, für alle Zeiten bloßes Wortgeklingel. »Niemand«, lautete der Einwand gegen die raison d’etre eines »Fachgebietes wie ›Künstliche Intelligenz‹«, sei »in der Lage, Computer so zu programmieren, dass sie intelligent sein werden« (Winograd/Flores 1989: 219, 177, 213, 216, 212 u. 157).
Und doch – Werbung noch einmal – schaltete Mercedes-Benz unlängst eine Anzeigenkampagne, die erstens erinnerte: »Vor 130 Jahren haben wir das Pferd ersetzt«, um zweitens als fait accompli zu vermelden: »Jetzt ist der Kutscher dran.« Beworben wurde eine neue Fahrzeug-Klasse, die das Etikett eines »Masterpiece of Intelligence« verdienen würde, indem sie das sogenannte »autonome Fahren« etabliert, wenn auch zunächst nur als »teilautomatisiertes Fahren«, für das aber bereits gelten soll: »Das Auto teilt sich jetzt das Denken mit dem Menschen […].«² Wenig später ging die Meldung eines tödlichen Unglücks mit dem selbstfahrenden Auto eines anderen Herstellers durch die Presse (und andere Medien).³ So dramatisch kann die Abschaffung des Kutschers einerseits wahr werden. Andererseits handelte es sich bei dem Unfall aus Sicht der KI-Entwickler selbstredend um einen Rückschlag und nicht etwa um eine Erfolgsbestätigung. Was also besagt ein Beispiel wie das beworbene »Intelligent Drive«?
Es bezeugt vorab, dass sich – mit neuer Vehemenz – die Anzeichen für die Erfüllung eines Menetekels verdichten, das schon vor etwa einem Menschenalter seine bekannte Deutung erfuhr. Rückschläge, ob kleinere oder größere, halten die Entwicklung nicht auf. Im Gegenteil, sie gehören dazu, denn, wie Alan Turing bereits anlässlich der praktischen Umsetzung seiner zuvor unternommenen theoretischen Untersuchung der »Möglichkeiten und Grenzen digitaler Rechenmaschinen« erklärte, »wenn von einer Maschine Unfehlbarkeit erwartet wird, kann sie nicht zugleich intelligent sein« (Turing 1947: 186 u. 207). Gerade also auf der Basis einkalkulierter Fehlbarkeit gibt es inzwischen die allfälligen, immer noch anfälligen, aber erstaunlich leistungsfähigen Systeme autonomer Fahrzeuge, der Sprach- und der Bilderkennung, der maschinellen Übersetzung oder beispielsweise auch eines IBM Watson, der 2011 siegreich aus Jeopardy! hervorging, und eines AlphaGo von Google DeepMind mit seinem im März 2016 errungenen Turniersieg über den Go-Meister Lee Sedol. Machine Learning heißt das Schlagwort für ihren Erfolg, und mit Blick auf die Eigenschaft der Lernfähigkeit, deren Unabdingbarkeit vom Beginn informationstechnologischer Entwürfe möglicherweise intelligenter Systeme an betont worden war – man denke etwa nur an Norbert Wieners usurpatorischen Hinweis, »der Begriff der lernenden Maschinen [sei] ebenso alt wie die Kybernetik selbst« (Wiener 1963: 17)⁴ –, deutete Alan Turing die Zeichen schon seiner Zeit als die Prophezeiung, dass, weil ja die Maschinen unsterblich seien und auch noch voneinander lernen könnten, früher oder später »damit [zu] rechnen [sei], »daß die Maschinen die Macht übernehmen« (Turing 1951: 15).
Niemand soll daher sagen, man hätte es nicht wissen können. »Die smarte Kapitulation« oder »Wir schaffen uns ab« mögen immer noch pressetaugliche Schlagzeilen sein,⁵ sind aber längst keine wirklichen Sensationsmeldungen mehr. Ihre Zugehörigkeit zur normativen Kraft des Faktischen steht außer Zweifel. Die fortgesetzt insistierende Frage ist stattdessen, was genau es zu wissen gilt, wenn man denn – so lange schon – weiß, dass die Maschinen die Macht übernehmen.
»LOST GENERATION«
Von einem gewissermaßen nominalistischen Standpunkt aus beginnt die Geschichte der KI mit dem der neuen Disziplin ihren Namen gebenden Dartmouth Summer Research Project on Artificial Intelligence, 1956. Dessen ungeachtet werden zu den tatsächlichen Anfängen – neben etwa eines Claude E. Shannon Programming a Computer for Playing Chess (1949) oder seiner Presentation of a Maze Solving Machine (1951) – eben auch die Überlegungen gerechnet, die Turing in seiner Lecture to the London Mathematical Society (1947), seinem NPL-Report Intelligent Machinery (1948), seinem berühmten Mind-Artikel Computing Machinery and Intelligence (1950) oder schließlich dem Vortrag Intelligent Machinery, a Heretical Theory (1951) angeregt hat.⁶ »This mouse is smarter than you are«, hieß es damals über die mechanische Maus in Shannons Theseus-Maschine, »die in der Lage ist, ein Labyrinth durch Trial-and-Error zu lösen, sich an die Lösung zu erinnern, sie aber auch wieder zu vergessen, falls sich die Situation ändert und die Lösung nicht weiter anwendbar ist« (Shannon 1952: 291). Zu ergänzen war freilich: »Unfortunately, maze-solving is all the mouse can do« (Pfeiffer 1952: 100). Doch hinderte das einen Turing wiederum nicht, sich gegenüber solchen Entwicklungen nachgerade »verpflichtet« zu fühlen, »die Maschine als intelligent anzusehen« (Turing 1947: 206) und die starke »Behauptung« zu vertreten,
daß Maschinen konstruiert werden können, die das Verhalten des menschlichen Geistes weitestgehend simulieren. Sie werden bisweilen Fehler machen, und es ist möglich, daß sie bisweilen neue und sehr interessante Aussagen machen, und im großen und ganzen wird ihr Output dasselbe Maß an Aufmerksamkeit verdienen wie der Output eines menschlichen Geistes (Turing 1951: 10).
Das dann auf den Namen Artificial Intelligence getaufte Forschungsgebiet hielt an dieser Zielvorgabe fest bis etwa, um eine länglichere Geschichte kurz zu machen, zur seinerzeit Furore machenden Ausrufung einer ominösen Fifth Generation.
1981 bekannt gegeben, war deren »Ziel: Computer für die neunziger Jahre und darüber hinaus zu entwickeln – intelligente Computer, die in der Lage sein soll[t]en, mit Menschen in natürlicher Sprache zu verkehren und Stimmen und Bilder zu verstehen«. Es sollten »Computer sein, die lernen, assoziieren, Folgerungen anstellen, Entscheidungen fällen und sich auch sonst so verhalten können, wie wir es bisher allein dem menschlichen Verstand zugebilligt haben« (Feigenbaum/McCorduck 1984: 25). Man bezeichnete sie als »Fünfte Generation« zur Unterscheidung von den vorhergegangen ersten vier Generationen, als da waren: »1. elektronische Vakuumröhrencomputer, 2. transistorisierte Computer, 3. integrierte Schaltkreiscomputer und 4. höchstintegrierte Schaltkreiscomputer«. Deren »Grundkonstruktion« war und ist die »von Neumann-Maschine«, bestehend »aus einem Zentralprozessor (einer Programmsteuereinheit), einem Speicher, einer arithmetischen Einheit und Ein/Ausgabegeräten. Sie arbeitet auch in der Hauptsache seriell, Schritt für Schritt.« Auf eben diese Bauweise sollte die Fifth Generation jedoch »verzichten oder sie in starkem Maß verändern. Stattdessen«, hieß es, werde es »neue Parallelarchitekturen geben (in ihrer Gesamtheit als nicht von-Neumannsche Architekturen bekannt), neue Speicherorganisationen, neue Programmiersprachen und neu eingefügte Arbeitsgänge für den Umgang mit Symbolen, statt nur mit Zahlen«. So werde die Fifth Generation »nicht allein wegen ihrer Technologie etwas Eigenes sein, sondern auch deshalb, weil sie sich von den ersten vier, der Welt vertrauten Generationen in Konzeption und Funktion unterscheidet«. Diese Neukonzeption werde auch »KIPS« genannt: »knowledge information processing systems« (Feigenbaum/McCorduck 1984: 31).
Dergleichen KIPS, ob nun sogenannt oder nicht, sind in der Folge tatsächlich en masse gekommen. Nur die besagte, mit dem Fifth Generation Project ihren Gipfel erreichende, ›starke KI‹ feierte so gut wie keine Erfolge – außer in Film und Fernsehen, wo auf Kubricks HAL der selbstfahrende Knight Industries Two Thousand⁷, die Nexus 6-Replikanten des BLADE RUNNER, der TERMINATOR und der ROBOCOP folgten wie heute, um dies schon vorwegzunehmen, die netz-, also Big-Data- bzw. Data Mining-basierten KI-Phantasien von HER, TRANSCENDENCE, EX MACHINA und des jüngsten Stuttgarter TATORT⁸. Solcher Phantasien ungeachtet, lautete die Wahrheit in der Realität eher: »›Fifth Generation‹ Became Japan’s Lost Generation«, wie die New York Times im Juni 1992 titelte (Pollack 1992).
Das Versprechen der ›starken KI‹ konnte und könnte auch niemals wahr werden, hieß die bereits erwähnte, das Fifth Generation-Projekt teils begleitende, teils nachträgliche Kritik. Wie sollte es gelingen, ›denkende‹ und dafür notwendig ›wissende‹ Maschinen zu realisieren, ohne über eine elaborierte Wissenstheorie zu verfügen (Michie 1988: 469)? Und selbst wenn man sie hätte, stünde doch fest, dass erstens »das Aufstellen einer geeigneten Repräsentation« dessen, womit die Maschinen umgehen sollen, grundlegend ist, womit sie zweitens aber zugleich »mit eingebauter Blindheit geschlagen« werden. Für Situationen, »die keine einfache Vor-Definition des Problems oder einen Zustandsraum, der nach einer Lösung abzusuchen ist, bereitstell[en]«, reicht solche Intelligenz niemals aus. Als, im Kern, PROLOG-Initiative oder »Versuch, höherstufige Programmiersprachen, basierend auf formaler Logik, einzusetzen«, blieb die Fifth Generation unweigerlich auf die GOFAI-Grenzen (»Good Old-Fashioned Artificial Intelligence«, Haugeland 1987: 96f.) reduziert. Aber auch für lernende Systeme steht das nämliche »Problem der Blindheit« zu vermuten. Weshalb die Gesamtbilanz nur lauten konnte, die »grandiosen Ziele« seien »unerreichbar«, wenn auch stets mit dem Nachsatz: »aber nützliche Nebenprodukte werden abfallen« (Winograd/Flores 1989: 142, 165, 229, 170, 230).⁹
Auf diese Weise etablierte sich die Unterscheidung zwischen jener ›starken KI‹ und einer ›schwachen KI‹, welch letztere sich um die großen Fragen maschinellen Denkvermögens so wenig bekümmert, wie sie statt dessen auf funktionierende Produkte zielt: »durchdachte Verfahren Künstlicher Intelligenz als Technologie« zur Anwendung »auf praktische Probleme« (Winograd/Flores 1989: 211).¹⁰ Ausgerechnet diese, wenn man so will, bescheidenere KI-Philosophie erbrachte nun aber Resultate, die der vorangegangenen hochfliegenden KI-Werbung erstaunlich genau entsprechen – jene KIPS, könnte man durchaus sagen. »Hervorstechendstes Merkmal« der Fifth Computer Generation Systems, versprach deren gleichsam offizielle Ankündigung, werde sein, »daß sich die Schnittstelle zwischen Mensch und Computer weitgehend menschlichem Niveau angleicht […] Für die Kommunikation mit dem Computer wird dem Menschen zur Verfügung stehen: Sprache, Text, Graphik und Bilder« (zit.n. Winograd/Flores 1989: 228). Nicht anders ist es gekommen. Oder, wenn man liest, die Fifth Generation-Planer hätten »Information als den Schlüssel« betrachtet:
Information, die durch weitverbreitete Informationsverarbeitungssysteme die Gesellschaft ›wie die Luft‹ durchdringt. ›In diesen Systemen […] wird Intelligenz so stark verbessert sein, daß sie der eines Menschen nahekommt. Verglichen mit üblichen Systemen, wird (die) Schnittstelle Mensch/Maschine näher an das menschliche System heranrücken.‹ Das heißt: Sie haben die Absicht, Maschinen zu produzieren, die so leicht benutzbar, so intelligent und reaktionsschnell sind, daß sie der Art von Verkehr nahekommen, wie er zwischen intelligenten Menschen üblich gewesen ist. (Feigenbaum/McCorduck 1984: 30)
So hat die Fifth Generation-Idee zwar keine einzige ›denkende Maschine‹ hervorgebracht und doch vorausgesagt, was inzwischen durch das Internet in seiner nicht umsonst zuerst als die reine KI-Phantasie daherkommenden Semantic Web-Zurichtung (Berners-Lee 2001) und Google-Erschließung (Alesso/Smith 2009: 206ff.) Realität geworden ist. Andernorts hat man zur selben Zeit »tragbare menschenähnliche Gehirne« heraufkommen sehen, die »partnerschaftlich mit dem Menschengeschlecht zusammenarbeiten. Wir werden diese unscheinbaren Kreaturen überall mit uns herumtragen. Man braucht sie lediglich in die Hand zu nehmen […], um sie für unsere Angelegenheiten zu nutzen. Sie werden sich als Artoo-Detoos [R2D2’s] ohne Räder erweisen« (Robert Jastrow, zit.n. Winograd/Flores 1989: 20) – und wieder sieht man leicht, wie viel davon STAR WARS-Phantasie geblieben und wie sehr diese doch in jedem heutigen Smartphone Gestalt angenommen