Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz
eBook627 Seiten7 Stunden

Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Nicht weniger als von einer Revolution ist gegenwärtig die Rede. Neuere Verfahren der Künstlichen Intelligenz greifen in sämtliche Bereiche des sozialen und kulturellen Lebens ein: Maschinen lernen Bilder und Sprache zu erkennen, beherrschen die autonome Steuerung von Fahrzeugen ebenso wie Finanzinvestments und medizinische Diagnostik.
Im digitalen Wandel ist Lernen damit kein Privileg des Menschen mehr. Vielmehr verschieben sich mit maschinellen Lernverfahren die Relationen zwischen Erkenntnismöglichkeiten, technischen Umwelten und humanen Akteuren.
Dieser Band vermittelt erstmals für den deutschsprachigen Raum einen Überblick über die medialen, infrastrukturellen und historischen Voraussetzungen des maschinellen Lernens.
SpracheDeutsch
Erscheinungsdatum30. Sept. 2018
ISBN9783732835300
Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Ähnlich wie Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Titel in dieser Serie (58)

Mehr anzeigen

Ähnliche E-Books

Populärkultur & Medienwissenschaft für Sie

Mehr anzeigen

Ähnliche Artikel

Verwandte Kategorien

Rezensionen für Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Machine Learning - Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz - Christoph Engemann

    I.Epistemologien und Genealogien des maschinellen Lernens

    »Down-to-earth resolutions«

    Erinnerungen an die KI als eine »häretische Theorie«

    Bernhard J. Dotzler

    »…and I k’n tell a fortune pretty good when I’ve got somebody along to find out the facts for me.«

    MARK TWAIN, THE ADVENTURES OF HUCKLEBERRY FINN

    »The Talking Robot was a tour de force, a thoroughly impractical device, possessing publicity value only.«

    ISAAC ASIMOV, ROBBIE

    »What we want is a machine that can learn from experience.«

    ALAN TURING, LECTURE TO L.M.S. FEB. 20 1947

    »…und die Frage, ob Computer denken konnten, hatte längst ihre Unschuld verloren, denn was sie konnten, lehrte einen das Fürchten, wie auch immer man es nennen wollte, und Denken sollte man in diesem Zusammenhang vielleicht nicht überschätzen.«

    NORBERT GSTREIN, IN DER FREIEN WELT

    Medien sind nicht nur Teil der Welt. Medien machen Welt. Zum Beispiel durch Werbung. Denn so erfolgreich kann Werbung sein, dass sie ein Sehen und Hören der Leute macht, das Markennamen wie die Dinge selbst vernimmt, und dass ein Heidegger dieses Vernehmen gegen einen Dingbegriff in Stellung bringen konnte, der das Ding als »Einheit einer Mannigfaltigkeit des in den Sinnen Gegebenen« definiert:

    Niemals vernehmen wir, wie er [dieser Dingbegriff] vorgibt, im Erscheinen der Dinge zunächst und eigentlich einen Andrang von Empfindungen, z.B. Töne und Geräusche, sondern wir hören den Sturm im Schornstein pfeifen, wir hören das dreimotorige Flugzeug, wir hören den Mercedes im unmittelbaren Unterschied zum Adler-Wagen. (Heidegger 1935/36: 10)

    Keine der beiden genannten Firmen, sondern der Autohersteller, der das Hören selbst zum Namen und daher auch zu seiner Marke erkoren hatte, hatte das Motorengeräusch zum Werbeargument gemacht (Potužníková 2015: 129). Dessen ungeachtet, fährt die philosophische Argumentation fort wie folgt:

    Viel näher als alle Empfindungen sind uns die Dinge selbst. Wir hören im Haus die Tür schlagen und hören niemals akustische Empfindungen oder auch nur bloße Geräusche. Um ein reines Geräusch zu hören, müssen wir von den Dingen weghören, unser Ohr davon abziehen, d.h. abstrakt hören. (Heidegger 1935/36: 10)

    Wir, die Menschen, heißt das, haben es bei dem, was wir wahrnehmen, nie mit den bloßen Sinnesdaten, sondern »immer bereits mit Interpretation zu tun« (Winograd/Flores 1989: 127).¹

    Umgekehrt die Maschinen. Ausgestattet mit einer entsprechenden Sensorik, hören sie – wenn man es überhaupt hören nennen will – erst einmal nur und ausschließlich ›abstrakt‹, also ›bloße Geräusche‹. Und weil sie deren Erkennung, ob also ein Motor brummt, eine Tür schlägt oder eine Uhr tickt, immer erst in weiteren Schritten errechnen müssen, ohne dafür von sich aus über einen die »Fragen nach Relevanz, Kontext und Hintergrundbezug« der Daten beantwortenden »Horizont« zu verfügen, hat man den Unternehmungen einer sogenannten ›starken KI‹ gerade schon zu Zeiten ihrer höchsten Blüte die Voraussage ihres notwendigen Scheiterns entgegenhalten können. Als wäre wieder einmal alles nur »Werbung« und »Werbeaufwand«, hieß etwa die Ankündigung einer »Robotergeneration, die ›sehen‹, ›fühlen‹ und ›denken‹ kann«, für alle Zeiten bloßes Wortgeklingel. »Niemand«, lautete der Einwand gegen die raison d’etre eines »Fachgebietes wie ›Künstliche Intelligenz‹«, sei »in der Lage, Computer so zu programmieren, dass sie intelligent sein werden« (Winograd/Flores 1989: 219, 177, 213, 216, 212 u. 157).

    Und doch – Werbung noch einmal – schaltete Mercedes-Benz unlängst eine Anzeigenkampagne, die erstens erinnerte: »Vor 130 Jahren haben wir das Pferd ersetzt«, um zweitens als fait accompli zu vermelden: »Jetzt ist der Kutscher dran.« Beworben wurde eine neue Fahrzeug-Klasse, die das Etikett eines »Masterpiece of Intelligence« verdienen würde, indem sie das sogenannte »autonome Fahren« etabliert, wenn auch zunächst nur als »teilautomatisiertes Fahren«, für das aber bereits gelten soll: »Das Auto teilt sich jetzt das Denken mit dem Menschen […].«² Wenig später ging die Meldung eines tödlichen Unglücks mit dem selbstfahrenden Auto eines anderen Herstellers durch die Presse (und andere Medien).³ So dramatisch kann die Abschaffung des Kutschers einerseits wahr werden. Andererseits handelte es sich bei dem Unfall aus Sicht der KI-Entwickler selbstredend um einen Rückschlag und nicht etwa um eine Erfolgsbestätigung. Was also besagt ein Beispiel wie das beworbene »Intelligent Drive«?

    Es bezeugt vorab, dass sich – mit neuer Vehemenz – die Anzeichen für die Erfüllung eines Menetekels verdichten, das schon vor etwa einem Menschenalter seine bekannte Deutung erfuhr. Rückschläge, ob kleinere oder größere, halten die Entwicklung nicht auf. Im Gegenteil, sie gehören dazu, denn, wie Alan Turing bereits anlässlich der praktischen Umsetzung seiner zuvor unternommenen theoretischen Untersuchung der »Möglichkeiten und Grenzen digitaler Rechenmaschinen« erklärte, »wenn von einer Maschine Unfehlbarkeit erwartet wird, kann sie nicht zugleich intelligent sein« (Turing 1947: 186 u. 207). Gerade also auf der Basis einkalkulierter Fehlbarkeit gibt es inzwischen die allfälligen, immer noch anfälligen, aber erstaunlich leistungsfähigen Systeme autonomer Fahrzeuge, der Sprach- und der Bilderkennung, der maschinellen Übersetzung oder beispielsweise auch eines IBM Watson, der 2011 siegreich aus Jeopardy! hervorging, und eines AlphaGo von Google DeepMind mit seinem im März 2016 errungenen Turniersieg über den Go-Meister Lee Sedol. Machine Learning heißt das Schlagwort für ihren Erfolg, und mit Blick auf die Eigenschaft der Lernfähigkeit, deren Unabdingbarkeit vom Beginn informationstechnologischer Entwürfe möglicherweise intelligenter Systeme an betont worden war – man denke etwa nur an Norbert Wieners usurpatorischen Hinweis, »der Begriff der lernenden Maschinen [sei] ebenso alt wie die Kybernetik selbst« (Wiener 1963: 17)⁴ –, deutete Alan Turing die Zeichen schon seiner Zeit als die Prophezeiung, dass, weil ja die Maschinen unsterblich seien und auch noch voneinander lernen könnten, früher oder später »damit [zu] rechnen [sei], »daß die Maschinen die Macht übernehmen« (Turing 1951: 15).

    Niemand soll daher sagen, man hätte es nicht wissen können. »Die smarte Kapitulation« oder »Wir schaffen uns ab« mögen immer noch pressetaugliche Schlagzeilen sein,⁵ sind aber längst keine wirklichen Sensationsmeldungen mehr. Ihre Zugehörigkeit zur normativen Kraft des Faktischen steht außer Zweifel. Die fortgesetzt insistierende Frage ist stattdessen, was genau es zu wissen gilt, wenn man denn – so lange schon – weiß, dass die Maschinen die Macht übernehmen.

    »LOST GENERATION«

    Von einem gewissermaßen nominalistischen Standpunkt aus beginnt die Geschichte der KI mit dem der neuen Disziplin ihren Namen gebenden Dartmouth Summer Research Project on Artificial Intelligence, 1956. Dessen ungeachtet werden zu den tatsächlichen Anfängen – neben etwa eines Claude E. Shannon Programming a Computer for Playing Chess (1949) oder seiner Presentation of a Maze Solving Machine (1951) – eben auch die Überlegungen gerechnet, die Turing in seiner Lecture to the London Mathematical Society (1947), seinem NPL-Report Intelligent Machinery (1948), seinem berühmten Mind-Artikel Computing Machinery and Intelligence (1950) oder schließlich dem Vortrag Intelligent Machinery, a Heretical Theory (1951) angeregt hat.⁶ »This mouse is smarter than you are«, hieß es damals über die mechanische Maus in Shannons Theseus-Maschine, »die in der Lage ist, ein Labyrinth durch Trial-and-Error zu lösen, sich an die Lösung zu erinnern, sie aber auch wieder zu vergessen, falls sich die Situation ändert und die Lösung nicht weiter anwendbar ist« (Shannon 1952: 291). Zu ergänzen war freilich: »Unfortunately, maze-solving is all the mouse can do« (Pfeiffer 1952: 100). Doch hinderte das einen Turing wiederum nicht, sich gegenüber solchen Entwicklungen nachgerade »verpflichtet« zu fühlen, »die Maschine als intelligent anzusehen« (Turing 1947: 206) und die starke »Behauptung« zu vertreten,

    daß Maschinen konstruiert werden können, die das Verhalten des menschlichen Geistes weitestgehend simulieren. Sie werden bisweilen Fehler machen, und es ist möglich, daß sie bisweilen neue und sehr interessante Aussagen machen, und im großen und ganzen wird ihr Output dasselbe Maß an Aufmerksamkeit verdienen wie der Output eines menschlichen Geistes (Turing 1951: 10).

    Das dann auf den Namen Artificial Intelligence getaufte Forschungsgebiet hielt an dieser Zielvorgabe fest bis etwa, um eine länglichere Geschichte kurz zu machen, zur seinerzeit Furore machenden Ausrufung einer ominösen Fifth Generation.

    1981 bekannt gegeben, war deren »Ziel: Computer für die neunziger Jahre und darüber hinaus zu entwickeln – intelligente Computer, die in der Lage sein soll[t]en, mit Menschen in natürlicher Sprache zu verkehren und Stimmen und Bilder zu verstehen«. Es sollten »Computer sein, die lernen, assoziieren, Folgerungen anstellen, Entscheidungen fällen und sich auch sonst so verhalten können, wie wir es bisher allein dem menschlichen Verstand zugebilligt haben« (Feigenbaum/McCorduck 1984: 25). Man bezeichnete sie als »Fünfte Generation« zur Unterscheidung von den vorhergegangen ersten vier Generationen, als da waren: »1. elektronische Vakuumröhrencomputer, 2. transistorisierte Computer, 3. integrierte Schaltkreiscomputer und 4. höchstintegrierte Schaltkreiscomputer«. Deren »Grundkonstruktion« war und ist die »von Neumann-Maschine«, bestehend »aus einem Zentralprozessor (einer Programmsteuereinheit), einem Speicher, einer arithmetischen Einheit und Ein/Ausgabegeräten. Sie arbeitet auch in der Hauptsache seriell, Schritt für Schritt.« Auf eben diese Bauweise sollte die Fifth Generation jedoch »verzichten oder sie in starkem Maß verändern. Stattdessen«, hieß es, werde es »neue Parallelarchitekturen geben (in ihrer Gesamtheit als nicht von-Neumannsche Architekturen bekannt), neue Speicherorganisationen, neue Programmiersprachen und neu eingefügte Arbeitsgänge für den Umgang mit Symbolen, statt nur mit Zahlen«. So werde die Fifth Generation »nicht allein wegen ihrer Technologie etwas Eigenes sein, sondern auch deshalb, weil sie sich von den ersten vier, der Welt vertrauten Generationen in Konzeption und Funktion unterscheidet«. Diese Neukonzeption werde auch »KIPS« genannt: »knowledge information processing systems« (Feigenbaum/McCorduck 1984: 31).

    Dergleichen KIPS, ob nun sogenannt oder nicht, sind in der Folge tatsächlich en masse gekommen. Nur die besagte, mit dem Fifth Generation Project ihren Gipfel erreichende, ›starke KI‹ feierte so gut wie keine Erfolge – außer in Film und Fernsehen, wo auf Kubricks HAL der selbstfahrende Knight Industries Two Thousand⁷, die Nexus 6-Replikanten des BLADE RUNNER, der TERMINATOR und der ROBOCOP folgten wie heute, um dies schon vorwegzunehmen, die netz-, also Big-Data- bzw. Data Mining-basierten KI-Phantasien von HER, TRANSCENDENCE, EX MACHINA und des jüngsten Stuttgarter TATORT⁸. Solcher Phantasien ungeachtet, lautete die Wahrheit in der Realität eher: »›Fifth Generation‹ Became Japan’s Lost Generation«, wie die New York Times im Juni 1992 titelte (Pollack 1992).

    Das Versprechen der ›starken KI‹ konnte und könnte auch niemals wahr werden, hieß die bereits erwähnte, das Fifth Generation-Projekt teils begleitende, teils nachträgliche Kritik. Wie sollte es gelingen, ›denkende‹ und dafür notwendig ›wissende‹ Maschinen zu realisieren, ohne über eine elaborierte Wissenstheorie zu verfügen (Michie 1988: 469)? Und selbst wenn man sie hätte, stünde doch fest, dass erstens »das Aufstellen einer geeigneten Repräsentation« dessen, womit die Maschinen umgehen sollen, grundlegend ist, womit sie zweitens aber zugleich »mit eingebauter Blindheit geschlagen« werden. Für Situationen, »die keine einfache Vor-Definition des Problems oder einen Zustandsraum, der nach einer Lösung abzusuchen ist, bereitstell[en]«, reicht solche Intelligenz niemals aus. Als, im Kern, PROLOG-Initiative oder »Versuch, höherstufige Programmiersprachen, basierend auf formaler Logik, einzusetzen«, blieb die Fifth Generation unweigerlich auf die GOFAI-Grenzen (»Good Old-Fashioned Artificial Intelligence«, Haugeland 1987: 96f.) reduziert. Aber auch für lernende Systeme steht das nämliche »Problem der Blindheit« zu vermuten. Weshalb die Gesamtbilanz nur lauten konnte, die »grandiosen Ziele« seien »unerreichbar«, wenn auch stets mit dem Nachsatz: »aber nützliche Nebenprodukte werden abfallen« (Winograd/Flores 1989: 142, 165, 229, 170, 230).

    Auf diese Weise etablierte sich die Unterscheidung zwischen jener ›starken KI‹ und einer ›schwachen KI‹, welch letztere sich um die großen Fragen maschinellen Denkvermögens so wenig bekümmert, wie sie statt dessen auf funktionierende Produkte zielt: »durchdachte Verfahren Künstlicher Intelligenz als Technologie« zur Anwendung »auf praktische Probleme« (Winograd/Flores 1989: 211).¹⁰ Ausgerechnet diese, wenn man so will, bescheidenere KI-Philosophie erbrachte nun aber Resultate, die der vorangegangenen hochfliegenden KI-Werbung erstaunlich genau entsprechen – jene KIPS, könnte man durchaus sagen. »Hervorstechendstes Merkmal« der Fifth Computer Generation Systems, versprach deren gleichsam offizielle Ankündigung, werde sein, »daß sich die Schnittstelle zwischen Mensch und Computer weitgehend menschlichem Niveau angleicht […] Für die Kommunikation mit dem Computer wird dem Menschen zur Verfügung stehen: Sprache, Text, Graphik und Bilder« (zit.n. Winograd/Flores 1989: 228). Nicht anders ist es gekommen. Oder, wenn man liest, die Fifth Generation-Planer hätten »Information als den Schlüssel« betrachtet:

    Information, die durch weitverbreitete Informationsverarbeitungssysteme die Gesellschaft ›wie die Luft‹ durchdringt. ›In diesen Systemen […] wird Intelligenz so stark verbessert sein, daß sie der eines Menschen nahekommt. Verglichen mit üblichen Systemen, wird (die) Schnittstelle Mensch/Maschine näher an das menschliche System heranrücken.‹ Das heißt: Sie haben die Absicht, Maschinen zu produzieren, die so leicht benutzbar, so intelligent und reaktionsschnell sind, daß sie der Art von Verkehr nahekommen, wie er zwischen intelligenten Menschen üblich gewesen ist. (Feigenbaum/McCorduck 1984: 30)

    So hat die Fifth Generation-Idee zwar keine einzige ›denkende Maschine‹ hervorgebracht und doch vorausgesagt, was inzwischen durch das Internet in seiner nicht umsonst zuerst als die reine KI-Phantasie daherkommenden Semantic Web-Zurichtung (Berners-Lee 2001) und Google-Erschließung (Alesso/Smith 2009: 206ff.) Realität geworden ist. Andernorts hat man zur selben Zeit »tragbare menschenähnliche Gehirne« heraufkommen sehen, die »partnerschaftlich mit dem Menschengeschlecht zusammenarbeiten. Wir werden diese unscheinbaren Kreaturen überall mit uns herumtragen. Man braucht sie lediglich in die Hand zu nehmen […], um sie für unsere Angelegenheiten zu nutzen. Sie werden sich als Artoo-Detoos [R2D2’s] ohne Räder erweisen« (Robert Jastrow, zit.n. Winograd/Flores 1989: 20) – und wieder sieht man leicht, wie viel davon STAR WARS-Phantasie geblieben und wie sehr diese doch in jedem heutigen Smartphone Gestalt angenommen

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1