Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Künstliche Intelligenz: Die vierte industrielle Revolution
Künstliche Intelligenz: Die vierte industrielle Revolution
Künstliche Intelligenz: Die vierte industrielle Revolution
eBook502 Seiten3 Stunden

Künstliche Intelligenz: Die vierte industrielle Revolution

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Die vierte industrielle Revolution stellt eine grundlegende Veränderungin der Art und Weise dar, wie wir miteinander leben, arbeiten und in Beziehung stehen. Es ist ein neues Kapitel in der menschlichen Entwicklung, das durch außergewöhnliche technologische Fortschritte ermöglicht wird, die denen der ersten, zweiten und dritten industriellen Revolution entsprechen. Diese Fortschritte verbinden die physische, die digitale und die biologische Welt auf eine Weise, die sowohl ein großes Versprechen als auch eine potenzielle Gefahr darstellt. Die Geschwindigkeit, Breite und Tiefe dieser Revolution zwingt uns zu überdenken, wie sich Länder entwickeln, wie Organisationen Werte schaffen und sogar was es bedeutet, menschlich zu sein. Künstliche Intelligenz ist heutzutage eigentlich als schmale KI (oder schwache KI) bekannt, da sie dazu bestimmt ist, eine enge Aufgabe zu erfüllen (z. B. nur Gesichtserkennung oder nur Internetsuche oder nur Autofahren). Das langfristige Ziel vieler Forscher ist es jedoch, eine allgemeine KI (AGI oder starke KI) zu schaffen. Während schmale KI Menschen bei jeder ihrer spezifischen Aufgaben übertreffen kann, z. B. beim Schachspielen oder beim Lösen von Gleichungen, würde AGI Menschen bei nahezu jeder kognitiven Aufgabe übertreffen.
Authors: Vasil Teigens, Peter Skalfist, Daniel Mikelsten

SpracheDeutsch
Erscheinungsdatum13. Sept. 2020
ISBN9781005191030
Künstliche Intelligenz: Die vierte industrielle Revolution
Autor

Vasil Teigens

Vasil Teigens, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Ähnliche Autoren

Ähnlich wie Künstliche Intelligenz

Ähnliche E-Books

Künstliche Intelligenz (KI) & Semantik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Künstliche Intelligenz

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Künstliche Intelligenz - Vasil Teigens

    Einführung

    Die vierte industrielle Revolution stellt eine grundlegende Veränderung in der Art und Weise dar, wie wir miteinander leben, arbeiten und in Beziehung stehen. Es ist ein neues Kapitel in der menschlichen Entwicklung, das durch außergewöhnliche technologische Fortschritte ermöglicht wird, die denen der ersten, zweiten und dritten industriellen Revolution entsprechen. Diese Fortschritte verbinden die physische, die digitale und die biologische Welt auf eine Weise, die sowohl ein großes Versprechen als auch eine potenzielle Gefahr darstellt. Die Geschwindigkeit, Breite und Tiefe dieser Revolution zwingt uns zu überdenken, wie sich Länder entwickeln, wie Organisationen Werte schaffen und sogar was es bedeutet, menschlich zu sein.

    Vom SIRI bis zum selbstfahrenden Auto schreitet die künstliche Intelligenz (KI) rasant voran. Während Science Fiction KI oft als Roboter mit menschenähnlichen Merkmalen darstellt, kann KI alles umfassen, von Googles Suchalgorithmen über IBMs Watson bis hin zu autonomen Waffen.

    Künstliche Intelligenz ist heutzutage eigentlich als schmale KI (oder schwache KI) bekannt, da sie dazu bestimmt ist, eine enge Aufgabe zu erfüllen (z. B. nur Gesichtserkennung oder nur Internetsuche oder nur Autofahren). Das langfristige Ziel vieler Forscher ist es jedoch, eine allgemeine KI (AGI oder starke KI) zu schaffen. Während schmale KI Menschen bei jeder ihrer spezifischen Aufgaben übertreffen kann, z. B. beim Schachspielen oder beim Lösen von Gleichungen, würde AGI Menschen bei nahezu jeder kognitiven Aufgabe übertreffen.

    Die vierte industrielle Revolution ist mehr als nur ein technologiegetriebener Wandel. Es ist eine Gelegenheit, allen, einschließlich Führungspersönlichkeiten, politischen Entscheidungsträgern und Menschen aus allen Einkommensgruppen und Nationen, zu helfen, konvergierende Technologien zu nutzen, um eine integrative, auf den Menschen ausgerichtete Zukunft zu schaffen. Die wirkliche Chance besteht darin, über die Technologie hinaus zu schauen und Wege zu finden, wie die meisten Menschen ihre Familien, Organisationen und Gemeinschaften positiv beeinflussen können.

    Künstliche allgemeine Intelligenz

    Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) ist die Intelligenz einer Maschine, die jede intellektuelle Aufgabe verstehen oder lernen kann, die ein Mensch kann. Es ist ein vorrangiges Ziel einiger Forschungsarbeiten zur künstlichen Intelligenz und ein allgemeines Thema in der Science-Fiction- und Zukunftsforschung. AGI kann auch als starke KI, vollständige KI oder allgemeine intelligente Aktion bezeichnet werden. (Einige akademische Quellen behalten den Begriff starke KI für Maschinen vor, die Bewusstsein erfahren können.) Einige Behörden betonen eine Unterscheidung zwischen starker KI und angewandter KI (auch enge KI oder schwache KI genannt): den Einsatz von Software zum Studium oder zur Erledigung spezifischer Aufgaben zur Problemlösung oder zum Lösen von Überlegungen. Eine schwache KI versucht im Gegensatz zu einer starken KI nicht, die gesamte Bandbreite der menschlichen kognitiven Fähigkeiten zu erreichen.

    Verschiedene Kriterien für die Intelligenz wurden vorgeschlagen (am bekanntesten der Turing-Test), aber bis heute gibt es keine Definition, die alle zufriedenstellt. Die Forscher der künstlichen Intelligenz sind sich jedoch weitgehend einig, dass Intelligenz die folgenden Aufgaben erfüllen muss:

    Vernunft, Strategie, Rätsel lösen und Urteile unter Unsicherheit fällen;

    Wissen repräsentieren, einschließlich gesunder Kenntnisse;

    Planen;

    Lernen;

    In natürlicher Sprache kommunizieren;

    Und integrieren Sie all diese Fähigkeiten in Richtung gemeinsamer Ziele.

    Andere wichtige Fähigkeiten umfassen die Fähigkeit zu erkennen (z. B. zu sehen) und zu handeln (z. B. Objekte zu bewegen und zu manipulieren) in der Welt, in der intelligentes Verhalten zu beobachten ist. Dies würde die Fähigkeit beinhalten, Gefahren zu erkennen und auf sie zu reagieren. Viele interdisziplinäre Ansätze zur Intelligenz (z. B. Kognitionswissenschaft, rechnergestützte Intelligenz und Entscheidungsfindung) tendieren dazu, die Notwendigkeit zu betonen, zusätzliche Merkmale wie Vorstellungskraft (angenommen als die Fähigkeit, mentale Bilder und Konzepte zu formen, die nicht programmiert wurden) und Autonomie zu berücksichtigen Systeme, die viele dieser Fähigkeiten aufweisen, existieren zwar (siehe z. B. Computerkreativität, automatisiertes Denken, Entscheidungsunterstützungssystem, Roboter, Evolutionsberechnung, intelligenter Agent), jedoch noch nicht auf menschlicher Ebene.

    Tests zur Bestätigung der AGI auf menschlicher Ebene

    Der Turing-Test (Turing) Eine Maschine und ein Mensch unterhalten sich ungesehen mit einem zweiten Menschen, der beurteilen muss, welcher der beiden die Maschine ist, und der den Test besteht, wenn er den Bewerter einen signifikanten Bruchteil der Zeit täuschen kann. Hinweis: Turing schreibt nicht vor, was als Intelligenz zu qualifizieren ist, nur das Wissen, dass es sich um eine Maschine handelt, sollte sie disqualifizieren. Der Kaffeetest (Wozniak) Eine Maschine wird benötigt, um ein durchschnittliches amerikanisches Haus zu betreten und um herauszufinden, wie man Kaffee macht: Finde die Kaffeemaschine, finde den Kaffee, füge Wasser hinzu, finde eine Tasse und brühe den Kaffee, indem du die richtigen Knöpfe drückst. Der Robot College Student Test (Goertzel) Eine Maschine schreibt sich an einer Universität ein, absolviert und absolviert dieselben Kurse wie Menschen und erwirbt einen Abschluss. Der Beschäftigungstest (Nilsson) Eine Maschine erledigt einen wirtschaftlich wichtigen Job, der mindestens genauso gut funktioniert wie der Mensch im selben Job.

    IQ-Tests AGI

    Die chinesischen Forscher Feng Liu, Yong Shi und Ying Liu führten im Sommer 2017 Intelligenztests mit öffentlich zugänglichen und frei zugänglichen schwachen KI wie Google KI oder Apples Siri und anderen durch. Im Maximum erreichte diese KI einen Wert von etwa 47, was ungefähr einem sechsjährigen Kind in der ersten Klasse entspricht. Ein Erwachsener kommt im Durchschnitt auf etwa 100. 2014 wurden ähnliche Tests durchgeführt, bei denen die KI einen Maximalwert von 27 erreichte.

    Probleme, die von AGI gelöst werden müssen

    Die schwierigsten Probleme für Computer werden informell als AI-vollständig oder AI-schwer bezeichnet, was bedeutet, dass die Lösung dieser Probleme der allgemeinen Fähigkeit der menschlichen Intelligenz oder starken KI entspricht, die über die Fähigkeiten eines zweckspezifischen Algorithmus hinausgeht.

    Von AI-vollständigen Problemen wird angenommen, dass sie allgemeines Computer-Sehen, das Verstehen natürlicher Sprachen und den Umgang mit unerwarteten Umständen bei der Lösung von Problemen der realen Welt umfassen.

    KI-vollständige Probleme können mit der aktuellen Computertechnologie nicht allein gelöst werden und erfordern auch menschliche Berechnungen. Diese Eigenschaft könnte beispielsweise nützlich sein, um die Anwesenheit von Menschen zu testen, wie dies CAPTCHAs beabsichtigen. und für die Computersicherheit, um Brute-Force-Angriffe abzuwehren.

    AGI-Forschung

    Klassische KI

    Die moderne KI-Forschung begann Mitte der 1950er Jahre. Die erste Generation von KI-Forschern war überzeugt, dass künstliche allgemeine Intelligenz möglich ist und in wenigen Jahrzehnten existieren wird. Der KI-Pionier Herbert A. Simon schrieb 1965: Maschinen werden in zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch leisten kann. Ihre Vorhersagen waren die Inspiration für Stanley Kubrick und Arthur C. Clarkes Charakter HAL 9000, der verkörperte, was KI-Forscher glaubten, dass sie bis zum Jahr 2001 schaffen könnten. KI-Pionier Marvin Minsky war ein Berater des Projekts, HAL 9000 so realistisch wie möglich zu gestalten Konsensvorhersagen der Zeit; Crevier zitiert ihn, wie er 1967 zu diesem Thema sagte: Innerhalb einer Generation... wird das Problem der Schaffung 'künstlicher Intelligenz' im Wesentlichen gelöst sein, obwohl Minsky angibt, dass er falsch zitiert wurde.

    In den frühen 1970er Jahren stellte sich jedoch heraus, dass die Forscher die Schwierigkeit des Projekts stark unterschätzt hatten. Die Geldgeber reagierten skeptisch auf AGI und setzten die Forscher zunehmend unter Druck, nützliche angewandte KI zu produzieren. Als die 1980er Jahre begannen, belebte Japans Computerprojekt der fünften Generation das Interesse an AGI und legte einen zehnjährigen Zeitplan fest, der AGI-Ziele wie ein lockeres Gespräch führen beinhaltete. In Reaktion darauf und auf den Erfolg von Expertensystemen pumpten Industrie und Regierung Geld zurück in das Feld. Das Vertrauen in die KI brach jedoch Ende der 1980er Jahre spektakulär zusammen, und die Ziele des Computerprojekts der fünften Generation wurden nie erreicht Zeit in 20 Jahren, AI-Forscher, die die bevorstehende Leistung von AGI vorhergesagt hatten, hatten gezeigt, dass sie sich grundlegend geirrt hatten. In den 1990er Jahren hatten AI-Forscher den Ruf erlangt, vergebliche Versprechungen zu machen. Sie zögerten, Vorhersagen zu treffen und die künstliche Intelligenz auf menschlicher Ebene nicht zu erwähnen, aus Angst, als Träumer mit wilden Augen bezeichnet zu werden.

    Schmale KI-Forschung

    In den 1990er Jahren und im frühen 21. Jahrhundert erzielte die Mainstream-KI einen weitaus größeren kommerziellen Erfolg und akademische Seriosität, indem sie sich auf bestimmte Unterprobleme konzentrierte, bei denen überprüfbare Ergebnisse und kommerzielle Anwendungen wie künstliche neuronale Netze, Computer Vision oder Data Mining erzielt werden konnten. Angewandte KI "-Systeme werden heute in der gesamten Technologiebranche in großem Umfang eingesetzt, und die Forschung in diesem Bereich wird sowohl in der Wissenschaft als auch in der Industrie sehr stark finanziert. Gegenwärtig wird die Entwicklung auf diesem Gebiet als aufkommender Trend angesehen, und es wird erwartet, dass sich in mehr als 10 Jahren ein ausgereiftes Stadium abzeichnet.

    Die meisten gängigen KI-Forscher hoffen, dass eine starke KI entwickelt werden kann, indem Programme kombiniert werden, die verschiedene Unterprobleme mithilfe einer integrierten Agentenarchitektur, einer kognitiven Architektur oder einer Subsumptionsarchitektur lösen. Hans Moravec schrieb 1988:

    Ich bin zuversichtlich, dass diese Bottom-up-Methode zur künstlichen Intelligenz eines Tages die traditionelle Top-down-Methode mehr als zur Hälfte erfüllen wird. Sie ist bereit, die Kompetenz der realen Welt und das in Begründungsprogrammen so frustrierend schwer fassbare Wissen zu vermitteln. Vollintelligente Maschinen wird sich ergeben, wenn der metaphorische goldene Dorn getrieben wird, der die beiden Bemühungen vereint.

    Doch auch diese Grundphilosophie ist umstritten. Zum Beispiel schloss Stevan Harnad aus Princeton seine Arbeit über die Symbolgrundhypothese von 1990 mit folgenden Worten:

    Es wurde oft die Erwartung geäußert, dass top-down (symbolische) Ansätze zur Modellierung der Kognition irgendwie auf bottom-up (sensorische) Ansätze irgendwo dazwischen stoßen. Wenn die in diesem Artikel enthaltenen Grundüberlegungen zutreffen, dann ist diese Erwartung hoffnungslos modular und Es gibt wirklich nur einen gangbaren Weg vom Sinn zum Symbol: von Grund auf. Eine frei schwebende symbolische Ebene wie die Software-Ebene eines Computers wird auf diesem Weg niemals erreicht (oder umgekehrt) - und es ist auch nicht klar, warum wir dies tun sollten versuchen Sie, ein solches Niveau zu erreichen, da es so aussieht, als würde es nur bedeuten, unsere Symbole von ihrer eigentlichen Bedeutung zu befreien (und uns dabei lediglich auf das funktionale Äquivalent eines programmierbaren Computers zu reduzieren).

    Moderne künstliche allgemeine Intelligenzforschung

    Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) beschreibt Forschung, die darauf abzielt, Maschinen zu schaffen, die zu allgemeinem intelligentem Handeln fähig sind. Der Begriff wurde bereits 1997 von Mark Gubrudin verwendet, um die Auswirkungen einer vollautomatisierten militärischen Produktion und Operationen zu erörtern. Der Begriff wurde von Shane Legg und Ben Goertzel um 2002 wieder eingeführt und populär gemacht. Das Forschungsziel ist viel älter, zum Beispiel Doug Lenats Cyc-Projekt (das 1984 begann) und Allen Newells Soar-Projekt gelten als im Rahmen von AGI. Die Forschungsaktivität des AGI im Jahr 2006 wurde von Pei Wang und Ben Goertzelas als Herausgeber von Veröffentlichungen und vorläufigen Ergebnissen beschrieben. Die erste Sommerschule in AGI wurde 2009 in Xiamen, China, vom Artificial Brain Laboratory und OpenCog der Universität Xiamen organisiert. Der erste Universitätskurs wurde 2010 und 2011 an der Universität Plovdiv in Bulgarien von Todor Arnaudov gegeben. Das MIT präsentierte 2018 einen von Lex Fridman organisierten AGI-Kurs mit einer Reihe von Gastdozenten. Bislang widmeten die meisten KI-Forscher der AGI jedoch nur wenig Aufmerksamkeit. Einige behaupten, Intelligenz sei zu komplex, um sie kurzfristig vollständig zu replizieren. Eine kleine Anzahl von Informatikern ist jedoch in der AGI-Forschung tätig, und viele dieser Gruppe beteiligen sich an einer Reihe von AGI-Konferenzen. Die Forschung ist äußerst vielfältig und oft wegweisend. In der Einleitung zu seinem Buch sagt Goertzel, dass Schätzungen der Zeit, die benötigt wird, bevor ein wirklich flexibler AGI erstellt wird, zwischen 10 Jahren und über einem Jahrhundert variieren. In der AGI-Forschungsgemeinschaft scheint jedoch der Konsens darin zu bestehen, dass der Zeitplan von Ray Kurzweil in The Singularity diskutiert wird ist nahe (dh zwischen 2015 und 2045) ist plausibel.

    Die meisten gängigen KI-Forscher bezweifeln jedoch, dass der Fortschritt so schnell sein wird. Organisationen, die AGI explizit verfolgen, sind das schweizerische AI-Labor IDSIA, Nnaisense, Vicarious, Maluuba, die OpenCog Foundation, Adaptive AI, LIDA und Numenta sowie das zugehörige Redwood Neuroscience Institute. Darüber hinaus wurden Organisationen wie das Machine Intelligence Research Institute und OpenAI gegründet, um den Entwicklungspfad von AGI zu beeinflussen. Schließlich zielen Projekte wie das Human Brain Project darauf ab, eine funktionierende Simulation des menschlichen Gehirns aufzubauen. A2017-Umfrage von AGI kategorisierte 45 bekannte aktive F & E-Projekte, die explizit oder implizit (durch veröffentlichte Forschung) AGI erforschen, wobei die drei größten DeepMind, das Human Brain Project und OpenAI (basierend auf Artikel) sind.

    Im Jahr 2019 kündigte der Videospielprogrammierer und Luft- und Raumfahrtingenieur John Carmack Pläne zur Erforschung von AGI an.

    DeepMind nutzte mit seinem Erfolg in der Human Player Simulation für zB AlphaGo neue Konzepte:

    Reinforcement Learning zur Verbesserung bereits trainierter Netzwerke mit neuen Daten oder

    Unüberwachtes Lernen, z. B. durch generatives kontradiktorisches Netzwerk, um durch Wettbewerb verbesserte Netzwerke zu erhalten.

    Rechenleistung, die zur Simulation eines Gehirns benötigt wird

    Emulation des gesamten Gehirns

    Ein populärer Ansatz, der zur Erreichung einer allgemeinen intelligenten Aktion diskutiert wird, ist die Emulation des gesamten Gehirns. Ein Gehirnmodell auf niedriger Ebene wird erstellt, indem ein biologisches Gehirn im Detail gescannt und abgebildet und sein Zustand in ein Computersystem oder ein anderes Rechengerät kopiert wird. Der Computer führt ein Simulationsmodell aus, das so originalgetreu ist, dass es sich im Wesentlichen wie das ursprüngliche Gehirn oder für alle praktischen Zwecke ununterscheidbar verhält. Die Emulation des gesamten Gehirns wird in den Bereichen Computational Neuroscience und Neuroinformatics im Kontext der Gehirnsimulation für medizinische Forschungszwecke diskutiert. Es wird in der Forschung mit künstlicher Intelligenz als Ansatz für eine starke KI diskutiert. Neuroimaging-Technologien, die das notwendige Detailverständnis liefern könnten, verbessern sich rasch, und der Zukunftsforscher Ray Kurzweil in dem Buch The Singularity Is Near prognostiziert, dass eine Karte mit ausreichender Qualität in einem ähnlichen Zeitraum wie die erforderliche Rechenleistung verfügbar sein wird.

    Frühe Schätzungen

    Für die Simulation eines Gehirns auf niedriger Ebene wäre ein extrem leistungsfähiger Computer erforderlich. Das menschliche Gehirn hat eine Vielzahl von Synapsen. Jedes der 10 (einhundert Milliarden) Neuronen hat durchschnittlich 7.000 synaptische Verbindungen zu anderen Neuronen. Es wurde geschätzt, dass das Gehirn eines dreijährigen Kindes etwa 10 Synapsen aufweist (1 Billiarde). Diese Zahl nimmt mit zunehmendem Alter ab und stabilisiert sich im Erwachsenenalter. Die Schätzungen variieren für einen Erwachsenen und reichen von 10 bis 5 × 10 Synapsen (100 bis 500 Billionen). Eine Schätzung der Verarbeitungsleistung des Gehirns, basierend auf einem einfachen Schaltmodell für die Neuronenaktivität, liegt bei 10 (100 Billionen) synaptischen Aktualisierungen pro Sekunde (SUPS). 1997 untersuchte Kurzweil verschiedene Schätzungen für die Hardware, die erforderlich ist, um das menschliche Gehirn zu erreichen, und nahm eine Zahl von 10 Berechnungen pro Sekunde (cps) an. (Zum Vergleich: Wenn eine Berechnung einer Gleitkommaoperation entspricht - einem Maß, mit dem aktuelle Supercomputer bewertet werden -, entsprechen 10 Berechnungen 10 petaFLOPS, die im Jahr 2011 erzielt wurden.) Er hat diese Zahl zur Vorhersage verwendet Die erforderliche Hardware wäre irgendwann zwischen 2015 und 2025 verfügbar, wenn der exponentielle Anstieg der Computerleistung zum Zeitpunkt des Schreibens anhalten würde.

    Modellierung der Neuronen im Detail

    Das von Kurzweil angenommene künstliche Neuronenmodell, das in vielen aktuellen Implementierungen künstlicher neuronaler Netze verwendet wird, ist im Vergleich zu biologischen Neuronen einfach. Eine Gehirnsimulation müsste wahrscheinlich das detaillierte zelluläre Verhalten biologischer Neuronen erfassen, das derzeit nur in groben Zügen verstanden wird. Der Aufwand, der durch die vollständige Modellierung der biologischen, chemischen und physikalischen Details des neuronalen Verhaltens (insbesondere auf molekularer Ebene) entsteht, würde Rechenleistungen erfordern, die um mehrere Größenordnungen höher sind als die von Kurzweil geschätzte. Darüber hinaus berücksichtigen die Schätzungen keine Gliazellen, die mindestens so zahlreich sind wie Neuronen und die Neuronen möglicherweise um 10: 1 übertreffen, und von denen jetzt bekannt ist, dass sie eine Rolle bei kognitiven Prozessen spielen.

    Aktuelle Forschung

    Es gibt einige Forschungsprojekte, die sich mit der Gehirnsimulation unter Verwendung komplexerer neuronaler Modelle befassen, die auf herkömmlichen Computerarchitekturen implementiert sind. Das Artificial Intelligence System-Projekt implementierte 2005 Nicht-Echtzeit-Simulationen eines Gehirns (mit 10 Neuronen). Es dauerte 50 Tage auf einem Cluster von 27 Prozessoren, um 1 Sekunde eines Modells zu simulieren. Das Blue-Brain-Projekt verwendete eine der schnellsten Supercomputer-Architekturen der Welt, die Blue-Gene-Plattform von IBM, um eine Echtzeitsimulation einer einzelnen neokortikalen Ratten-Säule zu erstellen, die 2006 aus etwa 10.000 Neuronen und 10 Synapsen bestand um eine detaillierte, funktionale Simulation der physiologischen Prozesse im menschlichen Gehirn zu erstellen: Es ist nicht unmöglich, ein menschliches Gehirn aufzubauen, und wir schaffen es in 10 Jahren, sagte Henry Markram, Direktor des Blue Brain Project, im Jahr 2009 an der TED Konferenz in Oxford. Es gab auch kontroverse Behauptungen, ein Katzengehirn simuliert zu haben. Neuro-Silizium-Schnittstellen wurden als alternative Implementierungsstrategie vorgeschlagen, die möglicherweise besser skaliert werden kann.

    Hans Morav ging auf die obigen Argumente ein (Gehirne sind komplizierter , Neuronen müssen detaillierter modelliert werden). In seiner Arbeit von 1997 Wann wird Computerhardware dem menschlichen Gehirn entsprechen? Ermittelte er die Fähigkeit vorhandener Software, die Funktionalität von zu simulieren Nervengewebe, insbesondere die Netzhaut. Seine Ergebnisse hängen weder von der Anzahl der Gliazellen noch davon ab, welche Arten von Neuronen wo arbeiten.

    Die tatsächliche Komplexität der Modellierung biologischer Neuronen wurde in einem OpenWorm-Projekt untersucht, das auf die vollständige Simulation eines Wurms abzielte, der nur 302 Neuronen in seinem neuronalen Netzwerk hat (von insgesamt etwa 1000 Zellen). Das neuronale Netzwerk des Tieres wurde vor Beginn des Projekts gut dokumentiert. Obwohl die Aufgabe anfangs einfach schien, funktionierten die auf einem generischen neuronalen Netzwerk basierenden Modelle nicht. Derzeit konzentrieren sich die Bemühungen auf die präzise Emulation biologischer Neuronen (teilweise auf molekularer Ebene), doch das Ergebnis kann noch nicht als voller Erfolg bezeichnet werden. Auch wenn die Anzahl der in einem Modell im menschlichen Gehirn zu lösenden Probleme nicht proportional zur Anzahl der Neuronen ist, ist der Arbeitsaufwand auf diesem Weg offensichtlich.

    Kritik simulationsbasierter Ansätze

    Eine grundlegende Kritik am simulierten Gehirnansatz ergibt sich aus der verkörperten Erkenntnis, bei der die Verkörperung des Menschen als wesentlicher Aspekt der menschlichen Intelligenz angesehen wird. Viele Forscher glauben, dass Verkörperung notwendig ist, um die Bedeutung zu begründen. Wenn diese Ansicht richtig ist, muss jedes voll funktionsfähige Gehirnmodell mehr als nur die Neuronen (dh einen Roboterkörper) umfassen. Goertzel schlägt eine virtuelle Verkörperung vor (wie Second Life), aber es ist noch nicht bekannt, ob dies ausreichen würde.

    Desktop-Computer mit Mikroprozessoren mit einer Geschwindigkeit von mehr als 10 cps (siehe oben) sind seit 2005 verfügbar. Nach Schätzungen der Gehirnleistung von Kurzweil (und Moravec) sollte dieser Computer in der Lage sein, nicht standardmäßige Berechnungen pro Sekunde durchzuführen Unterstützung einer Simulation eines Bienengehirns, aber trotz eines gewissen Interesses existiert keine solche Simulation. Dafür gibt es mindestens drei Gründe:

    Das Neuronenmodell scheint zu stark vereinfacht zu sein (siehe nächster Abschnitt).

    Es gibt kein ausreichendes Verständnis für höhere kognitive Prozesse, um genau zu bestimmen, mit welcher neuronalen Aktivität das Gehirn korreliert, wenn Techniken wie die funktionelle Magnetresonanztomographie eingesetzt werden.

    Selbst wenn unser Verständnis der Kognition ausreichend fortgeschritten ist, sind frühe Simulationsprogramme wahrscheinlich sehr ineffizient und benötigen daher erheblich mehr Hardware.

    Das Gehirn eines Organismus ist zwar kritisch, aber möglicherweise keine angemessene Grenze für ein kognitives Modell. Um ein Bienengehirn zu simulieren, kann es erforderlich sein, den Körper und die Umwelt zu simulieren. Die Extended Mind-These formalisiert das philosophische Konzept, und die Erforschung von Kopffüßern hat eindeutige Beispiele für ein dezentrales System aufgezeigt.

    Darüber hinaus ist das Ausmaß des menschlichen Gehirns derzeit nicht genau festgelegt. Eine Schätzung geht davon aus, dass das menschliche Gehirn etwa 100 Milliarden Neuronen und 100 Billionen Synapsen hat. Eine weitere Schätzung sind 86 Milliarden Neuronen, von denen sich 16,3 Milliarden in der Großhirnrinde und 69 Milliarden im Kleinhirn befinden. Gliazellsynapsen sind derzeit nicht quantifiziert, sind jedoch als äußerst zahlreich bekannt.

    Künstliche Bewusstseinsforschung

    Obwohl die Rolle des Bewusstseins bei einer starken KI / AGI umstritten ist, betrachten viele AGI-Forscher Forschungen, die Möglichkeiten zur Implementierung von Bewusstsein untersuchen, als wesentlich. Igor Aleksander bemühte sich früh, dass die Prinzipien zur Schaffung einer bewussten Maschine bereits existierten, aber dass es vierzig Jahre dauern würde, um eine solche Maschine zum Verstehen von Sprache zu trainieren.

    Beziehung zu starker KI

    1980 prägte der Philosoph John Searle den Begriff starke KI als Teil seines chinesischen Raumstreits. Er wollte zwischen zwei verschiedenen Hypothesen über künstliche Intelligenz unterscheiden:

    Ein künstliches Intelligenzsystem kann denken und denken. (Das Wort Geist hat für Philosophen eine spezifische Bedeutung, wie es in dem Geist-Körper-Problem oder der Philosophie des Geistes verwendet wird.)

    Ein künstliches Intelligenzsystem kann (nur) so handeln, wie es denkt und denkt.

    Die erste heißt starke KI-Hypothese und die zweite schwache KI-Hypothese, weil die erste eine starke Aussage macht: Es wird vorausgesetzt, dass mit der Maschine etwas Besonderes passiert ist, das über all ihre Fähigkeiten hinausgeht, die wir testen können. Searle bezeichnete die starke AI-Hypothese als starke AI. Diese Verwendung ist auch in der akademischen KI-Forschung und in Lehrbüchern üblich.

    Die schwache AI-Hypothese entspricht der Hypothese, dass künstliche allgemeine Intelligenz möglich ist. Laut Russell und Norvig halten die meisten KI-Forscher die schwache KI-Hypothese für selbstverständlich und kümmern sich nicht um die starke KI-Hypothese.

    Im Gegensatz zu Searle verwendet Kurzweil den Begriff starke KI, um jedes künstliche Intelligenzsystem zu beschreiben, das sich so verhält, als hätte es einen Verstand, unabhängig davon, ob ein Philosoph in der Lage wäre, festzustellen, ob er tatsächlich einen Verstand hat oder nicht.

    Mögliche Erklärungen für den langsamen Fortschritt der KI-Forschung

    Seit dem Start der KI-Forschung im Jahr 1956 hat sich das Wachstum dieses Bereichs im Laufe der Zeit verlangsamt und das Ziel, Maschinen zu schaffen, die auf menschlicher Ebene intelligent agieren können, zum Erliegen gebracht. Eine mögliche Erklärung für diese Verzögerung ist, dass Computern ein ausreichender Speicher- oder Rechenleistungsbereich fehlt. Darüber hinaus kann die Komplexität, die mit dem Prozess der KI-Forschung verbunden ist, auch den Fortschritt der KI-Forschung einschränken.

    Während die meisten KI-Forscher glauben, dass in Zukunft eine starke KI erreicht werden kann, leugnen einige Personen wie Hubert Dreyfus und Roger Penrose die Möglichkeit einer starken KI. John McCarthy war einer von verschiedenen Informatikern, die glauben, dass AI auf menschlicher Ebene erreicht wird, aber ein Datum kann nicht genau vorhergesagt werden.

    Konzeptionelle Einschränkungen sind ein weiterer möglicher Grund für die Langsamkeit in der AI-Forschung. AI-Forscher müssen möglicherweise den konzeptuellen Rahmen ihrer Disziplin ändern, um eine stärkere Basis und einen stärkeren Beitrag zum Streben nach einer starken AI zu liefern. Wie William Clocksin 2003 schrieb: Der Rahmen beginnt mit Weizenbaums Beobachtung, dass sich Intelligenz nur in Bezug auf bestimmte soziale und kulturelle Kontexte manifestiert.

    Darüber hinaus konnten KI-Forscher Computer entwickeln, die für Menschen komplizierte Aufgaben erledigen können. Umgekehrt hatten sie Mühe, einen Computer zu entwickeln, der in der Lage ist, Aufgaben auszuführen, die für Menschen einfach zu erledigen sind (Moravecs Paradoxon). Ein von David Gelernter beschriebenes Problem ist, dass manche Leute annehmen, dass Denken und Denken gleichwertig sind. Die Idee, ob Gedanken und der Schöpfer dieser Gedanken individuell isoliert sind, hat KI-Forscher jedoch fasziniert.

    Die Probleme, die in der KI-Forschung in den letzten Jahrzehnten aufgetreten sind, haben den Fortschritt der KI weiter behindert. Die fehlgeschlagenen Vorhersagen, die von KI-Forschern versprochen wurden, und das Fehlen eines vollständigen Verständnisses des menschlichen Verhaltens haben dazu beigetragen, die Grundidee der KI auf menschlicher Ebene zu schmälern. Obwohl die Fortschritte der KI-Forschung sowohl Verbesserungen als auch Enttäuschungen gebracht haben, haben die meisten Forscher Optimismus festgestellt über potenziell das Ziel der KI im 21. Jahrhundert zu erreichen.

    Weitere mögliche Gründe für die langwierige Untersuchung des Fortschritts einer starken KI wurden vorgeschlagen. Die Komplexität wissenschaftlicher Probleme und die Notwendigkeit, das menschliche Gehirn durch Psychologie und Neurophysiologie vollständig zu verstehen, haben viele Forscher daran gehindert, die Funktion des menschlichen Gehirns in Computerhardware zu emulieren. Viele Forscher neigen dazu, jeden Zweifel zu unterschätzen, der mit zukünftigen Vorhersagen von KI verbunden ist, aber ohne diese Themen ernst zu nehmen, können die Leute dann Lösungen für problematische Fragen übersehen.

    Laut Clocksin besteht eine konzeptionelle Einschränkung, die den Fortschritt der KI-Forschung behindern kann, darin, dass Menschen möglicherweise die falschen Techniken für Computerprogramme und die Implementierung von Geräten verwenden. Als KI-Forscher anfingen, das Ziel der künstlichen Intelligenz anzustreben, lag das Hauptinteresse auf dem menschlichen Denken. Die Forscher hofften, Computermodelle menschlichen Wissens durch Denken zu etablieren und herauszufinden, wie ein Computer mit einer bestimmten kognitiven Aufgabe entworfen werden kann.

    Die Abstraktionspraxis, die Menschen bei der Arbeit mit einem bestimmten Kontext in der Forschung tendenziell neu definieren, bietet Forschern eine Konzentration auf nur einige wenige Konzepte. Die produktivste Verwendung der Abstraktion in der KI-Forschung erfolgt durch Planung und Problemlösung. Obwohl das Ziel darin besteht, die Geschwindigkeit einer Berechnung zu erhöhen, hat die Rolle der Abstraktion Fragen nach der Einbeziehung von Abstraktionsoperatoren aufgeworfen.

    Ein möglicher Grund für die Langsamkeit der KI besteht darin, dass viele KI-Forscher anerkennen, dass die Heuristik ein Bereich ist, der einen erheblichen Bruch zwischen der Computerleistung und der menschlichen Leistung darstellt. Die spezifischen Funktionen, die auf einem Computer programmiert sind, können möglicherweise viele der Anforderungen erfüllen das ermöglicht es, menschliche Intelligenz zu entsprechen. Diese Erklärungen sind nicht unbedingt die fundamentalen Ursachen für die Verzögerung bei der Erreichung einer starken KI, aber sie werden von zahlreichen Forschern weitgehend akzeptiert.

    Es gab viele KI-Forscher, die darüber debattierten, ob Maschinen mit Emotionen geschaffen werden sollten. In typischen KI-Modellen gibt es keine Emotionen, und einige Forscher sagen, dass das Programmieren von Emotionen in Maschinen ihnen erlaubt, einen eigenen Kopf zu haben. Emotionen fassen die Erfahrungen des Menschen zusammen, weil sie es ihm ermöglichen, sich an diese Erfahrungen zu erinnern. David Gelernter schreibt: Kein Computer wird kreativ sein, wenn er nicht alle Nuancen menschlicher Emotionen simulieren kann. Diese Sorge um Emotionen hat KI-Forscher vor Probleme gestellt und steht im Zusammenhang mit dem Konzept der starken KI, wenn die Forschung in die Zukunft voranschreitet.

    Bewusstsein

    Neben der Intelligenz gibt es weitere Aspekte des menschlichen Geistes, die für das Konzept der starken KI relevant sind und eine wichtige Rolle in der Science-Fiction und der Ethik der künstlichen Intelligenz spielen:

    Bewusstsein: Subjektives Erleben und Denken.

    Selbsterkenntnis: Sich selbst als eigenständiges Individuum wahrnehmen, insbesondere die eigenen Gedanken wahrnehmen.

    Empfindung: Die Fähigkeit, Wahrnehmungen oder Emotionen subjektiv zu fühlen.

    Sapience: Die Fähigkeit zur Weisheit.

    Diese Merkmale haben eine moralische Dimension, da eine Maschine mit dieser Form von starker KI gesetzliche Rechte haben kann, analog zu den Rechten nichtmenschlicher Tiere. Bill Joy argumentiert unter anderem, dass eine Maschine mit diesen Merkmalen eine Bedrohung für das Leben oder die Würde des Menschen darstellen könnte. Es bleibt zu zeigen, ob eines dieser Merkmale für eine starke KI notwendig ist. Die Rolle des Bewusstseins ist nicht klar und derzeit gibt es keinen vereinbarten Test für seine Anwesenheit. Wenn eine Maschine mit einem Gerät gebaut wird, das die neuronalen Korrelate des Bewusstseins simuliert, würde es dann automatisch Selbsterkenntnis haben? Es ist auch möglich, dass einige dieser Eigenschaften, wie z. B. das Empfinden, auf natürliche Weise aus einer vollständig intelligenten Maschine hervorgehen oder dass es selbstverständlich wird, diese Eigenschaften Maschinen zuzuschreiben, sobald diese beginnen, sich auf eine eindeutig intelligente Weise zu verhalten. Zum Beispiel kann intelligentes Handeln für die Empfindung ausreichen und nicht umgekehrt.

    In der Science-Fiction wird AGI mit Merkmalen wie Bewusstsein, Empfindung, Sinneswahrnehmung und Selbstbewusstsein assoziiert, die bei Lebewesen beobachtet werden. Nach Ansicht des Philosophen John Searle ist es jedoch eine offene Frage, ob die allgemeine Intelligenz für das Bewusstsein ausreicht. Starke KI (wie oben von Ray Kurzweil definiert) sollte nicht mit Searles starker KI-Hypothese verwechselt werden. Die starke KI-Hypothese ist die Behauptung, dass ein Computer, der sich so intelligent verhält wie eine Person, auch notwendigerweise einen Verstand und ein Bewusstsein haben muss. AGI bezieht sich nur auf die Menge an Intelligenz, die die Maschine mit oder ohne Verstand anzeigt.

    Kontroversen und Gefahren

    Durchführbarkeit

    Die Meinungen darüber, ob und wann künstliche allgemeine Intelligenz eintreffen wird, gehen auseinander. In einem Extremfall schrieb KI-Pionier Herbert A. Simon im Jahr 1965: Maschinen werden in zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch leisten kann. Diese Vorhersage hat sich jedoch nicht bewahrheitet. Microsoft-Mitbegründer Paul Allen glaubte, dass eine solche Intelligenz im 21. Jahrhundert unwahrscheinlich ist, da sie unvorhersehbare und grundsätzlich unvorhersehbare Durchbrüche und ein wissenschaftlich tiefes Verständnis der Kognition voraussetzen würde. Der Robotiker Alan Winfield schrieb in The Guardian, die Kluft zwischen modernem Computing und künstlicher Intelligenz auf menschlicher Ebene sei ebenso groß wie die Kluft zwischen der gegenwärtigen Raumfahrt und der praktischen Raumfahrt, die schneller als Licht ist. Die Ansichten der AI-Experten zur Machbarkeit von AGI-Wachs und abnehmen und möglicherweise in den 2010er Jahren wiederaufleben. Vier in den Jahren 2012 und 2013 durchgeführte Umfragen deuten darauf hin, dass der Median der Experten für einen Zeitpunkt, an dem sie zu 50% zuversichtlich wären, zwischen 2040 und 2050 liegen würde, je nach Umfrage mit einem Mittelwert von 2081. Interessant ist auch, dass 16,5% der Umfragen durchgeführt werden Die Experten antworteten mit nie, wenn sie die gleiche Frage stellten, aber stattdessen mit einem 90% igen Vertrauen. Weitere aktuelle Überlegungen zum AGI-Fortschritt finden Sie unter Tests zur Bestätigung von AGI- und IQ-Tests auf menschlicher Ebene.

    Mögliche Bedrohung der menschlichen Existenz

    Die Schaffung künstlicher allgemeiner Intelligenz kann so weitreichende und komplexe Auswirkungen haben, dass man möglicherweise nicht vorhersagen kann, was danach kommt. Das Ereignis in der hypothetischen Zukunft, eine starke KI zu erreichen, wird als technologische Singularität bezeichnet, weil man theoretisch nicht darüber hinwegsehen kann. Dies hat Philosophen und Forscher jedoch nicht davon abgehalten zu erraten, was die intelligenten Computer oder Roboter der Zukunft tun könnten, einschließlich der Bildung einer Utopie, indem sie unsere Freunde sind oder uns bei einer KI-Übernahme überwältigen. Die letztgenannte Möglichkeit ist besonders störend, da sie ein existenzielles Risiko für die Menschheit darstellt.

    Selbstreplizierende Maschinen

    Intelligente Computer oder Roboter wären in der Lage, verbesserte Versionen von sich selbst zu entwerfen und zu produzieren. Eine wachsende Population intelligenter Roboter könnte unter Umständen minderwertige Menschen auf den Arbeitsmärkten, in der Wirtschaft, in der Wissenschaft, in der Politik (Verfolgung von Roboterrechten) und in technologischer Hinsicht übertreffen. soziologisch (indem man als einer handelt) und militärisch. Viele Aufgaben wurden bereits heute von pseudo-intelligenten Maschinen übernommen, die von einer schwachen KI angetrieben werden. Beispielsweise haben Roboter für Privathaushalte, das Gesundheitswesen, Hotels und Restaurants viele Teile unseres Lebens automatisiert: Virtuelle Bots verwandeln den Kundendienst in Selbstbedienung. Service, Big-Data-KI-Anwendungen werden als Ersatz für Portfoliomanager eingesetzt, und soziale Roboter wie Pepper werden als Ersatz für menschliche Begrüßer für den Kundendienst eingesetzt.

    Neue Superintelligenz

    Wenn die Suche nach einer starken KI eine ausreichend intelligente Software hervorbringt, kann sie sich selbst neu programmieren und verbessern

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1