KI-Grundlagen

Die Geschichte der KI: Von Alan Turing bis ChatGPT

Die Geschichte der KI: Von Alan Turing bis ChatGPT

Wenn man sich ChatGPT oder Bilderzeugungsprogramme anschaut, koennte man meinen, das alles sei quasi ueber Nacht entstanden. Stimmt nicht ganz. Die Ideen, die Kaempfe und das muehsam angesammelte Wissen hinter diesen Systemen reichen mehr als sieben Jahrzehnte zurueck. Die Geschichte der KI zu kennen, hilft dabei zu verstehen, warum sie so geworden ist, wie sie ist — und was als naechstes kommen koennte.

Die Gruendungsjahre: Die 1950er

Der intellektuelle Geburtsort der KI laesst sich auf zwei Momente zurueckfuehren. Erstens: Alan Turings Aufsatz von 1950 "Computing Machinery and Intelligence", in dem er die beruehmte Frage stellte: "Koennen Maschinen denken?" Er schlug den sogenannten Turing-Test vor — kann eine Maschine ein Gespraech fuehren, das ein Mensch nicht von einem Gespraech mit einem anderen Menschen unterscheiden kann? Eine Frage, die bis heute nachallt.

Zweitens: Die Dartmouth-Konferenz von 1956, organisiert von John McCarthy, der den Begriff "Kuenstliche Intelligenz" praegte. Eine kleine Gruppe von Mathematikern, Psychologen und Informatikern versammelte sich, um das Problem lernender Maschinen anzugehen. Sie waren optimistisch — vielleicht zu optimistisch. Viele glaubten, das Problem koenne in einer Generation geloest werden.

Sie lagen falsch. Aber die Gemeinschaft, die sie gruendeten, und die Fragen, die sie stellten, haben alles Folgende gepraegte.

Der erste KI-Winter: 1970er

Fruehe KI-Forschung brachte beeindruckende Ergebnisse in engen Bereichen. Schachprogramme. Theorembeweis-Systeme. Erste Anwendungen in natuerlicher Sprache. Aber das Feld versprach systematisch zu viel und lieferte zu wenig. Foerderorganisationen wurden ungeduldig und kuerzten die Mittel. Die erste "KI-Winter" begann.

Die Lektion aus diesem Absturz: Die Probleme waren haerter, als irgendjemand gedacht hatte. Intelligenz, so stellte sich heraus, besteht nicht primaer aus explizitem Schlussfolgern und Logik — den Dingen, die Computer bereits gut konnten. Sie besteht aus Lernen, Anpassungsfaehigkeit und dem impliziten Wissen, das Menschen aus jahrelanger Erfahrung in der Welt entwickeln.

Expertensysteme und zweiter Winter: 1980er

In den 1980ern erlebte KI eine Renaissance durch Expertensysteme. Diese Programme codierten das Wissen menschlicher Experten als grosse Sammlungen von Regeln und nutzten diese, um Fragen zu beantworten und Entscheidungen zu treffen. Sie fanden echte kommerzielle Anwendung — vor allem in Medizin und Business.

Aber Expertensysteme hatten fundamentale Grenzen. Sie waren teuer im Aufbau und in der Wartung. Sie konnten nicht aus neuen Daten lernen. Und sie versagten fragil ausserhalb ihrer engen Domaene. Ende der 1980er brach der kommerzielle KI-Markt zusammen. Ein zweiter KI-Winter folgte.

Die statistische Revolution: 1990er

In den 1990ern vollzog sich ein leises, aber fundamentales Umdenken. Forscher wandten sich von handgeschriebenen Regeln hin zu statistischen Methoden. Anstatt Wissen explizit zu codieren, bauten sie Systeme, die Muster aus Daten lernten.

IBMs Deep Blue besiegte 1997 Schachweltmeister Garry Kasparov — ein kultureller Meilenstein, wenn auch kein technischer Durchbruch. Die wirklichen technischen Revolutionen fanden leiser statt: in der Spracherkennung, der Handschrifterkennung und in Suchalgorithmen.

Die Deep-Learning-Revolution: 2010er

Der Durchbruch, der alles veraenderte, kam 2012. Ein tiefes neuronales Netz namens AlexNet gewann den ImageNet-Bilderkennungswettbewerb mit einem Vorsprung, der die Forschungsgemeinschaft kollektiv erschuetterte. Deep Learning wurde schnell zur dominanten Methode in der KI und erzielte Bestleistungen in Bereich um Bereich.

2016 besiegte DeepMinds AlphaGo den Weltmeister im Go — einem Spiel, das lange als zu komplex fuer Maschinen galt. 2017 wurde die Transformer-Architektur veroeffentlicht, die die natuerliche Sprachverarbeitung revolutionierte und direkt zu den heutigen grossen Sprachmodellen fuehrte.

"KI hat mehr als 70 Jahre gebraucht, um hier anzukommen. Das ist keine Schwaeche — das ist der normale Rhythmus wissenschaftlicher Revolutionen."

Das generative KI-Zeitalter: 2020er

Der Start von ChatGPT im November 2022 war der Moment, in dem KI von einem Branchenthema zu einem globalen Kulturphaenomen wurde. Hundert Millionen Nutzer in zwei Monaten. Kuenstler, Schriftsteller und Programmierer gleichzeitig begeistert und beunruhigt. Regierungen, die versuchten zu verstehen, womit sie es zu tun hatten. Die Technologie war, ploetzlich, nicht mehr zu ignorieren.

Wir leben gerade in den Nachbeben dieses Moments. Die Fragen, die gestellt werden — ueber Jobs, Kreativitaet, Wahrheit, Sicherheit, Macht — sind die richtigen Fragen. Die Antworten werden noch erarbeitet.

Was die Geschichte uns lehrt: KI-Fortschritt ist nichtlinear. Lange Perioden langsamer, unglamouroeser Arbeit, unterbrochen von ploetzlichen Durchbruechen. Wer sagte, es passiere in fuenf Jahren, lag meist falsch. Wer sagte, es werde nie funktionieren, lag auch falsch. Niemand weiss genau, wie das naechste Kapitel aussieht — aber der zugrundeliegende Schwung ist real.

← KI, Maschinelles Lernen, Deep Learning: Was ist ...Naechster: Neuronale Netze: Wie Computer sehen, hoeren und ... →

Aehnliche Beitraege

Immer auf dem neuesten Stand

Trag dich ein und erhalte woechentlich die wichtigsten KI-News und Tipps.