Von Roma Szczocarz
Von Turing bis Watson: Die Entwicklung der denkenden Systeme
Seit der Mitte des vergangenen Jahrhunderts arbeiten Wissenschaftler an Künstlicher Intelligenz. Ihr Ziel: Maschinen zu entwickeln, die wie Menschen lernen und denken. Ein Überblick über die wichtigsten Meilensteine der Technologie und Forschung.
1936: Turingmaschine
Der britische Mathematiker Alan Turing beweist durch seine Theorien, dass eine Rechenmaschine – eine sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen, sofern diese sich in mehrere Einzelschritte zerlegen und durch einen Algorithmus darstellen lassen. Damit legt er den Grundstein für das, was wir heute unter Künstlicher Intelligenz verstehen.
1956: Die Geschichte beginnt: der Begriff „KI“ entsteht
Im Sommer 1956 treffen sich Wissenschaftler zu einer Konferenz am Dartmouth College im US-Bundesstaat New Hampshire. Sie sind der Ansicht, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. Der Programmierer John McCarthy schlägt dafür den Begriff „Künstliche Intelligenz“ vor. Während der Konferenz wird mit dem „Logic Theorist“ – der es schafft, mehrere Dutzend mathematische Lehrsätze zu beweisen – zudem das erste KI-Programm der Welt geschrieben.
1966: Geburt des ersten Chatbots
Der deutsch-amerikanische Informatiker Joseph Weizenbaum vom Massachusetts Institute of Technology erfindet ein Computerprogramm, das mit Menschen kommuniziert. Über Skripte simuliert „ELIZA“ verschiedene Gesprächspartner, beispielsweise einen Psychotherapeuten. Weizenbaum ist überrascht, mit welch einfachen Mitteln „ELIZA“ die Illusion eines menschlichen Gesprächspartners erzeugen kann.
1972: KI gelangt in die Medizin
Mit „MYCIN“ findet Künstliche Intelligenz den Weg in die Praxis: Das von Ted Shortliffe an der Stanford University entwickelte Expertensystem wird zur Behandlung von Krankheiten eingesetzt. Expertensysteme sind Computerprogramme, die das Wissen eines bestimmten Fachgebietes durch Formeln, Regeln und eine Wissensdatenbank bündeln. In der Medizin dienen sie zur Unterstützung bei Diagnose und Therapie.
1986: „NETtalk“ spricht
Der Computer erhält erstmals eine Stimme. Durch die Eingabe von Beispielsätzen und Phonemketten bringen Terrence J. Sejnowski und Charles Rosenberg ihrem Programm „NETtalk“ das Sprechen bei. „NETtalk“ kann Wörter lesen und korrekt aussprechen sowie das Gelernte auf ihm unbekannte Wörter anwenden. Damit ist es eines der frühen künstlichen neuronalen Netze – also Programme, die mit großen Datensätzen gefüttert werden und darauf aufbauend eigene Schlüsse ziehen können. In Aufbau und Funktion ähneln sie damit dem menschlichen Gehirn.
1997: Computer schlägt Schachweltmeister
Die KI-Schachmaschine „Deep Blue“ der Firma IBM bezwingt den amtierenden Schachweltmeister Garry Kasparov in einem Turnier. Dies gilt als historischer Erfolg der Maschinen in einem Bereich, der bislang vom Menschen dominiert wurde. Kritiker werfen jedoch ein, dass „Deep Blue“ nicht durch kognitive Intelligenz, sondern nur durch das Berechnen aller denkbaren Züge gewonnen habe.
2011: KI erreicht den Alltag
Technologiesprünge bei der Hard- und Software bahnen Künstlicher Intelligenz den Weg in das tägliche Leben. Leistungsstarke Prozessoren und Grafikkarten in Computern, Smartphones und Tablets ermöglichen es normalen Verbrauchern, auf KI-Programme zuzugreifen. Insbesondere Sprachassistenten erfreuen sich großer Beliebtheit: Apples „Siri“ kommt 2011 auf den Markt, 2014 stellt Microsoft die Software „Cortana“ vor und Amazon präsentiert 2015 Amazon Echo mit dem Sprachdienst „Alexa“.
2011: KI „Watson“ gewinnt Quizshow
Das Computerprogramm „Watson“ tritt in Form eines animierten Bildschirmsymbols in einer US-amerikanischen TV-Quizshow an und gewinnt gegen die menschlichen Mitspieler. Damit beweist „Watson“, dass es die natürliche Sprache versteht und schnell auf schwierige Fragen antworten kann.
2018: KI debattiert über Raumfahrt und vereinbart einen Friseurtermin
Diese beiden Beispiele demonstrieren die Leistungsfähigkeit von Künstlichen Intelligenzen: Im Juni liefert sich „Project Debater“ von IBM mit zwei Debattiermeistern ein Rededuell über komplexe Themen – und schneidet dabei beachtlich ab. Wenige Woche zuvor demonstriert Google auf einer Konferenz, wie die KI „Duplex“ beim Friseur anruft und im Plauderton einen Termin vereinbart – ohne dass die Dame am anderen Ende der Leitung merkt, dass sie mit einer Maschine spricht.
20xx: Die nahe Zukunft
Trotz jahrzehntelanger Forschung steht die Entwicklung der Künstlichen Intelligenz noch relativ am Anfang. Damit sie in sensiblen Bereichen wie dem automatisierten Fahren oder der Medizin eingesetzt werden kann, muss sie zuverlässiger und sicherer gegen Manipulationen werden. KI-Systeme sollen zudem lernen, ihre Entscheidungen zu erklären, damit Menschen sie nachvollziehen und die Denkweise der KI besser erforschen können. Zahlreiche Wissenschaftler, wie der Bosch-Stiftungsprofessor Matthias Hein an der Universität Tübingen, arbeiten an diesen Themen.
Die Vorstellung einer künstlichen Intelligenz existierte in Mythen, Legenden und Geschichten bereits weit vor Beginn der modernen Zeitrechnung. Philosophische Schulen wie die Charvaka im Hinduismus.
Automaten – die KI in der Antike
In der griechischen, ägyptischen und römischen Mythologie entwickelt sich der Begriff der Automaten: künstliche Figuren, denen Leben eingehaucht worden war, mit echtem Verstand und echten Gefühlen. Das, was die Götter mit den Menschen taten, so war der Gedanke, könnten die Handwerker, die Schöpfer der Automaten, mit ihren Werken tun: Ihnen Leben einhauchen.
Philosophie des 17. Jahrhunderts: Leibniz, Hobbes und Descartes
1600
Die Vordenker des 17. Jahrhunderts, allen voran Thomas Hobbes, René Descartes und Gottfried Wilhelm von Leibniz, glaubten daran, dass rationale Gedanken genauso systematisch erfassbar seien wie Algebra oder Geometrie in der Mathematik. Sachliche Argumentation sei demnach nichts anderes als mathematisches Kalkül, was auch heute der Grundgedanke einer programmierten Intelligenz ist.
Die ersten Computer
1800 — 1900
Zu Beginn des 19. Jahrhunderts wird KI zum festen Bestandteil der Literatur, allen voran natürlich Mary Shelley’s Frankenstein. Aber auch in wissenschaftlichen Schriften wird die Entwicklung KI konkreter. Der englische Philosoph und Mathematiker Charles Babbage entwickelt einen programmierbaren Computer, der zwar nie gebaut wird, die Öffentlichkeit aber von der Möglichkeit komplexer Rechenleistung durch Maschinen spekulieren lässt.
Als Gründungsveranstaltung der künstlichen Intelligenz als akademischem Fachgebiet gilt die Dartmouth Conference im Sommer 1956 am Dartmouth College in Hanover (New Hampshire), ein sechswöchiger Workshop mit dem Titel Dartmouth Summer Research Project on Artificial Intelligence, organisiert von John McCarthy im Rahmen eines von der Rockefeller-Stiftung geförderten Forschungsprojekts. Im Antrag dazu erschien erstmals der Begriff „artificial intelligence“.[1] Neben McCarthy selbst nahmen daran unter anderen Marvin Minsky, Nathaniel Rochester und Claude Elwood Shannon teil.