Als Vater des Fachgebiets der künstlichen Intelligenz gilt Alan Turing. Der britische Mathematiker bewies im Jahr 1936, dass ein Computer kognitive Prozesse ausführen kann. Hierfür muss es möglich sein, die Prozesse in einzelne Schritte aufzuteilen und in einem Algorithmus abzubilden. Turing präsentierte 1950 eine Idee, um zu testen, ob ein Rechner selbstständig denken kann. Während des Tests stellt eine Testperson über eine Computertastatur zwei unsichtbaren Gesprächspartnern verschiedene Fragen, wobei einer der Gesprächspartner der zu testende Computer ist. Der Test gilt als bestanden, wenn mindestens 30 Prozent der Testpersonen nicht erraten können, welcher der Gesprächspartner der Computer ist.
Die Dartmouth-Konferenz
Im Jahr 1956 trafen sich am Dartmouth College in New Hampshire in den USA mehrere Wissenschaftler zum «Summer Research Project on Artificial Intelligence». Mit dieser ambitionierten, sechswöchigen Konferenz tauchte das erste Mal der Begriff «künstliche Intelligenz» auf. Im Nachgang an die Konferenz programmierten der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das Programm «The Logic Theorist». Es gilt als das erste Programm auf der Basis von künstlicher Intelligenz.
Als weiterer Meilenstein in der Geschichte zur künstlichen Intelligenz gilt der Chatbot Eliza aus dem Jahr 1966. Es war der erste Chatbot überhaupt und wurde vom deutsch-amerikanischen Informatiker Joseph Weizenbaum programmiert. Eliza lieferte den Eindruck, als würden sich die Versuchspersonen mit einem Psychotherapeuten unterhalten. Das Programm spuckte allerdings häufig nur irgendwelche Fragen oder allgemeinen Phrasen aus. Auch war der Dialog nur über eine Computertastatur möglich. Dennoch waren viele Testpersonen der Meinung, der Chatbot habe Verständnis für ihr Anliegen. Weizenbaum selbst war überrascht, wie wenig es braucht, um einen Gesprächspartner aus Fleisch und Blut zu simulieren.
Starke und schwache KI
Beim Thema künstliche Intelligenz stehen sich heute zwei konträre Positionen gegenüber. Auf der einen Seite wird die Meinung vertreten, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Anhänger dieser Position werden als Vertreter der sogenannten starken künstlichen Intelligenz bezeichnet. Demgegenüber sind die Vertreter der schwachen künstlichen Intelligenz der Ansicht, dass menschliches Denken gebunden ist an den menschlichen Körper, insbesondere an das Gehirn.
Die beiden Meinungsströmungen gehen zurück auf einen wissenschaftlichen Streit in den 1970er-Jahren. Im wissenschaftlichen Diskurs ging es darum, wie gross das Potenzial von künstlicher Intelligenz für praktische Anwendungen sein kann. Bezugnehmend auf die Arbeiten von Alan Turing waren Allen Newell und Herbert Simon von der Carnegie Mellon University der Ansicht, dass es für den Vollzug von Denkprozessen kein menschliches Gehirn brauche. Denken sei nichts anderes als Informationsverarbeitung und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Eine klare Gegenposition zu dieser Meinung ergriff der Philosoph John Searle. Gemäss der Auffassung von Searle können Maschinen mittels künstlicher Intelligenz die kognitiven Fähigkeiten von Menschen zwar simulieren und nachahmen, sie sind aber nicht wirklich intelligent, sondern scheinen lediglich intelligent zu sein.
Erster Anwendungsversuch
Schon früh kam der Wunsch auf, künstliche Intelligenz in der Medizin einzusetzen. So versuchte man 1972 an der Universität Stanford, ein Programm zu entwickeln, das die Diagnose und Therapie von Infektionskrankheiten unterstützen sollte. Das Ziel war, dass aufgrund von zahlreichen Parametern geeignete Antibiotika vorgeschlagen werden können. Das neue Programm-System namens «MYCIN» wurde allerdings nie in der Praxis eingesetzt.
Die Skepsis war zu gross und es mangelte an technischen Möglichkeiten, um das System für eine breite Anwendung verfügbar zu machen. «MYCIN» ist historisch aber deshalb relevant, weil es als Vorläufer von sogenannten Expertensystemen gilt. Expertensysteme sind Computerprogramme, die Menschen bei komplexen Problemstellungen unterstützen.
Die 1980er-Jahre werden in der historischen Betrachtung oft als sogenannter KI-Winter aufgefasst. Der Grund dafür ist, dass viele Regierungen, allen voran die USA, ihre Forschungsgelder stoppten. Ausgehend von der Zeit des Kalten Krieges hatten die USA enorme Geldsummen investiert zur Bereitstellung eines Übersetzungssystems, das Dokumente in russischer Sprache automatisiert übersetzen sollte. Doch die KI-Forscher hatten die Komplexität der Aufgabe unterschätzt.
Auch stellten Forscher in den 1980er-Jahren immer wieder fest, dass Aufgaben, die für Menschen sehr einfach sind, für Computer eine grosse Herausforderung darstellen und umgekehrt. So ist es für Menschen schwierig, komplexe mathematische Probleme zu lösen, während Computer Mühe damit haben, Bilder oder Sprache zu erkennen oder Bewegungen auszuführen. Dieses Prinzip wurde unter anderem von Hans Moravec beschrieben und wird auch als Moravec’sches Paradox bezeichnet.
Computer lernte sprechen
Einen positiven Impuls für das Fachgebiet der künstlichen Intelligenz gab es im Jahr 1986, als Terrence J. Sejnowski und Charles Rosenberg den Computer zum Sprechen brachten. Hierfür entwickelten sie das Programm «Net talk», das zu den frühen sogenannten neuronalen Netzwerken gehört. Das sind Programme, die mit grossen Datenmengen gefüttert werden und darauf aufbauend eigene Schlüsse ziehen können. «Net talk» konnte Wörter lesen und korrekt aussprechen sowie das Gelernte auf ihm unbekannte Wörter anwenden.
Mit der steigenden Rechnerleistung der Computer in den 1990er-Jahren begannen auch Versuche, bei denen Rechner bei Brett-, Computer- oder anderen Spielen gegen Menschen spielen. Es zeigte sich, dass moderne Computersysteme durchaus in der Lage sind, selbst die besten menschlichen Spieler zu übertreffen. So besiegte 1997 das IBM-System «Deep Blue» den russischen Schachweltmeister Gary Kasparov. Ebenfalls von IBM war das Computerprogramm «Watson», das 2011 in der amerikanischen Quiz-Show «Jeopardy» gegen den besten Quizmeister gewann. 2016 übertraf die Deepmind-Software «Alpha Go» von Google den südkoreanischen Spitzenspieler Lee Sedol bei einer Spielpartie auf dem chinesischen Brettspiel Go.
Die Kommerzialisierung
Es war nur eine Frage der Zeit, bis die ersten kommerziellen KI-Anwendungen auf den Markt kommen sollten. Eine erste Phase der Kommerzialisierung begann etwa ab dem Jahr 2010. Eine der ersten Innovationen für eine breite Anwenderschaft waren die Sprachassistenten Siri und Alexa. Im Geschäftsbereich schritt die Automatisierung von Arbeitsprozessen voran und das Internet der Dinge konnte für immer mehr Anwendungsbereiche genutzt werden.
Dank der immer besseren Rechnerleistung konnten die Computer immer besser für das maschinelle Lernen genutzt werden. Beim maschinellen Lernen generiert der Computer selbstständig Wissen aus Erfahrungen. Er kann damit auch eigenständig Lösungen für neue und unbekannte Probleme finden. Auch das Deep Learning erreichte einen neuen Boom. Deep Learning ist ein Teilgebiet des maschinellen Lernens, bei welchem neuronale Netze in mehreren Schichten genutzt werden. Es entsteht eine umfangreiche innere Struktur des Netzes. Deep Learning kann zum Beispiel dafür genutzt werden, Bilder zu erkennen, Texte zu verstehen oder präzise Entscheidungen zu treffen.
KI und Effizienzsteigerung
Viele weitere Trends im Bereich künstliche Intelligenz begannen sich ab dem Jahr 2020 abzuzeichnen. So begannen die Unternehmen beispielsweise die Machine Learning Operations (MLOps) zu nutzen. In einem funktionsübergreifenden und kooperativen Prozess soll das maschinelle Lernen für möglichst viele Anwendungsgebiete in einem Unternehmen produktiv genutzt werden. Die Unternehmen sollen aus ihren Daten wertvolle Informationen gewinnen können, beispielsweise, wenn es um Workflows, Traffic-Muster und das Bestandsmanagement geht.
Neue Möglichkeiten zur Effizienzsteigerung im Supply Chain Management ergeben sich durch die immer bessere Verfügbarkeit von digitalen Daten. Bereits heute stellen die B2B-Plattformen «wlw» (ehemals «Wer liefert was») und «Europages» grosse Mengen solcher Daten zur Verfügung. Darunter umfassende Produktspezifikationen, Firmen- und Kontaktdaten sowie Informationen zu Liefergebieten und -zeiten. Das Unternehmen Visable als Träger der beiden Plattformen nutzt selber KI-Programme zur Pflege der Daten, beispielsweise zur Bereitstellung von Schlüsselwörtern für die Datensuche oder zur Eliminierung von Daten-Duplikaten.