Wichtige Begriffe und ihre Bedeutung Was steckt hinter Künstlicher Intelligenz?
Maschinenintelligenz, AI, Machine Learning, Robotik, Digitalisierung und so weiter. Alles Begriffe, die man irgendwie mit Computern verbindet. Und mit einem Fortschritt, der überall unabdingbar ist. Jeder ist dabei oder will zumindest bald mitmachen; von mittelständischen Unternehmen über Universitäten bis hin zu Weltkonzernen.
Gerne wird der Begriff der Künstlichen Intelligenz jedoch als Überbegriff für alles verwendet, was irgendwie digital zu sein scheint.
Schlagwörter sollen Aufmerksamkeit generieren und deshalb geht es bei ihrer Verwendung nicht immer um ihre eigentliche Bedeutung, sondern manchmal eben nur um den Einsatz von mehr Touchscreens im Betrieb oder um die angebotenen Online-Seminare einer Hochschule. In solchen Fällen und auch dann, wenn die Kamera Bilder nicht mehr auf einen Film brennt, sondern auf einer microSD-Karte speichert, die Bücher einer Bibliothek eingescannt oder Schallplatten optisch abgetastet werden, spricht man von Digitalisierung.
Digitalisierung ist der Oberbegriff für alles, was einmal analog war und nun in digitale Formate umgewandelt wird. So gelangt man von stufenlosen Signalen mit theoretisch unendlich vielen Werten zu dem Binärzahlensystem Null und Eins, mit dem sich alles bis ins letzte Detail klar aufschlüsseln lässt.
Was ist denn dann künstliche Intelligenz?
Beim Menschen findet alles „Intelligente“ im Zentralnervensystem statt. Das Gehirn kann mit Hilfe des Körpers entdecken, ausprobieren, abstrahieren, erinnern und damit vor allen Dingen: Lernen. Und genau das können Systeme mit künstlicher Intelligenz auch. Einem Schachcomputer wird nicht von einem Programmierer vorgegeben, wie er auf jeden Zug seines Gegenspielers reagieren soll, sondern er erlernt während des Spielens, wie bestimmte Züge aufeinander aufbauen und welche Wechselwirkungen sie haben. Das lernt der Computer am schnellsten, indem er nicht gegen einen Menschen, sondern gegen sich selber spielt. Bei geschätzten 2*1043 möglichen Stellungen auf dem Schachbrett wäre es schlicht unmöglich per Hand einem Computer alle möglichen Schachzüge beizubringen. Zum Vergleich: Es gibt schätzungsweise 5*1021 Sandkörner auf der Erde.
KI damals
Im weiten Sinne ist Künstliche Intelligenz eigentlich gar nichts neues, sondern existiert schon seit den 40er-Jahren. Der Entwickler des ersten Computers der Welt Konrad Zuse, hatte gleichzeitig auch das erste Schachprogramm geschrieben. Wenige Jahre später tat es ihm der britische Logiker und Informatiker Alan Turing gleich. Nur gab es zu dieser Zeit noch keine Rechner mit ausreichender Leistung, sodass Turing die Züge selbst von Hand berechnete. Jemand der Turings Programm versteht aber noch nie Schach gespielt hat, könnte hiermit einen ganz passablen Spieler abgeben. Heute würde die Rechenleistung jedes Smartphones ausreichen, um Schachweltmeister Magnus Carlsen zu besiegen.
Im Zweiten Weltkrieg entschlüsselte Alan Turing die Kommunikation der Nationalsozialisten, die sogenannten Enigma-Nachrichten und entwickelte die Turing-Bombe. Mit dieser Maschine konnten die Alliierten die Funksprüche der Deutschen entziffern. Nach ihm wurde der „Nobelpreis der Informatik“, der Turing Award und der Turing-Test, benannt.
Alan Mathison Turing als Nachbildung mit einen seiner ersten Computer (Alan Turing Ausstellung in Buckinghameshire)
Der Turing-Test gilt in der Popkultur als ultimative Probe für intelligente, humanoide Roboter, zum Beispiel in Filmen wie Ex Machina oder der Serie Westworld. Im Test muss ein menschlicher Prüfer durch Fragen herausfinden, wer von seinen zwei Gegenüber der Mensch und welcher die Maschine ist. Liegt der Prüfer falsch, gilt der Turing-Test als bestanden.
"A computer would deserve to be called intelligent if it could deceive a human into believing that it was human."
Alan Turing
Für viele gilt die Darthmouth Conference 1956 als Geburtsstunde der Künstlichen Intelligenz als eigener Teilbereich der Informatik. Warum hat das Thema sechzig Jahre gebraucht, um in aller Munde zu sein?
KI heute
„Big Data“, dort ist direkt das nächste Schlagwort. Das liegt an der Rechenleistung der aktuellen Systeme und insbesondere daran, dass es heute möglich ist, riesige Datenmengen zu speichern und zu verarbeiten.
Künstliche Intelligenz braucht Daten aus denen sie lernen kann und diese gibt es heute von überall. Wenn ein Hersteller mehrerer Fitness-Apps über Jahre hinweg die tägliche Bewegung, das Gewicht und das Schlafverhalten von Millionen von Nutzern sammelt, kann ein intelligentes System diese Daten verarbeiten und Empfehlungen daraus ableiten.
Künstliche Intelligenz ist der Oberbegriff für fast alles, was Maschinen lernen und sich selbst beibringen können. Wichtige Begriffe, die unter KI fallen sind „Machine Learning“, „Deep Learning“ und „Natural Language Processing“.
Machine Learning
Systeme, die entweder überwacht (supervised) oder nicht überwacht (unsupervised) lernen. Beim überwachten Lernen gibt der Mensch der Maschine sowohl eine Datenmenge als Input, als auch die Kategorien des Outputs vor.
Anschließend kann man stichprobenartig kontrollieren, ob die Maschine die einzelnen Daten den richtigen Kategorien zugeordnet hat. Beim nicht überwachten Lernen legt das System selbst die Output-Kategorien fest, indem sie die Daten anhand von gleichen Eigenschaften gruppiert. Beim Machine Learning werden Algorithmen zur Analyse von Daten genutzt. Und auf der Grundlage des erlangten Wissens, werden informierte Entscheidungen getroffen.
Deep Learning
Riesige Datenmengen werden von Algorithmen in vielen einzelnen Schichten strukturiert und Merkmale werden bestimmt. Das ganze System ist ein künstliches neuronales Netz, das selbstständig lernen und intelligente Entscheidungen treffen kann. Das kommt dem, was man eine menschenähnliche künstliche Intelligenz nennen könnte, momentan am Nächsten.
Warum neuronale Netze bestimmte Einordnungen treffen, ist deshalb gar nicht so einfach zu sagen. Es gibt ExpertInnen, die sich alleine mit der Vorgehensweise dieser neuronalen Netze in konkreten Fällen beschäftigen und die unterschiedlichen Schichten der Zuordnung zurückverfolgen. Eine wichtige Voraussetzung für das Deep Learning sind große Datenmengen und eine hohe Rechenleistung.
Natural Language Processing (NLP)
Wenn man schon einmal eines seiner Endgeräte mit „OK Google“, „Siri“ oder „Alexa“ angesprochen hat, wurde das System anschließend noch hellhöriger als zuvor. Die menschliche Sprache ist nicht gerade das, was man durch 0 und 1 leicht definieren könnte, sondern sie ist von Dialekten, Umgangssprache, Abkürzungen und Genuschel durchzogen. Nachdem das Gesprochene nun vom Smartphone aufgenommen wurde, wird es mit Hilfe von Algorithmen codiert und verarbeitet. Im Natural Language Processing wird auf Satzbau, die semantische Ebene der Information und den allgemeinen Kontext eines Satzes geachtet.
Sobald das Gesprochene digitalisiert ist, kann das System der Antwort auf die Frage „Wann starb Alan Turing?“ nachgehen.
Tönt dann durch den Lautsprecher „am 7. Juni 1954“, ist die Maschine den umgekehrten Weg gegangen; das nennt man wiederrum Natural Language Generation. NLP wird sowohl im Machine- als auch im Deep Learning angewandt.
Der Lehrstuhlinhaber der „Munich School for Robotics and Machine Intelligence“ an der TU München mag den Begriff der Künstlichen Intelligenz nicht. Prof. Dr. Sami Haddadin findet, dass mit diesem Begriff viele Menschen eher unrealistische Science-Fiction und Horrorfilmszenarien verbinden würden, die nichts mit der Realität zu tun haben. Er spricht von Maschinenintelligenz, die nicht autark, sondern ein Werkzeug des Menschen ist.