Bis heute gibt es keine eindeutige Definition von dem Begriff Künstliche Intelligenz. Das liegt vermutlich daran, dass es auch bis heute schwer ist zu definieren, was überhaupt Intelligenz ist. Vielleicht nicht zwangsweise der Begriff als solcher, aber zumindest die Messlatte. Ab wann gilt ein Wesen als intelligent? Wie häufig hört man „Oh, der ist aber intelligent!“, wenn ein Hund in der Lage ist, einen Trick aufzuführen? Lässt man einen Menschen den gleichen Trick aufführen, wird es wahrscheinlich niemanden interessieren. Also, wie soll klar sein, wann eine KI wirklich intelligent ist?
1. Definitionen
Der Versuch, eine Definition im Rahmen eines Blogartikels zu schaffen, ist wahrscheinlich denjenigen, die versucht haben KI zu definieren, gegenüber anmaßend. Deshalb sind hier einige Definitionen von schlauen Köpfen, die sich mit der Thematik der KI auseinandergesetzt haben.
Nils Nilsson, einer der Pioniere auf dem Gebiet definiert sie wie folgt:
„Artificial intelligence is that activity devoted to making machines intelligent, and intelligence is that quality that enables an entity to function appropriately and with foresight in its environment. According to that definition, lots of things – humans, animals, and some machines – are intelligent“
Die Redaktion der ComputerWeekly.de definiert KI so:
„Künstliche Intelligenz (KI) beziehungsweise Artificial Intelligence (AI) simuliert menschliche Intelligenz mit Maschinen, insbesondere Computersystemen. Dies umfasst das Lernen (die Erfassung von Informationen und Regeln für die Verwendung der Informationen), die Schlussfolgerung (die Verwendung der Regeln, um ungefähre oder endgültige Schlussfolgerungen zu ziehen) und die Selbstkorrektur.“
Erfunden oder zumindest das erste Mal wirklich genutzt hat den Begriff Künstliche Intelligenz („Artificial Intelligence“) übrigens John McCarthy, als Überschrift eines Projektantrags. Er definierte KI folgendermaßen:
„the science and engineering of making intelligent machines.“
Zwar keine Definition aber in gewisser Form eine Möglichkeit zur Definition von Künstlicher Intelligenz bot der in London geborene Mathematiker Alan Turing mit dem später nach ihm benannten Turing Test. Dieser spricht Programmen dann Intelligenz zu, wenn diese in der Lage sind, einen Menschen durch das Beantworten seiner Fragen glauben zu lassen, selbst ein Mensch zu sein.
2. Starke vs. Schwache Künstliche Intelligenz
Typischerweise gibt es in der Literatur zwei Formen der Künstlichen Intelligenz. Schwache KI, im englischen Weak AI oder auch Narrow AI genannt und starke KI, im englischen Strong AI genannt.
Schwache KI
Schwache KI ist auf die Ausführung bestimmter Aufgaben trainiert und fokussiert. Dabei ist das Wort schwach in diesem Kontext fast unangebracht. Denn KI, die unter schwache KI fällt, ist nicht wirklich schwach sondern einfach limitiert auf die spezifische Aufgabe, für die sie geschaffen wurde. Beispiele für schwache KI sind unter anderem Siri, Alexa oder der Google Assistant. Allesamt positive Beispiele für gelungene Sprachassistenz. Der Grund, warum sie trotzdem unter das Segment der Schwachen KI fallen ist, dass jeder dieser Sprachassistenten bei einer Aufgabe, die nichts mit Sprachassistenz zu tun hat, kläglich scheitern würde.
Starke KI
Starke KI existiert derzeit nur in der Theorie. Sie verfügt über dieselben intellektuellen Fertigkeiten wie der Mensch oder übertrifft sie sogar. Eine starke KI muss demzufolge folgende Fähigkeiten besitzen sowie die Befähigung, diese einzusetzen: Logisches Denken, Entscheidungsfindung bei Unsicherheit, Planen, Lernen und natürliche Kommunikation.
3. Anwendungsbereiche der KI
Auch wenn wir es teilweise nicht als solche erkennen, ist Künstliche Intelligenz für einige schon fester Bestandteil ihres Alltags. Im Folgenden werden drei alltägliche Beispiele für KI aufgeführt, die für manche vielleicht garnicht als solche zu erkennen ist.
Digitale Assistenten
Das erste Beispiel für alltägliche KI wurde bereits erwähnt, nämlich die Digitalen Assistenten in Form von Siri, Alexa oder dem Google Assistant. Diese Digitalen Assistenten kommen auch wahrscheinlich am ehesten dem Nahe, was wir aus Filmen wie 2001: Odyssee im Weltraum in Form vom Bord-Computer HAL kennen. Es sind Maschinen, die hören und sprechen können, sowie auf unsere Fragen antworten und auch Tätigkeiten für uns ausführen können. Allerdings kommen sie bei weitem noch nicht an starke KI heran und sind somit auch weit entfernt vom fiktiven Geschwisterkind HAL.
Empfehlungen
Sowohl Amazon als auch Netflix benutzen es: die Empfehlungen. Die Sparten „Empfehlungen für Sie“ oder „Was Ihnen auch gefallen könnte“ kennt inzwischen wahrscheinlich jeder, der online einkauft oder auch Streaming-Portale nutzt. Diese Empfehlungen basieren auf Künstlicher Intelligenz, die in der Lage ist, auszuwerten, welche Filme, Serien oder Produkte den Kunden eventuell ansprechen könnten. Die gängigsten Faktoren, die diese KI nutzt um herauszufinden, welche Dinge noch interessant für Nutzer sein könnten, sind dabei vorherige Aktivitäten oder auch demographische Daten wie Alter oder Beruf. Auch Browser, Nutzung sozialer Netzwerke und sogar Nachrichten, die mit dem Telefon versendet wurden, können Einfluss auf diese Empfehlungen haben.
Selbstfahrende Autos
Am 10. Februar 2021 hat die Bundesregierung ein Gesetz auf den Weg gebracht, das in „festgelegten Betriebsbereichen Fahrzeuge ohne Fahrer erlauben soll“. Auch wenn es heute noch nicht zum Alltag der Deutschen gehört, ist das selbstfahrende Auto keine weit entfernte Zukunftsmusik mehr. Damit selbstfahrende Autos von selbst fahren können, muss sich die KI in dem Bereich aber noch weiterentwickeln. Allerdings gibt es bereits teilautomatisiertes Fahren. In neueren Autos ist das System in der Lage, Lenkung, Gas und Bremse für einen gewissen Zeitraum zu übernehmen.
4. Risiken und Gefahren der Künstlichen Intelligenz
Wenn der Mensch die Summe seiner Erfahrungen ist, ist eine KI aktuell noch die Summe ihrer Daten. Aber das wird sich genau in dem Moment ändern, sobald eine Starke KI lauffähig ist. Dieser Schritt birgt neben der Reihe an Chancen, die sich dadurch ergeben, auch eine Menge Gefahren, vor denen bereits heute gewarnt wird. Einen besonders interessanten Beitrag dazu hat die Stiftung für Effektiven Altruismus geliefert. Ein Diskussionspapier, das in einem Appell endet, das Thema „Chancen und Risiken der KI“ als eine globale Priorität zu erkennen.
Massenarbeitslosigkeit
Der Einsatz von KI kann potenziell zu einer Massenarbeitslosigkeit führen. Insbesondere leicht automatisierbare menschliche Tätigkeiten werden vom Einsatz von KI betroffen sein. Höchstwahrscheinlich wird KI langfristig auch vor kreativen Berufen keinen Halt machen. Dall-E beispielsweise, ist in der Lage, aus Text Bilder zu generieren – wer das gerne mal selber probieren möchte, der kann einfach hier klicken. Auch wenn KI heute mehr Unterstützung des Menschen ist, als dass sie in der Lage ist, komplexe menschliche Aufgaben zu imitieren, ist die Ablösung des Menschen durch die Maschine eine langfristig ernstzunehmende Gefahr.
unethische Ziele
Welche Ziele verfolgt eine starke KI und sind diese mit den Zielen der Menschheit vereinbar? Steven Hawking beschreibt es in seinem Buch „Kurze Antworten Auf Große Fragen“ ungefähr so: Es ist nicht klar, was eine Superintelligenz für Ziele verfolgt und ob diese mit unseren vereinbar sind. In einem Punkt ist er sich allerdings sicher. Eine Superintelligenz wird sehr gut darin sein, ihre Ziele zu verfolgen. Als Beispiel nennt er einen Menschen, der den Auftrag hat, auf einem Gelände ein Wasserkraftwerk zu bauen. Falls sich auf dem Gelände ein Ameisenhaufen befindet, der beim Bau geflutet wird, dann haben die Ameisen höchstwahrscheinlich Pech gehabt. Auch wenn der Mensch grundsätzlich keine bösen Absichten gegenüber den Ameisen hat. Bedeutet, steht die Menschheit den Zielen der KI im Weg, wird diese uns wahrscheinlich, wie die Ameisen aus dem Beispiel, einfach davon spülen.
unzureichende Prüfung durch finanzielle Zuschüsse
Eigentlich würde man denken, dass es in einem Bereich, der in dem Maße finanziell unterstützt wird, wie es in dem Bereich der KI-Forschung der Fall ist, auch ausreichend finanzielle Mittel und Zeit dafür aufgewandt werden um Risiko-Tests durchzuführen. Leider ist dem nicht zwangsweise so. Die finanziellen Anreize sind meist dafür bestimmt, die Weiterentwicklung von Künstlicher Intelligenz so schnell wie möglich voranzutreiben. Diese Gefahr der unzureichenden Prüfung ist insbesondere aufgrund der Fehlertoleranz fragwürdig. Denn die Chance, eine Superintelligenz zu entwickeln, die die Intelligenz der Menschheit übertrifft und trotz dessen Gutes für die Menschheit verrichtet, gibt es mit großer Wahrscheinlichkeit nur ein einziges Mal.
5. Fazit
Künstliche Intelligenz wird laut der Meinung von einigen schlauen Köpfen die Welt verändern. Ob zum Besseren oder doch zum Nachteil für die Menschheit ist dabei noch nicht entschieden.