Home

Ein paar Gedanken zu KI

Künstliche Intelligenz ist ein interdisziplinäres Forschungsgebiet, die Triebkraft für milliardenschwere Investitionen weltweit und ein Baustein der voranschreitenden Automatisierung. Für manche ist sie vor allem ein mathematisches Optimierungsverfahren, für andere ein ökonomisches Instrument zur Schaffung von Wettbewerbsvorteilen. Manche schreiben KI das revolutionäre Potenzial zu, tradierte Branchen umzustürzen, andere finden in ihr den Traum, die menschlichen Grenzen von Körper und Geist zu überwinden. Bei künstlicher Intelligenz treffen Wohlstandsversprechen und Existenzängste aufeinander und laden die Technologie emotional auf.

Künstliche Intelligenz ist ein Sammelbegriff, der Systeme bezeichnet, die intelligentes Verhalten zeigen. Maschinelles Lernen ist ein Teilbereich von KI, bei dem Modelle mit Daten trainiert werden. Hierzu zählen auch Sprachmodelle (LLMs) wie ChatGPT. LLMs verwenden Deep Learning, eine besondere Form neuronaler Netze.

Künstliche Intelligenz wird seit vielen Jahren in verschiedensten Bereichen erfolgreich eingesetzt: Autonome Fahrzeuge navigieren mithilfe von KI durch den Straßenverkehr. Ärztinnen und Ärzte nutzen KI für die Bewertung von medizinischen Bildern. Online-Händler setzen KI ein, um Betrugsfälle aufzudecken. Im Vordergrund steht hierbei ein klassisches Verständnis von maschinellem Lernen für Klassifikations- und Regressionsprobleme: Ist eine Transaktion betrügerisch? Ist auf dem Bild eine Ampel zu sehen? Welchen Wert hat diese Immobilie?

Die Landwirtschaft veränderte die Lebensführung der Menschheit in Jahrtausenden, die industrielle Revolution in Jahrhunderten. Die digitale Revolution erleben wir in Jahrzehnten. Der 30. November 2022 markiert ein besonderes Datum: Nach seiner Veröffentlichung erreichte der Chatbot ChatGPT innerhalb von 2 Monaten über 100 Millionen User und verbreitete sich damit schneller auf der Welt als jede andere Technologie des Menschen bisher. Das Suchvolumen zu den Themen ChatGPT und KI explodierte innerhalb kürzester Zeit (vgl. Google Trends ). Mittlerweile existieren viele Anbieter von Chatbots, mit denen Sie über Text- oder Audionachrichten interagieren können. Diese KI-Systeme können Gespräche führen, Texte übersetzen und zusammenfassen, Software schreiben und verbessern, Bilder und Videos anhand von Beschreibungen erstellen und vieles mehr.

Mediale Darstellungen

Mediale Darstellungen personifizieren KI häufig als autonome und denkende Systeme und porträtieren die Auseinandersetzung mit der Menschlichkeit der Maschine in Filmen wie Ex Machina oder dem Star-Trek-Universum. Diese Darstellungen verschieben die Wahrnehmung von dem, was KI ist und leisten kann.Nader, Karim et al. (2024): Public understanding of artificial intelligence through entertainment media. AI & Society 39, 713–726. Und auch in journalistischen Beiträgen werden Systeme oft vermenschlicht und verstärken Stereotype. Zudem ist die Darstellung oft wenig sinnvoll, wenn beispielsweise ein Roboter einen Taschenrechner oder eine Tastatur eines Laptops bedient.

Eine Perspektive unterscheidet zwischen schwacher (weak, narrow) und starker (strong) KI:Searle, John R. (1980). Minds, Brains, and Programs. In: Behavioral and Brain Sciences 3 (3), S. 417–424. Während starke KI Computern das Denken in einem menschlichen Sinne zuschreibt und eher der Science-Fiction-Literatur zuzuordnen ist, bezeichnet schwache KI das Fundament für den Einsatz von KI in der Praxis, das heißt Systeme, die konkrete Probleme lösen können.

Schlagzeilen beginnen oft mit Sätzen wie KI entdeckt neues Medikament oder KI schlägt Ermittlungsteam beim Aufdecken von Online-Betrug. Eine hilfreiche Übung ist hier, den Begriff KI durch Benennung eines konkreten Verfahrens zu ersetzen und damit seiner scheinbaren Autonomie zu entheben. Beispielsweise: Forscherinnen und Forscher verwenden Random Forests (eine Vielzahl von Entscheidungsbäumen), um mit Transaktionsdaten von Kreditkarten auffälliges Nutzungsverhalten zu erkennen. KI-Systeme werden entwickelt, um spezifische Aufgaben zu lösen. Sie sind wie andere Erfindungen vom Menschen entwickelte und verantwortete Werkzeuge.

Der Begriff der künstlichen Intelligenz wurde 1956 von John McCarthy auf der ersten akademischen Konferenz dieses neuen Feldes eingeführt. Die Frage, ob Computern über die logische Verarbeitung hinaus das Denken beigebracht werden kann, reicht weiter zurück und ist nicht nur eine technische, sondern vor allem eine philosophische. Sind die Akteure intelligent, wenn sich ihre Handlungen nicht von denen von Menschen unterscheiden lassen? Um diese Frage drehen sich unter anderem der Turing-TestTuring, Alan (1950). Computing Machinery and Intelligence. In: Mind LIX (236), S. 433–460. und ein Gedankenexperiment von John Searle, das chinesische Zimmer.Searle, John R. (1980). Minds, Brains, and Programs. In: Behavioral and Brain Sciences 3 (3), S. 417–424.

Der Begriff der künstlichen Intelligenz ist in doppelter Hinsicht kompliziert, da bereits das Wort Intelligenz an sich Fragen aufwirft. Zur Vorstellung von menschlicher Intelligenz existieren viele Definitionen: von der Fähigkeit, richtige Urteile zu bilden und aus Erfahrungen zu lernen bis zu Modellen, die Intelligenz als Verbund verschiedener Komponenten wie Wissen und Verständnis definieren. Der Informatiker und Gesellschaftskritiker Joseph Weizenbaum hebt hervor, dass die Vorstellung in die Irre führe, man könne Intelligenz auf einer linearen Skala wie mit dem IQ abbilden. Zumindest solle Intelligenz nicht absolut, sondern innerhalb eines Bezugsrahmens betrachtet werden.Weizenbaum, Joseph (1987). Die Macht der Computer und die Ohnmacht der Vernunft. 2. Auflage. Suhrkamp. Philosophische Fragen über die Grenzen der Berechenbarkeit und des Denkens diskutiert Douglas Hofstadter in seinem Buch Gödel, Escher, Bach.Hofstadter, Douglas (1999). Gödel, Escher, Bach: an eternal golden braid. 20. Auflage. Basic Books.

Intelligente Systeme

Intelligentes Verhalten lässt sich teilweise schon leicht erzielen: Beim Spiel Tic-Tac-Toe lässt sich ein unschlagbarer KI-Gegner durch die Implementierung eines rekursiven Minimax-Algorithmus bereits mit wenigen Zeilen Code umsetzen. Die Einfachheit der Lösung beruht auf der Einfachheit des Problems: Tic-Tac-Toe besteht aus 9 Feldern, sodass höchstens 9! (362.880) Spielverläufe möglich sind. Viele Verläufe, die nicht unentschieden ergeben, enden schon nach wenigen Zügen. So ist die tatsächliche maximale Anzahl — ohne Berücksichtigung von Symmetrien — nur etwa eine Viertelmillion (255.168). Da viele Verläufe zu identischen Zwischenständen führen, ist die Abfrage sogar noch einfacher. Für einen Computer ist es keine Herausforderung, diese Spiele alle zu simulieren und zu entscheiden, welcher nächster Spielzug am geeignetsten ist.

Interessant ist, dass manche Probleme für Computer vergleichsweise leicht und für Menschen schwierig sind; dazu gehören auf klaren Regeln basierende Spiele wie Schach. Hingegen ist für Menschen eine der natürlichsten Aufgaben, Gegenstände wahrzunehmen, zu greifen und zu bewegen. Diese Koordinationsaufgabe ist mit KI-Systemen schwieriger zu bewältigen. Insofern ist aus menschlicher Perspektive für Maschinen manchmal leicht, was schwer wirkt, und schwer, was leicht wirkt.

Der intellektuelle Wettbewerb zwischen Mensch und Maschine wurde lange Zeit mit komplexeren Brettspielen ausgetragen. Im Gegensatz zu Tic-Tac-Toe ist es bei Schach nicht möglich, dass ein Computer alle Spielverläufe prüft. Der Mathematiker Claude Shannon schätzte die Zahl der theoretischen Spielverläufe von Schach auf 10120. Im Vergleich: Im beobachtbaren Universum existieren etwa 1080 Atome. Selbst wenn jedes Atom des Universums seit dem Urknall eine Milliarde Schachspiele pro Sekunde spielen könnte, würden immer noch nicht alle Schachspiele gespielt worden sein.

Nichtsdestotrotz erzielten KI-Systeme nach und nach große Erfolge bei schwierigen Brettspielen: 1992 bei Backgammon, 1997 bei Schach und 2017 beim chinesischen Spiel Go. Die nächste Hürde stellten Echtzeitstrategiespiele am Computer dar, bei denen neben Geschwindigkeit besonders strategisches Denken und die Zusammenarbeit in der Gruppe von Bedeutung sind. Auch hier gewannen zuletzt KI-Systeme gegen die Weltranglistenbesten.

Interessanterweise ist die Komplexität eines Schachspiels gering im Vergleich zu anderen typischen Problemen des maschinellen Lernens. Probleme wie die Erkennung von Gegenständen auf Bildern oder die Bewertung, ob eine E-Mail Spam enthält oder legitim ist, können nicht dadurch gelöst werden, dass alle Varianten ausprobiert und bewertet werden. Die Anzahl der möglichen Kombinationen von Pixeln in einem Bild oder von Wörtern in einer E-Mail übersteigen die Anzahl der möglichen Schachspiele bei weitem. Diese Probleme erfordern, die entscheidungsrelevanten Informationen durch einen Lernvorgang in ein mathematisches Modell zu überführen. Beim maschinellen Lernen nennt man den mathematischen Raum, der die Möglichkeiten aller Eingaben umspannt, den Merkmalsraum (Feature Space). Probleme mit großem Merkmalsraum erfordern intelligente Verfahren, die eine interne Repräsentation des Problems erlernen und auf Eingaben entsprechend sinnvoll reagieren können.

Maschinelles Lernen

Traditionelle Algorithmen verarbeiten einen Input zu einem Output. Beim maschinellem Lernen wird ein Modell mithilfe von Input und Output trainiert, die zukünftigen Inputs den richtigen Outputs zuzuordnen. Eine exemplarische Definition für maschinelles Lernen lautet wie folgt: Ein Computerprogramm lernt, wenn seine Leistung in Bezug auf eine Metrik mit zunehmender Verarbeitung der zur Verfügung gestellten Trainingsdaten zunimmt.Mitchell, Tom (1997). Machine Learning. McGraw-Hill. Insofern ist maschinelles Lernen die häufig schrittweise durchgeführte Optimierung eines mathematischen Modells. Maschinelles Lernen teilt besonders mit Statistik diverse Methoden. Eine klare Abgrenzung ist schwierig, aber manche Autoren ordnen der Statistik eher Hypothesentests zu und maschinellem Lernen die Idee der Suche nach der besten Lösung im Raum der möglichen Modellkonfigurationen.Witten, Ian H. et al. (2011). Data Mining: Practical Machine Learning Tools and Techniques. 3. Auflage. Morgan Kaufmann.

Alle Anwendungen zum maschinellen Lernen bestehen aus drei Komponenten: dem Modell, welches das Wissen repräsentiert, einer Zielfunktion, welche die Güte des Modells evaluiert, und einer Lernfunktion, welche die Modellparameter im Hinblick auf die Zielfunktion optimiert. Jede Repräsentation hat Parameter, sei es eine Regression mit einer linearen Gleichung, ein Entscheidungsbaum mit Verzweigungen oder ein neuronales Netz mit den dazugehörigen Gewichten. Die Anzahl Parameter kann von einer Handvoll bis zu vielen Milliarden reichen. Diese Stellschrauben werden im Rahmen des Lernens systematisch angepasst. Dafür existieren verschiedene Strategien. Neuronale Netze nutzen oft den Gradientenabstieg, eine Navigation durch die von der Fehlerfunktion aufgespannte hochdimensionale Landschaft zur Talsohle.

Der Autor und Physiker Arthur C. Clarke sagte: »Any sufficiently advanced technology is indistinguishable from magic.« Vor diesem Hintergrund ist von besonderer Bedeutung, die Funktionsweise moderner Systeme wie LLM-Agenten zu verstehen, um mit ihnen reflektiert und kritisch umgehen zu können.

Modelle als Vereinfachungen der Realität

Alle KI-Verfahren haben als Modelle gemein, dass sie sowohl Abbildungen als auch Verkürzungen der Realität sind. Ein Aphorismus, der auf den Statistiker George Box zurückgeht, lautet: »All models are wrong, but some are useful.«

Ein Beispiel aus der Statistik soll die verkürzende Eigenschaft von Modellen verdeutlichen: Die Läuferinnen und Läufer im olympischen 100-Meter-Sprint haben ihre Zeiten seit Beginn der Messung im Jahr 1900 bis 2004 alle vier Jahre um einen konstanten Wert verbessert. Sie lassen sich mit einer linearen Regression mit negativer Steigung modellieren.Tatem, Andrew J. et al. (2004). Momentous sprint at the 2156 Olympics? Nature 431, S. 525. Entsprechend sagt das Modell voraus, dass die Läuferinnen und Läufer in vielen Jahren irgendwann so schnell geworden sind, dass sie am Ziel ankommen, bevor sie losgerannt sind. Das Modell ist also nur zur Interpolation innerhalb des gemessenen Zeitraums gültig, nicht zur Extrapolation in die Zukunft.

Neuronale Netze sind zwar dem menschlichen Gehirn nachempfunden, aber sie sind mathematische Modelle. Ein neuronales Netz verhält sich zum Gehirn wie ein Flugzeug zum Vogel. Die hohe Komplexität von neuronalen Netzen erschwert, Ergebnisse der Modelle zu verstehen. Umso wichtiger ist der bewusste Umgang mit ihnen.

Chatbots, das heißt Sprachmodelle, werden mithilfe von komplexen neuronalen Netzen trainiert, Sätze zu vervollständigen. Manchmal sagt man, dass KI-Modelle halluzinieren, wenn sie falsche Antworten geben oder Antworten erfinden. Wenn Sie KI nach Literatur zu einem Thema fragen, kann es vorkommen, dass Ihnen eine Liste mit plausibel klingenden Büchern empfohlen wird, die gar nicht existieren. Der Vorstellung der Halluzination geht die Annahme voraus, dass das Modell entweder die Wahrheit kennt oder eine Antwort erfindet. Sprachmodelle sind Satzvervollständigungsmodelle und liefern Antworten auf Basis statistischer Verteilungen. Damit hängt vor allem von den Trainingsdaten ab, inwieweit korrekte Antworten reproduziert bzw. generiert werden. Im Allgemeinen herrscht Unklarheit darüber, ob generative KI mehr als die Summe seiner Teile ist (vgl. AI’s Emergent Abilities und Sparks of Artificial General Intelligence). Interessant ist in diesem Zusammenhang auch die Entwicklung von KI-Agenten, bei denen Sprachmodelle mit externen Systemen interagieren können, um komplexe Handlungsabläufe umzusetzen.

Komplexität, Erklärbarkeit und Ethik

Moderne KI-Systeme werden immer komplexer und schwieriger zu verstehen. Während sich die Entscheidungen regelbasierter Expertensysteme eindeutig nachvollziehen lassen, erschweren Verfahren wie das Deep Learning, die Entscheidungsprozesse zu verstehen. Herausforderungen liegen in verschiedensten Bereichen, die beim Einsatz von KI-Systemen zusammenkommen: Welche ethischen Fragen sollten diskutiert werden? Wie müssen Gesetze im Umgang mit eigenständig handelnden Systemen formuliert werden? Was bedeutet Eigenständigkeit überhaupt? Welche technischen Anforderungen an die Sicherheit solcher Systeme müssen erfüllt werden?

Werden die beim autonomen Fahren im Vergleich zu durch menschliche Fahrer verursachten niedrigeren Unfallzahlen positiv oder als Indiz für die mangelnde Reife dieser Systeme wahrgenommen?Russell, Stuart et al. (2015). Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine 36 (4), S. 105–114. Selbst wenn selbstfahrende Autos die Unfallraten senken können, stellt sich die Frage, wer die Verantwortung für die von den Fahrzeugen verursachten Unfälle trägt. Welche Rolle spielen Entwickler, Hersteller, Betreiber und die Gesellschaft? Aus welcher Perspektive werden die Ereignisse bewertet?

Auch konkrete, technische Anforderungen werden den Autoren zufolge an Bedeutung gewinnen: Je mehr Aufgaben KI-Systeme übernehmen und je wichtiger diese Aufgaben sind, desto größer müssen die Anstrengungen sein, diese Systeme sicher und verlässlich zu gestalten. Das bedeutet einerseits, dass sie gegen Angriffe bzw. vor Missbrauch geschützt sein müssen, und andererseits, dass die Systeme richtig funktionieren und das Richtige tun. Da aber maschinelles Lernen statistische Unsicherheit beinhaltet, sind auch bei Systemen, die richtig funktionieren, Fehler nicht ausgeschlossen. Ein sich entwickelnder Forschungszweig ist Explainable AI mit dem Ziel, die Entscheidungen von KI-Algorithmen besser verstehen zu können.

KI als Grundkompetenz

Die wachsende Omnipräsenz künstlicher Intelligenz im alltäglichen Leben erfordert einen gemeinsamen Diskurs über die Wechselwirkung von KI mit Gesellschaft, Wirtschaft und Umwelt. Der Begriff KI umfasst mittlerweile zu viel, als dass er aussagekräftig verwendet werden könnte. »Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.« schrieb Ludwig Wittgenstein. Eine einheitliche Begriffsdefinition ist dafür nicht nötig. Vielmehr sollte der diffuse KI-Begriff zerlegt und durch konkrete Methoden ersetzt werden.

KI durchdringt die Gesellschaft und entwickelt sich zu einer der wichtigsten Technologien des 21. Jahrhunderts. Eine Herausforderung wird daher sein, ein gemeinsames Verständnis der zugrundeliegenden Technologien zu bilden, um darüber diskutieren, ein reflektiertes Urteil bilden und gesellschaftlich sinnvolle Entscheidungen treffen zu können.