Symbolbild KI: Glaskopf mit Datennetz, im Hintergrund Flugroboter

Künstliche Intelligenz: Wo bleibt die Logik?

DFG fördert Forschung an der Hochschule Harz

Eine neue Künstliche Intelligenz, die Muster erkennt und logisch denkt – darum geht es in dem Projekt „Cognitive Reasoning“, gefördert von der Deutschen Forschungsgemeinschaft (DFG). Prof. Frieder Stolzenburg von der Hochschule Harz zielt dabei auf mehr Zuverlässigkeit und Transparenz zukünftiger KI-Systeme.

Es ist schon beeindruckend, wozu Künstliche Intelligenz inzwischen fähig ist. Erst im vergangenen Jahr erregte die Text-KI GPT-3 Aufsehen, weil sie einen ganzen Blog so überzeugend aufsetzte, dass dessen Beiträge im Netz vielfach geteilt wurden. Der unechte Blog gewann sogar echte Follower. Doch damit die Algorithmen im Auftrag des Menschen auch das zuverlässig machen, was wir wirklich brauchen, sind Forschung und Entwicklung nötig – wie im DFG-Projekt „Cognitive Reasoning“ (CoRg).

Wie funktioniert Künstliche Intelligenz?

Ein Problem ist: „Neuronale Netze funktionieren im Wesentlichen nur wie eine Black-Box. Erklärungen oder Begründungen, warum eine bestimmte Entscheidung getroffen wurde, fehlen“, erklärt Frieder Stolzenburg, Professor für Wissensbasierte Systeme an der Hochschule Harz. Entscheidet sich der Algorithmus einer KI falsch, wird er in der Regel mit noch mehr Beispielen trainiert. Das ist angesichts der immer besser werdenden Computerhardware kein Problem. Prof. Frieder Stolzenburg geht mit seinem Team und der Uni Koblenz als Kooperationspartner aber noch einen anderen Weg: Sie kombinieren Methoden des Deep Learning – also spezielle Methoden zur Verarbeitung großer Datensätze – mit dem Instrument der Logik.

„Damit zielen wir auf die Modellierung der menschlichen Fähigkeit ab, trotz unvollständigem und inkonsistentem Wissen sinnvolle Schlussfolgerungen zu ziehen“, so Prof. Frieder Stolzenburg. Für ihre Forschung konzentrieren sich die Wissenschaftler:innen zunächst auf eine textbasierte KI, wie man sie von Chatbots kennt. Ist diese Grundlagenforschung erfolgreich, dann lassen sich die Ergebnisse auch in anderen Verfahren wie der Bilderkennung anwenden.

Angewandte KI Forschung an der Hochschule Harz: Flugrobotik und Mobile Robotik

Der Schatten auf dem Gras

Wie die KI zuverlässiger und transparenter werden soll, erklärt sich am besten an einem Beispiel. Als Prämisse erhält das KI-Programm etwa den Satz „Mein Körper wirft einen Schatten auf das Gras“. Jetzt soll es aus zwei weiteren Aussagen diejenige auswählen, die zur Prämisse passt: „Die Sonne ging auf.“ oder „Das Gras wurde geschnitten.“ Derzeit eingesetzte KI-Systeme fangen dann an, ihre gesamtes Hintergrundwissen nach Informationen zu Wörtern wie „Schatten“, „Gras“ oder „Sonne“ zu durchsuchen.

KI mit automatischem Schlussfolgerungssystem

„Wir wollen, dass die KI gar nicht erst in die falsche Richtung schließt“, erklärt Sophie Siebert, wissenschaftliche Mitarbeiterin im Projekt CoRg: „Dem System soll es wie einem Menschen sinnvoll erscheinen, dass ein Schatten etwas mit der Sonne und nicht mit dem Gras zu tun hat“, erklärt die Doktorandin: „Derzeitige Systeme basieren nämlich vordergründig auf Ähnlichkeitsmaßen und würden die zweite Aussage wählen.“ Damit das KI-System ihres Forschungsprojekts eine logische Argumentationskette von Schatten auf Licht zu Sonne bilden kann, baut es auf Hintergrundwissen und ein automatisches Schlussfolgerungssystem auf.

Logik-Community trifft KI-Community

Dafür sorgt der sogenannte Theorembeweiser – ein Instrument aus dem Bereich der Logik, der die Antwortsuche fokussiert. „Zwar werden logische Instrumente schon für Künstliche Intelligenz genutzt, aber nicht in direkter Kombination mit Deep-Learning-Verfahren“, erklärt Sophie Siebert. Gemeinsam mit einem Master-Studierenden hat sie den KI-Ansatz des Projekts CoRg inzwischen anhand von tausenden Textbeispielen getestet.

Auf dem Weg zur Explainable AI

Die Genauigkeit ist vielversprechend, erste Ergebnisse sind publiziert. Sophie Siebert: „Das Ziel unseres Projektes ist, Entscheidungen des Systems nachzuvollziehen – sowohl beim Theorembeweiser als auch beim neuronalen Netz.“ Wie transparent Künstliche Intelligenz im Sinne von begründeten Entscheidungen arbeitet, dürfte zukünftig über ihre Akzeptanz in Politik und Gesellschaft mitentscheiden. Die Notwendigkeit einer „Explainable AI“ ist fester Bestandteil der KI-Forschung geworden, zu der die Wernigeröder und Koblenzer Wissenschaftler:innen ihren Teil beitragen.

Die Ergebnisse des DFG-Projekts CoRg sind publiziert und hier nachzulesen: http://corg.hs-harz.de/

Sophie Siebert promoviert an der Hochschule Harz in einem kooperativen Promotionsverfahren mit der Otto-von-Guericke-Universität Magdeburg (Prof. Till Mosskowski) zum Thema: „Commonsense Reasoning with Neural Networks and Logic – An Explainable AI Approach“

Informationen zu den Studiengängen der Hochschule Harz zum Thema KI gibt es auf der Seite des Fachbereichs Automatisierung und Informatik.

31.03.2021
Autor/Autorin: Claudia Aldinger
Fotograf/Fotografin: © Robin Ritter
Bildrechte: © Hochschule Harz

Themen:

Teilen:

Prof. Dr. Frieder Stolzenburg

Rektorat
Tel +49 3943 659 333
Raum 6.008a, Haus 6, Wernigerode
Sprechzeiten Online-Sprechstunde nach vorheriger Vereinbarung per E-Mail