In dem Konzept der Agenten fliessen alle Teilaspekte der künstlichen Intelligenz zusammen. Ein Agent ist letztendlich das Zielobjekt, in dem alle Forschungsbereich der KI zusammenlaufen und zu einem integrierten, in seine Umgebung eingebetteten und mit ihr kommunizierenden System beitragen. ("Artificial Intelligence" von S. Russell und P. Norvig)
Agentenmodelle
Das Konzept eines Agenten
Da es keine eindeutige Definition oder Charakterisierung des Begriffes "Agent" gibt, nutzen wir die Nachfolgende, die zumindest wesentliche Aspekte auf den Punkt bringt:
Ein Agent ist ein Computer-System in einer Umgebung, das in der Lage ist, in dieser Umgebung autonom zu agieren, um seine Ziele zu realisieren.
Diese Definition hebt drei zentrale Aspekte eines Agenten hervor.
Ein Agent ist ein System, dass kontinuierlich mit seiner Umgebung interagiert. Er besitzt in der Regel nur eingeschränkte Kontrolle über seine Umgebung, die er durch Aktionen beeinflussen kann.
Zielgerichtetes Handeln
Ein Agent hat eine Aufgabe zu erfüllen und verfolgt mit seinen Handlungen Ziele, die ihm von einem anderen Agenten vorgegeben werden oder die er selbst generiert.
Autonomie
Ein Agent trifft Entscheidungen und kann so sein Verhalten ohne Einflüsse von aßen kontrollieren.
Die Umgebung eines Agenten
Die Umgebungen eines Agenten können ganz unterschiedlich beschaffen sein. Russel und Norvig (Buchverweis) haben die Einteilung von Umgebungen nach folgenden Kriterien vorgeschlagen:
Zugänglich vs. unzugänglich
In einer zugänglichen Umgebung kann der Agent jederzeit vollständige und korrekte Informationen über den aktuellen Zustand der Umgebung erhalten.
Deterministisch vs. nicht-deterministisch
In einer deterministischen Umgebung hat jede Aktion einen wohldefinierten, garantierten Effekt - es gibt also keine Unsicherheit über den Zustand der Umgebung nach einer Aktion
Statisch vs. dynamisch
In einer statischen Umgebung kann nur der Agent selbst diese verändern. Ein dynamische Umgebung verändert sich durch Zutun anderer Agenten oder Personen.
Diskret vs. kontinuierlich
Diskrete Umgebungen besitzen endlich viele und deutlich abgrenzbare Zustände, wie z.B. beim Schach. Ein Beispiel für kontinuierliche Umgebung findet man beim Fußballspiel.
Episodisch vs. nicht-episodisch
Eine episodische Umgebung lässt sich in diskrete Episoden unterteilen, in denen der Agent jeweils seine Aufgaben erfüllt, ohne dass Verbindungen zwischen den einzelnen Episoden bestehen.
Der Agent trifft seine Entscheidungen allein auf Grundlage der Vorgänge der aktuellen Episode, ohne darüber hinaus Vergangenheit und Zukunft berücksichtigen zu müssen.
Episodische Umgebungen sind z.B. solche, in denen tägliche Routineaufgaben wie Postverteilung erledigt werden müssen.
Intelligente Agenten
Ein intelligenter Agent sollte die folgenden Eigenschaften besitzen:
Reaktion der Agenten auf Veränderung der Umgebung
Proaktivität
Initiative der Agenten um ein Ziel zu erreichen
Soziale Kompetenz
Verhandlung und Kommunikation mit andere Agenten
Reaktive Agenten und ihre Schichtenarchitektur
Die Probleme logischer Wissensrepräsentation insbesondere in Bezug auf die Komplexität der Verarbeitung führte dazu, den symbolischen Ansätzen für Agenten nicht-symbolische Vorgehensweisen entgegenzusetzen.
Reaktive Agenten basieren auf den Annahmen, dass symbolische Repräsentation von Wissen und deren Nutzung für die Entscheidungsfindung unnötig und eher kontraproduktiv ist. Weiterhin wird angenommen, dass intelligentes Verhalten erst durch die Interaktion mit der Umgebung (emergente Intelligenz) entsteht.
Agenten dieser Art sind demnach verhaltensorientiert und situiert (in die Umgebung eingebettet). Er handelt nicht aufgrund eines Denk- und Schlussfolgerungsprozesses - er reagiert auf seine Umgebung.
if Wahrnehmung der Situation then do Aktion
Logikbasierte Agenten
Der innere Zustand eines logikbasierten Agenten besteht aus einer Menge (prädikaten-)logischer Formeln. So könnte z.B. locked(door42) das Wissen des Agenten ausdrücken, Tür Nr. 42 sei abgeschossen. Er handelt damit selbstständig. Die Handlungsentscheidungen des Agenten basieren auf Wissen, das sich deduktiv aus diesen Formeln ableiten lässt.
Umgebungszustände eines logikbasierten Agenten
In (Bi): der Agent ist im Büro Bi
Müll (Bi): der Mülleimer in Büro Bi ist voll
Fenster_schmutzig (Bi): die Fenster in Büro Bi sind schmutzig
Boden_schmutzig (B): der Boden in Büro B ist schmutzig
Codierung der Handlungsanweisungen
daraus folgt
BELIEF - DESIRE - INTENTION - (BDI)-AGENTEN
Logik und Schlussfolgerungen spielen eine wichtige Rolle in der Modellierung von Agenten, reichen jedoch nicht aus. Ein Agent muss praktisch denken können. Unter praktischem Denken versteht man Denkprozesse, die auf Handlungen ausgerichtet sind.
Was will der Agent erreichen?
Wie will der Agent das Gewünschte erreichen?
Die systematische Analyse dieser beiden miteinander verzahnten Fragestellungen führt auf die Begriffe Wünsche (desires) und Intentionen (intentions), die gemeinsam mit dem Begriff des Glaubens oder subjektiven Wissens (belief) die Basis für die BDI-Architektur bilden.
Maschinelles Lernen
Ein zentraler Aspekt des Lernens ist die Konstruktion einer Repräsentation von Wissen. Die Konsequenz ist eine Performanzverbesserung, die in Zusammenhang mit den Zielen des Lernens steht. Maschinelles Lernen soll also Computerprogrammen ermöglichen, aus Erfahrung ihr eigenes Handeln zu verbessern.