- Gegenstand der KI ist die Untersuchung intelligenten Verhaltens und dessen Implementierung auf Computern.
- Ein System heißt intelligent, wenn es selbstständig und effizient Probleme lösen kann.
- Der Grad der Intelligenz hängt vom Grad der Selbstständigkeit, dem Grad der Komplexität des Problems und dem Grad der Effizienz des Problemlösungsverfahrens ab.
- Supervised Learning (̈uberwachtes Lernen): Lernen erfolgt durch Verwendung von Trainingsdaten, die in Eingabe- und Ausgabewerten aufgeteilt sind. Nach dem Training sollen aus neuen Eingabewerten auf unbekannte Ausgabewerte geschlossen werden können.
- Unsupervised Learning (unüberwachtes Lernen): Lernen erfolgt mit Trainingsdaten ohne bekannte Ausgabewerten bzw. Strukturierung (Klassifizierung).
- Reinforcement Learning (verstärkendes Lernen): Das Lernen erfolgt aus einer Reihe von Verstärkungen in Form von Belohnungen oder Bestrafungen. Das Ziel ist, ein System zu entwickeln, das seine Leistungen durch Interaktionen mit seiner Umgebung verbessert (z.B. Starcraft-Bot).
- Schwach: Kann einen Anwendungsfall gut.
- Stark: Kann den Menschen ersetzen.
- Turing-Test: Wand zwischen KI und Tester
- Mustererkennung, Spracherkennung, Bilder verstehen, Expertensystem (Diagnosen), Roboter, Spiele
- Kleinstes sprachliches Gebilde, dass klar entweder wahr oder falsch sein kann!
- Wenn es regnet (A), dann ist die Wiese nass (B).
- Prämisse falsch -> Implikation wahr
- KNF: Klauseln, die mit
UND
verbunden sind. - Eine Klausel sind Literale, die mit
ODER
verbunden sind.
- Äquivalenzen killen
- Implikationen killen
- Negation an die Literale binden
- Doppelte Negationen auflösen
- Ausmultiplizieren
- wenn alle Formeln vor
|=
wahr sind, dann ist alles nach|=
auch wahr.
- modus ponens:
A -> B, A |= B
- modus tollens:
A -> B, -B |= -A
- Man macht eine KNF aus der semantischen Folgerungen (nimmt das negierte Zeug in dem Gleichzeichen mit rein)
- Man bildet Mengen aus den Klauseln
- Jetzt kürze man immer ein Literal raus
- Wenn die leere Menge am Ende rauskommt, dann stimmt die semantische Folgerung
- M(x): x ist ein mensch | M => Prädikat
- s: Simon | s => Objekt
- ∀ -> für alle
- ∃ -> es existiert
- Fun fact:
∃x ≡ ¬∀x¬
- Quantoren nach links ziehen und dann ignorieren.
- Dann gleich wie bei der normalen Resolution.
- Eine Klausel mit maximal einem positiven Literal
- Eingabewerte:
$o_n$ - Gewichte:
$w_n$ - Netzeingabe:
$net = \sum_j o_j * n_j$ - Aktivität:
$a = f_{act}(net)$ - Ausgabe:
$o = a$
- Schwellwertfunkion
$f_0$ - Logistische Funktion
$f_{log}(net) = \frac{1}{1 + e^{-c * net}}$
- Eine Menge von Neuronen, die durch gerichtete und gewichtete Verbindungen miteinander verknüpft sind.
- Eingabe-Neuronen: zu diesem Neuron gibt es keine gerichtete Verbindung hin
- Ausgabe-Neuronen: von diesen Neuronen gibt es keine gerichtete Verbindung weg
- Short connection (eine Schicht wird übersprungen)
- Rückkopplung (von einer Ausgabe zu einer inneren Schicht)
- Ein einstufiges vorwärtsgerichtetes neuronales Netz, das keine inneren Schichten hat.
- o = Ausgabe bzw. mit Index Eingabe
- t = erwartetes Ergebnis
- Fehler = t - o
- Korrektur = Lernrate (λ) * Fehler * Eingabewert
- Neues Gewicht = Altes Gewicht + Korrektur
- Für die grafische Ermittlung:
$o_2 = \frac{\theta - o_1 w_1}{w_2}$
- Lernverfahren für mehrstufige Perzeptrons.
- Braucht man, weil es keine Soll-Ausgabewerte für die verdeckten Schichten gibt.
- Man bearbeitet die Eingabe, bevor man was ins Netz gibt.
- Convolution: Filter (Kernel) über das Bild laufen lassen um mehrere Feature Maps zu erstellen.
- ReLu-Aktivierungsfunktion: (Negative Werte = Null, positive Werte = Gerade)
- Pooling: Aus einem Großen Bild ein kleines machen (z.B. immer nur max Wert nehmen)
- Klassifizierung: Durch ein mehrstufiges Perzeptron.
- Zustandsraum (alle validen Zustände) definieren
- Übergänge einzeichnen
- Weg finden
- Zustandsbaum bilden.
- Davon ausgehen, dass immer das beste gewählt wird.