Konnektionismus von Georg Dorffner | Von neuronalen Netzwerken zu einer „natürlichen“ KI | ISBN 9783322946652

Konnektionismus

Von neuronalen Netzwerken zu einer „natürlichen“ KI

von Georg Dorffner
Buchcover Konnektionismus | Georg Dorffner | EAN 9783322946652 | ISBN 3-322-94665-7 | ISBN 978-3-322-94665-2

Konnektionismus

Von neuronalen Netzwerken zu einer „natürlichen“ KI

von Georg Dorffner

Inhaltsverzeichnis

  • 1 Von der klassischen AI zum Konnektionismus.
  • 1.1 Allgemeines.
  • 1.2 Die Annahmen der AI.
  • 1.3 Ebenen kognitiver Prozesse.
  • 2 Konnektionismus — eine Einführung.
  • 2.1 Allgemeines.
  • 2.2 Repräsentation — die klassische Unterscheidung.
  • 2.3 “Programmieren” von konnektionistischen Netzwerken.
  • 2.4 Netzwerkgrundtypen.
  • 2.5 Aspekte von konnektionistischen Modellen.
  • 3 Neuronale Netzwerke — Eine nähere Betrachtung.
  • 3.1 Ein mathematischer Abriß der Aktivierungsausbreitung (Update).
  • 3.2 Ein mathematischer Abriß der Lernregeln.
  • 3.3 Verteilte Aktivierungsmuster.
  • 4 Das Sub-Symbolische Paradigma.
  • 4.1 Von Hofstadter zu Smolensky.
  • 4.2 Die Gebirgsanalogie.
  • 4.3 Die symbolische Annäherung.
  • 4.4 Als Beispiel: Buchstabenerkennung.
  • 4.5 Die Gegenprobe: identifizierbare Features.
  • 4.6 Die konnektionistische Version des Sub-symbolischen Paradigmas.
  • 5 Repräsentation und Selbstorganisation.
  • 5.1 Allgemeines.
  • 5.2 Symbolische Repräsentation.
  • 5.3 Sub-symbolische Repräsentation.
  • 5.4 Die Notwendigkeit eines Interpreters.
  • 5.5 Was aber passiert in Hidden Units?.
  • 5.6 Warum wurde Repräsentation als so wichtig eingeschätzt?.
  • 5.7 Kognitive Modelle ohne Repräsentation? — Das Tower-Bridge Bild.
  • 5.8 Sub-Symbolische Repräsentation — Das ‘Binding Problem’.
  • 6 Symbole in sub-symbolischen Modellen.
  • 6.1 Allgemeines.
  • 6.2 Symbole und Informationstheorie.
  • 6.3 Die Rolle symbolischer Muster.
  • 6.4 Darstellung von Symbolen in konnektionistischen Netzwerken.
  • 6.5 Ein Modellansatz für repräsentationsfreie interne Symbole.
  • 6.6 Zusammenfassung.
  • 7 Regeln und sub-symbolische AI.
  • 7.1 Allgemeines.
  • 7.2 Transformationsregeln.
  • 7.3 Definitionsregeln: Am Beispiel Sprache.
  • 7.4 Zusammenfassung.
  • 8 Lernen.
  • 8.1 Was ist Lernen?.
  • 8.2 Lernen vom Hebb-Typus.
  • 8.3 Verlernen.
  • 8.4Zusammenfassung.
  • 9 Zufälligkeit.
  • 9.1 Die Bedeutung stochastischer Komponenten.
  • 9.2 Pseudo-Zufälligkeit.
  • 10 Feedbacks, Motivation und aktive Systemkomponenten.
  • 10.1 Weg vom Stimulus-Response System.
  • 10.2 Radikaler Konstruktivismus und sub-symbolische AI.
  • 10.3 Offene Fragen.
  • 11 Modelle der Perzeption.
  • 11.1 Allgemeines.
  • 11.2 Merkmale perzeptorischer Vorgänge.
  • 11.3 Akustische Spracherkennung (Speech Recognition).
  • 11.4 Visuelle Mustererkennung — Vision.
  • 11.5 Zusammenfassung.
  • 12 Kategorisierung und Konzeptualisierung.
  • 12.1 Allgemeines.
  • 12.2 Menschliche Kategorisierung und Implikationen daraus.
  • 12.3 Kategorien und Bildung von Konzepten im sub-symbolischen Wissen.
  • 12.4 Struktur und das Binding Problem.
  • 12.5 Modularität, Rekrutierung und Resonanz.
  • 12.6 Schemata.
  • 13 Sprachverarbeitung.
  • 13.1 Klassische Modelle und deren Grenzen.
  • 13.2 Eine sub-symbolische Sicht.
  • 13.2.4 “Universalgrammatik”.
  • 13.3 Andere konnektionistische Systeme zum Thema Sprache.
  • 14 Expertensysteme und Logik in der sub-symbolischen AI.
  • 14.1 Menschliche Expertise, IP und CRI.
  • 14.2 Produktionensysteme und neuronale Netzwerke.
  • 14.3 Die Kritiken Dreyfus’.
  • 14.4 Die Rolle der Logik.
  • 15 Eine kritische Zusammenfassung.
  • 15.1 Allgemeines.
  • 15.2 Die “Symbol Wars”.
  • 15.3 Die Grenzen des sub-symbolischen Ansatzes.
  • 15.4 Konklusion (ein Versuch).
  • Literatur.