
×
Einführung in die allgemeine Informationstheorie
von Johannes PetersInhaltsverzeichnis
- I — Die Umwelt als Quelle und als Verbraucher von Information.
- § 1. Einführung in die gedanklichen Voraussetzungen.
- § 2. Die Reproduzierbarkeit des Weltbildes der klassischen Physik.
- § 3. Die Physik bei hohen Geschwindigkeiten (Relativitätstheorie).
- § 4. Die Quantisierung der Energie.
- § 5. Die Quantisierung der Materie (Elementarteilchen).
- § 6. Die elektromagnetische Welle.
- § 7. Wechselwirkungen in der Physik.
- § 8. Über makro — und mikrophysikalische Zustände in der Thermodynamik.
- § 9. Thermodynamische Ausgleichsvorgänge.
- § 10. Der Informationsbegriff in seiner allgemeinsten Form.
- § 11. Anhang zum I. Kapitel: Unschärfebeziehungen.
- II — Die Gesetze des Zufalls.
- § 12. Von Determiniertheit Zufall und Wahrscheinlichkeit.
- § 13. Häufigkeit und Wahrscheinlichkeit.
- § 14. Die Grundregeln über das Rechnen mit der Wahrscheinlichkeit.
- § 15. Beispiele zur Anwendung von Grundregeln.
- § 16. Der Ergebnisraum.
- § 17. Die Übertragung der Wahrscheinlichkeit auf die determinierte Funktion des Ergebnisses.
- § 18. Der Erwartungswert.
- § 19. Die charakteristische Funktion.
- § 20. Das »elementare« Rechnen mit Zufallsgrößen.
- §21. Stochastische Abhängigkeiten.
- § 22. Versuche, die eine endlichfache Wiederholung desselben Versuches sind.
- § 23. Die wahrscheinlichen relativen Häufigkeiten bei großen Wiederholungszahlen.
- § 24. Der wahrscheinliche mittlere Fehler.
- § 25. Der zentrale Grenzwertsatz.
- § 26. Im Bereich zwischen Zufall und Sicherheit.
- III — Zufallsprozesse.
- § 27. Einleitende Bemerkungen über Zufallsprozesse.
- § 28. Beispiele von Zufallsprozessen.
- § 29. Beschreibung eines Zufallsprozesses.
- § 30. Physikalisch reale Zufallsprozesse.
- § 31. Die Freiheitsgrade eines Prozesses mit begrenzter Bandbreite.
- § 32. Erfassung eines Bereiches zwischen den streng determinierten und den stochastischen Prozessen.
- § 33. Einwirkung eines linearen Systems auf einen Prozeß (Betrachtung im Frequenzbereich).
- § 34. Zum Dirac-Stoß.
- § 35. Mathematische Eigenschaften realisierbarer Übertragungssysteme.
- § 36. Beziehungen zwischen Laufzeit und Dämpfung.
- § 37. Die Autokorrelationsfunktion.
- § 38. Kovarianz und Korrelation.
- § 39. Einführung eines Zufallsvektors.
- § 40. Zum Rechnen mit dem Zufallsvektor.
- § 41. Die Korrelationsfunktionen.
- § 42. Zusammenfassender Einblick auf die voraufgegangenen Überlegungen.
- IV — Grundlagen der Informations-Theorie.
- § 43. Definition der Information.
- § 44. Die Quelle diskreter Informationswerte.
- § 45. Die informationstheoretische Entropie bei Nebenbedingungen.
- § 46. Die informationstheoretische Entropie auf einen Ergebnisraum mit n Dimensionen.
- § 47. Redundanz und Irrelevanz.
- §48. Der Kanal.
- §49. Die Transinformation.
- § 50. Die Kanalkapazität.
- § 51. Der Shannonsche Satz.
- § 52. Folgerungen aus dem Shannonschen Satz.
- V — Weiterführung und Anwendungen der Informations-Theorie.
- § 53. Verallgemeinerung des Informationsbegriffes auf stetig verteilte Signalmengen.
- § 54. Die Entropie bei stetiger Verteilung.
- § 55. Abhängigkeit der Entropie einer stetigen Verteilung von Änderungen des Maßstabes.
- § 56. Der »Nullpunkt« der Entropie einer stetigen Verteilung.
- § 57. Die Transinformation bei stetiger Verteilung.
- § 58. Die Transinformation bei gemischter Verteilung.
- § 59. Extremwerte der Entropie bei Nebenbedingungen.
- § 60. Die Transinformation eines stetigen Kanals.
- § 61. Die optimale Bandbreite.
- § 62. Technische Approximation des Informationsflusses an die Kanalkapazität.
- § 63. Die Information beimMessen, Steuern und Regeln.
- § 64. Die Raum-Nachrichtentechnik und Informationstheorie.
- § 65. Radartechnik und Informationstheorie.
- § 66. Extraktion der Information aus Radar-Signalen.
- § 67. Das neuzeitliche Weltbild der Informationstheorie.
- Schrifttumsverzeichnis.