Deep Natural Language Processing von Jochen Hirschle | Einstieg in Word Embedding, Sequence-to-Sequence-Modelle und Transformer mit Python | ISBN 9783446473638

Deep Natural Language Processing

Einstieg in Word Embedding, Sequence-to-Sequence-Modelle und Transformer mit Python

von Jochen Hirschle
Buchcover Deep Natural Language Processing | Jochen Hirschle | EAN 9783446473638 | ISBN 3-446-47363-7 | ISBN 978-3-446-47363-8
Leseprobe
Inhaltsverzeichnis 1

„Das Buch bietet eine leicht verständliche Einführung in Machine-Learning-Algorithmen im Allgemeinen und in die Verarbeitung von Textdaten im Deep-Learning-Verfahren im Besonderen. Es veranschaulicht die theoretischen Konzepte bewährter und neuerer NLP-Ansätze und führt in die praktische Umsetzung ein.“ SPS Magazin, Oktober 2023
„Jochen Hirschle hat auf nur 250 Seiten einen Leitfaden zusammengestellt, der den Lesern das notwendige Wissen und die praktischen Fähigkeiten vermittelt, um eine Vielzahl von NLP-Aufgaben anzugehen. Das Buch ermöglicht sogar, aufbauend auf den Beispielen innovative Anwendungen auf diesem Gebiet zu entwickeln.“ Reinhard Erich Vogelmaier, iX, August 2023

Deep Natural Language Processing

Einstieg in Word Embedding, Sequence-to-Sequence-Modelle und Transformer mit Python

von Jochen Hirschle
- Von der logistischen Regression über Feed-Forward-Netze zu Encoder-Decoder-Modellen - Leicht verständlich mit textbasierten Erklärungen und wenigen Formeln - Mit Fokus auf der Verarbeitung deutschsprachiger Texte - Ausführliche Python-Code-Erläuterungen im Buch und Jupyter Notebooks auf GitHub - Ihr exklusiver Vorteil: E-Book inside beim Kauf des gedruckten Buches
Das Buch bietet eine leicht verständliche Einführung in Machine-Learning-Algorithmen im Allgemeinen und in die Verarbeitung von Textdaten mit Deep-Learning-Verfahren im Besonderen. Es veranschaulicht die theoretischen Konzepte bewährter und neuerer NLP-Ansätze und führt in die praktische Umsetzung ein.
Im Fokus stehen insbesondere folgende Verfahren:
  • Vektorisierung von Wörtern mit Word Embedding.
  • Verarbeitung von Texten mit rekurrenten und konvolutionalen neuronalen Netzen.
  • Aufbau von Sequence-to-Sequence-Modellen zur Übersetzung und für Textzusammenfassungen.
  • Arbeit mit der Transformers-Bibliothek und Hugging Face.
Anhand praktischer Anwendungen (Klassizierung von Texten, Rechtschreibkorrektur, Übersetzung, Frage-Antwort-System) wird gezeigt, wie sich Textdaten vorbereiten und effektive Lernmodelle mit Bibliotheken wie Transformers, TensorFlow/Keras und Scikit-Learn aufbauen, trainieren und produktiv einsetzen lassen.