Warenkorb
if (typeof merkur !== 'undefined') { $(document).ready(merkur.config('COOKIECONSENT').init); }

Neuronale Netze und Deep Learning kapieren

Der einfache Praxiseinstieg mit Beispielen in Python




  • Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen


  • Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy


  • Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich


Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht.

Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz.

Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.


Aus dem Inhalt:

  • Parametrische und nichtparametrische Modelle

  • Überwachtes und unüberwachtes Lernen

  • Vorhersagen mit mehreren Ein- und Ausgaben

  • Fehler messen und verringern

  • Hot und Cold Learning

  • Batch- und stochastischer Gradientenabstieg

  • Überanpassung vermeiden

  • Generalisierung

  • Dropout-Verfahren

  • Backpropagation und Forward Propagation

  • Bilderkennung

  • Verarbeitung natürlicher Sprache (NLP)

  • Sprachmodellierung

  • Aktivierungsfunktionen

    • Sigmoid-Funktion

    • Tangens hyperbolicus

    • Softmax



  • Convolutional Neural Networks (CNNs)

  • Recurrent Neural Networks (RNNs)

  • Long Short-Term Memory (LSTM)

  • Deep-Learning-Framework erstellen


Portrait
Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte.
… weiterlesen
  • Artikelbild-0
In den Warenkorb

Beschreibung

Produktdetails

Einband Paperback
Seitenzahl 360
Erscheinungsdatum 30.11.2019
Sprache Deutsch
ISBN 978-3-7475-0015-6
Reihe mitp Professional
Verlag MITP
Maße (L/B/H) 24,2/17,2/2,3 cm
Gewicht 610 g
Auflage 2020
Verkaufsrang 27297
Buch (Paperback)
Buch (Paperback)
29,99
29,99
inkl. gesetzl. MwSt.
inkl. gesetzl. MwSt.
Sofort lieferbar Versandkostenfrei
Sofort lieferbar
Versandkostenfrei
In den Warenkorb
PAYBACK Punkte
Vielen Dank für Ihr Feedback!
Entschuldigung, beim Absenden Ihres Feedbacks ist ein Fehler passiert. Bitte versuchen Sie es erneut.
Ihr Feedback zur Seite
Haben Sie alle relevanten Informationen erhalten?
Ihr Feedback ist anonym. Wir nutzen es, um unsere Produktseiten zu verbessern. Bitte haben Sie Verständnis, dass wir Ihnen keine Rückmeldung geben können. Wenn Sie Kontakt mit uns aufnehmen möchten, können Sie sich aber gerne an unseren Kundenservice wenden.

Kundenbewertungen

Es wurden noch keine Bewertungen geschrieben.