Neuronale Netze und Deep Learning kapieren

von MITP
Image Gallery
  • Neuronale Netze und Deep Learning kapieren

Neuronale Netze und Deep Learning kapieren

von MITP
inkl. Ust.
30,90 €
Produktanzahl 1
Nur noch 3 Stück verfügbar!
Liefermethode
Lieferung
Lieferung am Di. 26.08.2025
 
Händler*in
BMS
Der*die Händler*in gewährt für dieses Produkt eine Widerrufsfrist von 30 Tagen. Für Details lies bitte die Widerrufsbelehrung und das -formular sowie die jeweiligen Händler-AGB.

Produktdetails

Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht. Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz. Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen. Aus dem Inhalt: Parametrische und nichtparametrische Modelle Überwachtes und unüberwachtes Lernen Vorhersagen mit mehreren Ein- und Ausgaben Fehler messen und verringern Hot und Cold Learning Batch- und stochastischer Gradientenabstieg Überanpassung vermeiden Generalisierung Dropout-Verfahren Backpropagation und Forward Propagation Bilderkennung Verarbeitung natürlicher Sprache (NLP) Sprachmodellierung Aktivierungsfunktionen Sigmoid-Funktion Tangens hyperbolicus Softmax Convolutional Neural Networks (CNNs) Recurrent Neural Networks (RNNs) Long Short-Term Memory (LSTM) Deep-Learning-Framework erstellen

Infotabelle

Produktspezifikationen

Autor
Andrew W. Trask
Format
gebundene Ausgabe
Sprachfassung
Deutsch
Seiten
360
Erscheinungsdatum
2019-11-30
Verlag
MITP

Produktkennung

Artikelnummer m0000BRAHR
EAN 9783747500156
GTIN 09783747500156

Zusatzinfo und Downloads

Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-Algorithmen Anschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPy Keine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlich Deep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht. Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz. Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen. Aus dem Inhalt: Parametrische und nichtparametrische Modelle Überwachtes und unüberwachtes Lernen Vorhersagen mit mehreren Ein- und Ausgaben Fehler messen und verringern Hot und Cold Learning Batch- und stochastischer Gradientenabstieg Überanpassung vermeiden Generalisierung Dropout-Verfahren Backpropagation und Forward Propagation Bilderkennung Verarbeitung natürlicher Sprache (NLP) Sprachmodellierung Aktivierungsfunktionen Sigmoid-Funktion Tangens hyperbolicus Softmax Convolutional Neural Networks (CNNs) Recurrent Neural Networks (RNNs) Long Short-Term Memory (LSTM) Deep-Learning-Framework erstellen

Produktspezifikationen

Autor
Andrew W. Trask
Format
gebundene Ausgabe
Sprachfassung
Deutsch
Seiten
360
Erscheinungsdatum
2019-11-30
Verlag
MITP

Produktkennung

Artikelnummer m0000BRAHR
EAN 9783747500156
GTIN 09783747500156