Aujourd’hui, nous avons le plaisir de vous annoncer le lancement de Apprentissage en profondeur avec R, 2e édition. Comparé à la première édition, le livre est plus d’un tiers plus lengthy, avec plus de 75% de nouveau contenu. Ce n’est pas tant une édition mise à jour qu’un tout nouveau livre.
Ce livre vous montre remark démarrer avec l’apprentissage en profondeur dans R, même si vous n’avez aucune formation en mathématiques ou en science des données. Le livre couvre :
-
Apprentissage en profondeur à partir des premiers principes
-
Classification d’pictures et segmentation d’pictures
-
Prévision de séries chronologiques
-
Classification de texte et traduction automatique
-
Génération de texte, transfert de model neuronal et génération d’pictures
Seule une connaissance modeste de R est supposée ; tout le reste est expliqué à partir de zéro avec des exemples qui démontrent clairement la mécanique. En savoir plus sur les gradients et la rétropropagation en utilisant tf$GradientTape()
pour redécouvrir la constante d’accélération de la gravité terrestre (9,8 (m/s^2)). Apprenez ce qu’est un keras Layer
est-en implémentant un à partir de zéro en utilisant uniquement la base R. Apprenez la différence entre la normalisation par tons et la normalisation par couches, ce que layer_lstm()
fait, que se passe-t-il lorsque vous appelez
match()
et ainsi de suite, tout au lengthy des implémentations en code R brut.
Chaque part du livre a reçu des mises à jour majeures. Les chapitres sur la imaginative and prescient par ordinateur expliquent en détail remark aborder une tâche de segmentation d’picture. Les sections sur la classification des pictures ont été mises à jour pour utiliser les couches de prétraitement {tfdatasets} et Keras, démontrant non seulement remark composer un pipeline de données efficace et rapide, mais aussi remark l’adapter lorsque votre jeu de données l’exige.
Les chapitres sur les modèles de texte ont été complètement retravaillés. Apprenez à prétraiter du texte brut pour un apprentissage en profondeur, d’abord en implémentant une couche de vectorisation de texte en utilisant uniquement la base R, avant d’utiliser
keras::layer_text_vectorization()
de neuf manières différentes. En savoir plus sur l’intégration de calques en implémentant une configuration personnalisée
layer_positional_embedding()
. En savoir plus sur l’structure du transformateur en mettant en œuvre une configuration personnalisée layer_transformer_encoder()
et
layer_transformer_decoder()
. Et en cours de route, assemblez le tout en formant des modèles de texte – d’abord, un classificateur de sentiment de critique de movie, puis un traducteur anglais-espagnol et enfin, un générateur de texte de critique de movie.
Les modèles génératifs ont leur propre chapitre dédié, couvrant non seulement la génération de texte, mais également les encodeurs automatiques variationnels (VAE), les réseaux antagonistes génératifs (GAN) et le transfert de model.
À chaque étape du chemin, vous trouverez des intuitions saupoudrées distillées à partir de l’expérience et de l’statement empirique sur ce qui fonctionne, ce qui ne fonctionne pas et pourquoi. Des réponses à des questions telles que : quand devez-vous utiliser un sac de mots au lieu d’une structure de séquence ? Quand est-il préférable d’utiliser un modèle pré-entraîné au lieu d’entraîner un modèle à partir de rien ? Quand devriez-vous utiliser GRU au lieu de LSTM ? Quand est-il préférable d’utiliser la convolution séparable au lieu de la convolution régulière ? Lorsque l’entraînement est instable, quelles étapes de dépannage devez-vous suivre ? Que pouvez-vous faire pour accélérer la formation ?
Le livre évite la magie et les gestes de la primary, et lève à la place le rideau sur tous les ideas fondamentaux nécessaires pour appliquer l’apprentissage en profondeur. Après avoir parcouru le matériel du livre, vous saurez non seulement remark appliquer l’apprentissage en profondeur à des tâches courantes, mais vous aurez également le contexte pour appliquer l’apprentissage en profondeur à de nouveaux domaines et à de nouveaux problèmes.
Apprentissage en profondeur avec R, deuxième édition
Réutilisation
Le texte et les figures sont sous licence Inventive Commons Attribution CC PAR 4.0. Les chiffres qui ont été réutilisés à partir d’autres sources ne relèvent pas de cette licence et peuvent être reconnus par une notice dans leur légende : « Determine de … ».
Quotation
Pour l’attribution, veuillez citer ce travail comme
Kalinowski (2022, Might 31). Posit AI Weblog: Deep Studying with R, 2nd Version. Retrieved from https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/
Quotation BibTeX
@misc{kalinowskiDLwR2e, writer = {Kalinowski, Tomasz}, title = {Posit AI Weblog: Deep Studying with R, 2nd Version}, url = {https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/}, yr = {2022} }