Hoy nos complace anunciar el lanzamiento de Aprendizaje profundo con R, 2.ª edición. En comparación con la primera edición, el libro es más de un tercio más largo y tiene más del 75% de contenido nuevo. No es tanto una edición actualizada como un libro completamente nuevo.
Este libro le muestra cómo comenzar con el aprendizaje profundo en R, incluso si no tiene experiencia en matemáticas o ciencia de datos. El libro cubre:
-
Aprendizaje profundo desde los primeros principios
-
Clasificación de imágenes y segmentación de imágenes.
-
Previsión de collection de tiempo
-
Clasificación de textos y traducción automática.
-
Generación de texto, transferencia de estilo neuronal y generación de imágenes.
Sólo se supone un conocimiento modesto de R; todo lo demás se explica desde cero con ejemplos que demuestran claramente la mecánica. Obtenga más información sobre degradados y retropropagación mediante el uso tf$GradientTape()
redescubrir la constante de aceleración de la gravedad de la Tierra (9,8 (m/s^2)). Aprende que keras Layer
es: implementando uno desde cero usando solo la base R. Conozca la diferencia entre la normalización por lotes y la normalización por capas, qué layer_lstm()
¿Qué pasa cuando llamas?
match()
y así sucesivamente, todo mediante implementaciones en código R easy.
Cada sección del libro ha recibido actualizaciones importantes. Los capítulos sobre visión por computadora ofrecen un recorrido completo sobre cómo abordar una tarea de segmentación de imágenes. Las secciones sobre clasificación de imágenes se han actualizado para utilizar {tfdatasets} y capas de preprocesamiento de Keras, lo que demuestra no solo cómo componer una canalización de datos rápida y eficiente, sino también cómo adaptarla cuando su conjunto de datos lo requiera.
Los capítulos sobre modelos de texto han sido completamente reelaborados. Aprenda a preprocesar texto sin formato para el aprendizaje profundo, primero implementando una capa de vectorización de texto usando solo base R, antes de usar
keras::layer_text_vectorization()
de nueve maneras diferentes. Obtenga información sobre cómo incrustar capas mediante la implementación de una configuración personalizada.
layer_positional_embedding()
. Conozca la arquitectura del transformador implementando una configuración personalizada. layer_transformer_encoder()
y
layer_transformer_decoder()
. Y en el camino, junte todo entrenando modelos de texto: primero, un clasificador de opiniones de reseñas de películas, luego, un traductor de inglés a español y, finalmente, un generador de texto de reseñas de películas.
Los modelos generativos tienen su propio capítulo dedicado, que cubre no solo la generación de texto, sino también los codificadores automáticos variacionales (VAE), las redes generativas adversarias (GAN) y la transferencia de estilo.
A lo largo de cada paso del camino, encontrará intuiciones destiladas de la experiencia y la observación empírica sobre qué funciona, qué no y por qué. Respuestas a preguntas como: ¿cuándo debería utilizar una bolsa de palabras en lugar de una arquitectura de secuencia? ¿Cuándo es mejor utilizar un modelo previamente entrenado en lugar de entrenar un modelo desde cero? ¿Cuándo debería utilizar GRU en lugar de LSTM? ¿Cuándo es mejor utilizar convolución separable en lugar de convolución common? Cuando el entrenamiento es inestable, ¿qué pasos para solucionar el problema se deben seguir? ¿Qué puedes hacer para que el entrenamiento sea más rápido?
El libro evita la magia y los gestos con las manos y, en cambio, abre el telón sobre todos los conceptos fundamentales necesarios para aplicar el aprendizaje profundo. Después de trabajar con el materials del libro, no solo sabrá cómo aplicar el aprendizaje profundo a tareas comunes, sino que también tendrá el contexto para aplicar el aprendizaje profundo a nuevos dominios y nuevos problemas.
Aprendizaje profundo con R, segunda edición
Reutilizar
El texto y las figuras tienen licencia Artistic Commons Attribution. CC POR 4.0. Las figuras que han sido reutilizadas de otras fuentes no están cubiertas por esta licencia y pueden reconocerse por una nota en su pie de foto: “Figura de…”.
Citación
Para atribución, cite este trabajo como
Kalinowski (2022, Could 31). Posit AI Weblog: Deep Studying with R, 2nd Version. Retrieved from https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/
Cita BibTeX
@misc{kalinowskiDLwR2e, writer = {Kalinowski, Tomasz}, title = {Posit AI Weblog: Deep Studying with R, 2nd Version}, url = {https://blogs.rstudio.com/tensorflow/posts/2022-05-31-deep-learning-with-R-2e/}, 12 months = {2022} }