4 Underrated Great Resources For Learning Data Science That Might Surprise You
Getting tired of online MOOCs? Or simply just have a roadblock? This article is for you.
https://towardsdatascience.com/4-underrated-great-resources-for-learning-data-science-that-might-surprise-you-19316b79efbb?source=collection_home---4------2-----------------------
🔗 4 Underrated Great Resources For Learning Data Science That Might Surprise You
Getting tired of online MOOCs? Or simply just have a roadblock? This article is for you.
Getting tired of online MOOCs? Or simply just have a roadblock? This article is for you.
https://towardsdatascience.com/4-underrated-great-resources-for-learning-data-science-that-might-surprise-you-19316b79efbb?source=collection_home---4------2-----------------------
🔗 4 Underrated Great Resources For Learning Data Science That Might Surprise You
Getting tired of online MOOCs? Or simply just have a roadblock? This article is for you.
Medium
4 Underrated Great Resources For Learning Data Science That Might Surprise You
Getting tired of online MOOCs? Or simply just have a roadblock? This article is for you.
Applied Deep Learning with #PyTorch - Full Course
https://www.youtube.com/watch?v=CNuI8OWsppg
🎥 Applied Deep Learning with PyTorch - Full Course
👁 1 раз ⏳ 20404 сек.
https://www.youtube.com/watch?v=CNuI8OWsppg
🎥 Applied Deep Learning with PyTorch - Full Course
👁 1 раз ⏳ 20404 сек.
In this course you will learn the key concepts behind deep learning and how to apply the concepts to a real-life project using PyTorch and Python.
You'll learn the following:
⌨️ RNNs and LSTMs
⌨️ Sequence Modeling
⌨️ PyTorch
⌨️ Building a Chatbot in PyTorch
⭐️Requirements ⭐️
⌨️ Some Basic High School Mathematics
⌨️ Some Basic Programming Knowledge
⌨️ Some basic Knowledge about Neural Networks
⭐️Contents ⭐️
⌨️ (0:00:08) Recurrent Nerual Networks - RNNs and LSTMs
⌨️ (0:35:54) Sequence-To-Sequence Models
⌨️YouTube
Applied Deep Learning with PyTorch - Full Course
In this course you will learn the key concepts behind deep learning and how to apply the concepts to a real-life project using PyTorch and Python.
You'll learn the following:
⌨️ RNNs and LSTMs
⌨️ Sequence Modeling
⌨️ PyTorch
⌨️ Building a Chatbot in PyTorch…
You'll learn the following:
⌨️ RNNs and LSTMs
⌨️ Sequence Modeling
⌨️ PyTorch
⌨️ Building a Chatbot in PyTorch…
Rekko Challenge: построение рекомендаций для онлайн кинотеатра
https://www.youtube.com/watch?v=-eCr1K9lKxg&t=6s
🎥 Rekko Challenge: построение рекомендаций для онлайн кинотеатра – Евгений Смирнов
👁 1 раз ⏳ 1605 сек.
https://www.youtube.com/watch?v=-eCr1K9lKxg&t=6s
🎥 Rekko Challenge: построение рекомендаций для онлайн кинотеатра – Евгений Смирнов
👁 1 раз ⏳ 1605 сек.
Евгений Смирнов рассказывает про то, как можно построить гибридную рекомендательную систему на примере соревнования Rekko Challenge, где он занял второе место. Из видео вы сможете узнать:
- Описание данных и задачи соревнования, интересные факты
- Какая метрика использовалась
- Подробности решения второго места
- Какие признаки использовались, а какие не зашли
Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/
Узнать о новых тренировках и видео можно из групп:
ВКонтакте https://vk.comYouTube
Rekko Challenge: построение рекомендаций для онлайн кинотеатра – Евгений Смирнов
Евгений Смирнов рассказывает про то, как можно построить гибридную рекомендательную систему на примере соревнования Rekko Challenge, где он занял второе мест...
R-Transformer: Recurrent Neural Network Enhanced Transformer "empirical results show that R-Transformer outperforms the state-of-the-art methods by a large margin in most of the tasks"
https://arxiv.org/abs/1907.05572
https://github.com/DSE-MSU/R-transformer
🔗 R-Transformer: Recurrent Neural Network Enhanced Transformer
Recurrent Neural Networks have long been the dominating choice for sequence modeling. However, it severely suffers from two issues: impotent in capturing very long-term dependencies and unable to parallelize the sequential computation procedure. Therefore, many non-recurrent sequence models that are built on convolution and attention operations have been proposed recently. Notably, models with multi-head attention such as Transformer have demonstrated extreme effectiveness in capturing long-term dependencies in a variety of sequence modeling tasks. Despite their success, however, these models lack necessary components to model local structures in sequences and heavily rely on position embeddings that have limited effects and require a considerable amount of design efforts. In this paper, we propose the R-Transformer which enjoys the advantages of both RNNs and the multi-head attention mechanism while avoids their respective drawbacks. The proposed model can effectively capture both local structures and global
https://arxiv.org/abs/1907.05572
https://github.com/DSE-MSU/R-transformer
🔗 R-Transformer: Recurrent Neural Network Enhanced Transformer
Recurrent Neural Networks have long been the dominating choice for sequence modeling. However, it severely suffers from two issues: impotent in capturing very long-term dependencies and unable to parallelize the sequential computation procedure. Therefore, many non-recurrent sequence models that are built on convolution and attention operations have been proposed recently. Notably, models with multi-head attention such as Transformer have demonstrated extreme effectiveness in capturing long-term dependencies in a variety of sequence modeling tasks. Despite their success, however, these models lack necessary components to model local structures in sequences and heavily rely on position embeddings that have limited effects and require a considerable amount of design efforts. In this paper, we propose the R-Transformer which enjoys the advantages of both RNNs and the multi-head attention mechanism while avoids their respective drawbacks. The proposed model can effectively capture both local structures and global
arXiv.org
R-Transformer: Recurrent Neural Network Enhanced Transformer
Recurrent Neural Networks have long been the dominating choice for sequence modeling. However, it severely suffers from two issues: impotent in capturing very long-term dependencies and unable to...
A General Decoupled Learning Framework for Parameterized Image Operators
https://arxiv.org/abs/1907.05852
🔗 A General Decoupled Learning Framework for Parameterized Image Operators
Many different deep networks have been used to approximate, accelerate or improve traditional image operators. Among these traditional operators, many contain parameters which need to be tweaked to obtain the satisfactory results, which we refer to as parameterized image operators. However, most existing deep networks trained for these operators are only designed for one specific parameter configuration, which does not meet the needs of real scenarios that usually require flexible parameters settings. To overcome this limitation, we propose a new decoupled learning algorithm to learn from the operator parameters to dynamically adjust the weights of a deep network for image operators, denoted as the base network. The learned algorithm is formed as another network, namely the weight learning network, which can be end-to-end jointly trained with the base network. Experiments demonstrate that the proposed framework can be successfully applied to many traditional parameterized image operators. To accelerate the pa
https://arxiv.org/abs/1907.05852
🔗 A General Decoupled Learning Framework for Parameterized Image Operators
Many different deep networks have been used to approximate, accelerate or improve traditional image operators. Among these traditional operators, many contain parameters which need to be tweaked to obtain the satisfactory results, which we refer to as parameterized image operators. However, most existing deep networks trained for these operators are only designed for one specific parameter configuration, which does not meet the needs of real scenarios that usually require flexible parameters settings. To overcome this limitation, we propose a new decoupled learning algorithm to learn from the operator parameters to dynamically adjust the weights of a deep network for image operators, denoted as the base network. The learned algorithm is formed as another network, namely the weight learning network, which can be end-to-end jointly trained with the base network. Experiments demonstrate that the proposed framework can be successfully applied to many traditional parameterized image operators. To accelerate the pa
New fast.ai course: A Code-First Introduction to Natural Language Processing
https://www.fast.ai/2019/07/08/fastai-nlp/
Github: https://github.com/fastai/course-nlp
Videos: https://www.youtube.com/playlist?list=PLtmWHNX-gukKocXQOkQjuVxglSDYWsSh9
🔗 Home
Making neural nets uncool again
https://www.fast.ai/2019/07/08/fastai-nlp/
Github: https://github.com/fastai/course-nlp
Videos: https://www.youtube.com/playlist?list=PLtmWHNX-gukKocXQOkQjuVxglSDYWsSh9
🔗 Home
Making neural nets uncool again
Improve data quality by using the pandas library and Python
Technical background (Data Series, Data Frames) and step-by-step tutorial for a real world example.
https://towardsdatascience.com/improve-data-quality-by-using-the-pandas-library-and-python-34fda752a6b5?source=collection_home---4------3-----------------------
🔗 Improve data quality by using the pandas library and Python
Technical background (Data Series, Data Frames) and step-by-step tutorial for a real world example.
Technical background (Data Series, Data Frames) and step-by-step tutorial for a real world example.
https://towardsdatascience.com/improve-data-quality-by-using-the-pandas-library-and-python-34fda752a6b5?source=collection_home---4------3-----------------------
🔗 Improve data quality by using the pandas library and Python
Technical background (Data Series, Data Frames) and step-by-step tutorial for a real world example.
Medium
Improve data quality by using the pandas library and Python
Technical background (Data Series, Data Frames) and step-by-step tutorial for a real world example.
Google AI - Vision API Python Tutorial (Part 2): Configuration and Setup
https://www.youtube.com/watch?v=wfyDiLMGqDM
🎥 Google AI - Vision API Python Tutorial (Part 2): Configuration and Setup
👁 1 раз ⏳ 738 сек.
https://www.youtube.com/watch?v=wfyDiLMGqDM
🎥 Google AI - Vision API Python Tutorial (Part 2): Configuration and Setup
👁 1 раз ⏳ 738 сек.
Buy Me a Coffee? https://www.paypal.me/jiejenn/5
Your donation will support me to continue to make more tutorial videos!
In this tutorial we will
1. Create a Google Service Account.
2. Enable Google Vision API service.
3. Download Token JSON file to your PC.
4. Create a Python Virtual Environment.
5. Install Google Cloud Python libraries and Vision API library.
6. Create GOOGLE_APPLICATION_CREDENTIALS environment variable
7. Write our first Python script to construct the Vision APIYouTube
Google Vision API in Python (Part 2): Configuration and Setup
Buy Me a Coffee? https://www.paypal.me/jiejenn/5
Your donation will support me to continue to make more tutorial videos!
In this tutorial we will
1. Create a Google Service Account.
2. Enable Google Vision API service.
3. Download Token JSON file…
Your donation will support me to continue to make more tutorial videos!
In this tutorial we will
1. Create a Google Service Account.
2. Enable Google Vision API service.
3. Download Token JSON file…
Vanilla Deep Q Networks
Deep Q Learning Explained
https://towardsdatascience.com/dqn-part-1-vanilla-deep-q-networks-6eb4a00febfb
🔗 Vanilla Deep Q Networks - Towards Data Science
Deep Q Learning Explained
Deep Q Learning Explained
https://towardsdatascience.com/dqn-part-1-vanilla-deep-q-networks-6eb4a00febfb
🔗 Vanilla Deep Q Networks - Towards Data Science
Deep Q Learning Explained
Medium
Vanilla Deep Q Networks
Deep Q Learning Explained
Surprising Sorting Tips for Data Scientists
Python, Numpy, Pandas, PyTorch, TensorFlow & SQL
https://towardsdatascience.com/surprising-sorting-tips-for-data-scientists-9c360776d7e
🔗 Surprising Sorting Tips for Data Scientists - Towards Data Science
Python, Numpy, Pandas, PyTorch, TensorFlow & SQL
Python, Numpy, Pandas, PyTorch, TensorFlow & SQL
https://towardsdatascience.com/surprising-sorting-tips-for-data-scientists-9c360776d7e
🔗 Surprising Sorting Tips for Data Scientists - Towards Data Science
Python, Numpy, Pandas, PyTorch, TensorFlow & SQL
Medium
Surprising Sorting Tips for Data Scientists
Python, Numpy, Pandas, PyTorch, TensorFlow & SQL
Курс Байесовские методы в машинном обучении
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Байесовские методы в машинном обучении. Лекция 1
👁 1 раз ⏳ 5449 сек.
🎥 Байесовские методы в машинном обучении. Лекция 2
👁 1 раз ⏳ 3658 сек.
🎥 Байесовские методы в машинном обучении. Лекция 3
👁 1 раз ⏳ 4232 сек.
🎥 Байесовские методы в машинном обучении. Лекция 4
👁 1 раз ⏳ 5100 сек.
🎥 Байесовские методы в машинном обучении. Лекция 5
👁 1 раз ⏳ 4723 сек.
🎥 Байесовские методы в машинном обучении. Лекция 7
👁 1 раз ⏳ 5027 сек.
🎥 Байесовские методы в машинном обучении. Лекция 6
👁 1 раз ⏳ 5159 сек.
🎥 Байесовские методы в машинном обучении. Лекция 8
👁 1 раз ⏳ 5012 сек.
🎥 Байесовские методы в машинном обучении. Лекция 9
👁 1 раз ⏳ 4674 сек.
🎥 Байесовские методы в машинном обучении. Лекция 10
👁 1 раз ⏳ 4962 сек.
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Байесовские методы в машинном обучении. Лекция 1
👁 1 раз ⏳ 5449 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 2
👁 1 раз ⏳ 3658 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 3
👁 1 раз ⏳ 4232 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 4
👁 1 раз ⏳ 5100 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 5
👁 1 раз ⏳ 4723 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 7
👁 1 раз ⏳ 5027 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 6
👁 1 раз ⏳ 5159 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 8
👁 1 раз ⏳ 5012 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 9
👁 1 раз ⏳ 4674 сек.
Лектор: профессор Ветров Дмитрий Петрович🎥 Байесовские методы в машинном обучении. Лекция 10
👁 1 раз ⏳ 4962 сек.
Лектор: профессор Ветров Дмитрий ПетровичПостроение анимационного линейного графика скользящего среднего в R. Получение данных через NBA API
Продолжим анализировать баскетбольные данные с помощью R.
В отличие от прошлой статьи, носившей исключительно развлекательный характер, графики, которые будут построены в данной заметке, могут быть интересны с точки зрения анализа игры команды походу сезона.
А строить мы будем графики скользящего среднего для трёх видов рейтинга команд НБА: атакующего, оборонительного и net-рейтинга (т.е. разницы между первыми двумя). В двух словах о них. Атакующий и оборонительный рейтинги — это количество очков, набранных/пропущенных командой за 100 владений. NET рейтинг — это их разница также на сто владений. Кому интересно узнать о них более подробно, могут прочитать глоссарий на сайте basketball-reference. Там есть формула расчёта, которую я тоже реализовал с помощью R, но так пока и не опубликовал статью об этом.
#DataMining #R #Визуализацияданных
https://habr.com/ru/post/459142/
🔗 Построение анимационного линейного графика скользящего среднего в R. Получение данных через NBA API
Продолжим анализировать баскетбольные данные с помощью R. В отличие от прошлой статьи, носившей исключительно развлекательный характер, графики, которые будут по...
Продолжим анализировать баскетбольные данные с помощью R.
В отличие от прошлой статьи, носившей исключительно развлекательный характер, графики, которые будут построены в данной заметке, могут быть интересны с точки зрения анализа игры команды походу сезона.
А строить мы будем графики скользящего среднего для трёх видов рейтинга команд НБА: атакующего, оборонительного и net-рейтинга (т.е. разницы между первыми двумя). В двух словах о них. Атакующий и оборонительный рейтинги — это количество очков, набранных/пропущенных командой за 100 владений. NET рейтинг — это их разница также на сто владений. Кому интересно узнать о них более подробно, могут прочитать глоссарий на сайте basketball-reference. Там есть формула расчёта, которую я тоже реализовал с помощью R, но так пока и не опубликовал статью об этом.
#DataMining #R #Визуализацияданных
https://habr.com/ru/post/459142/
🔗 Построение анимационного линейного графика скользящего среднего в R. Получение данных через NBA API
Продолжим анализировать баскетбольные данные с помощью R. В отличие от прошлой статьи, носившей исключительно развлекательный характер, графики, которые будут по...
Хабр
Построение анимационного линейного графика скользящего среднего в R. Получение данных через NBA API
Продолжим анализировать баскетбольные данные с помощью R. В отличие от прошлой статьи, носившей исключительно развлекательный характер, графики, которые будут построены в данной заметке, могут быть...
Dopamine: a research framework for fast prototyping of reinforcement learning algorithms
https://github.com/google/dopamine
#deeplearning
🔗 google/dopamine
Dopamine is a research framework for fast prototyping of reinforcement learning algorithms. - google/dopamine
https://github.com/google/dopamine
#deeplearning
🔗 google/dopamine
Dopamine is a research framework for fast prototyping of reinforcement learning algorithms. - google/dopamine
GitHub
GitHub - google/dopamine: Dopamine is a research framework for fast prototyping of reinforcement learning algorithms.
Dopamine is a research framework for fast prototyping of reinforcement learning algorithms. - GitHub - google/dopamine: Dopamine is a research framework for fast prototyping of reinforcement learn...
Евгений Разинков. Лекция 9. Математические основы AdaBoost (курс "Машинное обучение", весна 2019)
#Машинноеобучение
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
https://www.youtube.com/watch?v=G8ChabpYN3g
🎥 Евгений Разинков. Лекция 9. Математические основы AdaBoost (курс "Машинное обучение", весна 2019)
👁 1 раз ⏳ 4760 сек.
#Машинноеобучение
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
https://www.youtube.com/watch?v=G8ChabpYN3g
🎥 Евгений Разинков. Лекция 9. Математические основы AdaBoost (курс "Машинное обучение", весна 2019)
👁 1 раз ⏳ 4760 сек.
Лекция посвящена математическим основам алгоритма AdaBoost.
Рассмотрены следующие вопросы:
- Целевая функция алгоритма AdaBoost
- Вывод целевой функции для обучения очередного слабого классификатора
- Вывод формулы вычисления веса для слабого классификатора
- Вывод формулы обновления весов элементов обучающей выборки.
Евгений Разинков -- к.ф.-м.н., руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX, ассистент кафедры системного анализа и ИТ института ВМиИТ Казанского федеральYouTube
Евгений Разинков. Лекция 9. Математические основы AdaBoost (курс "Машинное обучение", весна 2019)
Лекция посвящена математическим основам алгоритма AdaBoost.
Рассмотрены следующие вопросы:
- Целевая функция алгоритма AdaBoost
- Вывод целевой функции для обучения очередного слабого классификатора
- Вывод формулы вычисления веса для слабого классификатора…
Рассмотрены следующие вопросы:
- Целевая функция алгоритма AdaBoost
- Вывод целевой функции для обучения очередного слабого классификатора
- Вывод формулы вычисления веса для слабого классификатора…
Batch-Shaped Channel Gated Networks
Authors: Babak Ehteshami Bejnordi, Tijmen Blankevoort, Max Welling
Abstract: We present a method for gating deep-learning architectures on a fine-grained level. Individual convolutional maps are turned on/off conditionally on features in the network. This method allows us to train neural networks with a large capacity, but lower inference time than the full network.
https://arxiv.org/abs/1907.06627
https://www.groundai.com/project/batch-shaped-channel-gated-networks/
🔗 Batch-Shaped Channel Gated Networks
We present a method for gating deep-learning architectures on a fine-grained level. Individual convolutional maps are turned on/off conditionally on features in the network. This method allows us to train neural networks with a large capacity, but lower inference time than the full network. To achieve this, we introduce a new residual block architecture that gates convolutional channels in a fine-grained manner. We also introduce a generally applicable tool "batch-shaping" that matches the marginal aggregate posteriors of features in a neural network to a pre-specified prior distribution. We use this novel technique to force gates to be more conditional on …
Authors: Babak Ehteshami Bejnordi, Tijmen Blankevoort, Max Welling
Abstract: We present a method for gating deep-learning architectures on a fine-grained level. Individual convolutional maps are turned on/off conditionally on features in the network. This method allows us to train neural networks with a large capacity, but lower inference time than the full network.
https://arxiv.org/abs/1907.06627
https://www.groundai.com/project/batch-shaped-channel-gated-networks/
🔗 Batch-Shaped Channel Gated Networks
We present a method for gating deep-learning architectures on a fine-grained level. Individual convolutional maps are turned on/off conditionally on features in the network. This method allows us to train neural networks with a large capacity, but lower inference time than the full network. To achieve this, we introduce a new residual block architecture that gates convolutional channels in a fine-grained manner. We also introduce a generally applicable tool "batch-shaping" that matches the marginal aggregate posteriors of features in a neural network to a pre-specified prior distribution. We use this novel technique to force gates to be more conditional on …
Virtual Characters Learn To Work Out…and Undergo Surgery
🔗 Virtual Characters Learn To Work Out…and Undergo Surgery
📝 The paper "Scalable Muscle-actuated Human Simulation and Control" is available here: http://mrl.snu.ac.kr/research/ProjectScalable/Page.htm ❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, Claudio Fernandes, Daniel Hasegan,
🔗 Virtual Characters Learn To Work Out…and Undergo Surgery
📝 The paper "Scalable Muscle-actuated Human Simulation and Control" is available here: http://mrl.snu.ac.kr/research/ProjectScalable/Page.htm ❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, Claudio Fernandes, Daniel Hasegan,
YouTube
Virtual Characters Learn To Work Out…and Undergo Surgery 💪
📝 The paper "Scalable Muscle-actuated Human
Simulation and Control" is available here:
http://mrl.snu.ac.kr/research/ProjectScalable/Page.htm
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers
🙏 We would like to thank our…
Simulation and Control" is available here:
http://mrl.snu.ac.kr/research/ProjectScalable/Page.htm
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers
🙏 We would like to thank our…
Очень часто человек, разбирающийся в статистике, машинном обучении и программировании, не может найти достойную работу. Почему? Возможно у него нет корректно составленного портфолио, демонстрирующего его профессионализм и потенциал.
Как грамотно составить портфолио Data Scientist'а и выгодно преподнести свои навыки работодателю? Читайте в статье.
https://clc.to/a8yi1A
🔗 Как сделать портфолио исследователя данных - SkillFactory
Как сделать портфолио Data Scientist? Как правильно оформить партфолио для Data Scientist? SkillFactory
Как грамотно составить портфолио Data Scientist'а и выгодно преподнести свои навыки работодателю? Читайте в статье.
https://clc.to/a8yi1A
🔗 Как сделать портфолио исследователя данных - SkillFactory
Как сделать портфолио Data Scientist? Как правильно оформить партфолио для Data Scientist? SkillFactory
SkillFactory
Как сделать портфолио исследователя данных - SkillFactory
Как сделать портфолио Data Scientist? Как правильно оформить партфолио для Data Scientist? SkillFactory
Implementing Deep Learning Papers - Deep Deterministic Policy Gradients (using Python)
https://www.youtube.com/watch?v=GJJc1t0rtSU
🎥 Implementing Deep Learning Papers - Deep Deterministic Policy Gradients (using Python)
👁 1 раз ⏳ 10631 сек.
https://www.youtube.com/watch?v=GJJc1t0rtSU
🎥 Implementing Deep Learning Papers - Deep Deterministic Policy Gradients (using Python)
👁 1 раз ⏳ 10631 сек.
In this intermediate deep learning tutorial, you will learn how to go from reading a paper on deep deterministic policy gradients to implementing the concepts in Tensorflow. This process can be applied to any deep learning paper, not just deep reinforcement learning.
In the second part, you will learn how to code a deep deterministic policy gradient (DDPG) agent using Python and PyTorch, to beat the continuous lunar lander environment (a classic machine learning problem).
DDPG combines the best of Deep QYouTube
Deep Reinforcement Learning in Python Tutorial - A Course on How to Implement Deep Learning Papers
In this intermediate deep learning tutorial, you will learn how to go from reading a paper on deep deterministic policy gradients to implementing the concepts in Tensorflow. This process can be applied to any deep learning paper, not just deep reinforcement…
Interactive Data Visualization
Creating interactive plots and widgets for Data Visualization using Python libraries such as: Plotly, Bokeh, nbinteract
https://towardsdatascience.com/interactive-data-visualization-167ae26016e8?source=collection_home---4------0-----------------------
🔗 Interactive Data Visualization - Towards Data Science
Creating interactive plots and widgets for Data Visualization using Python libraries such as: Plotly, Bokeh, nbinteract, etc...
Creating interactive plots and widgets for Data Visualization using Python libraries such as: Plotly, Bokeh, nbinteract
https://towardsdatascience.com/interactive-data-visualization-167ae26016e8?source=collection_home---4------0-----------------------
🔗 Interactive Data Visualization - Towards Data Science
Creating interactive plots and widgets for Data Visualization using Python libraries such as: Plotly, Bokeh, nbinteract, etc...
Medium
Interactive Data Visualization
Creating interactive plots and widgets for Data Visualization using Python libraries such as: Plotly, Bokeh, nbinteract, etc...
Audio AI: isolating instruments from stereo music using Convolutional Neural Networks
hacking music towards the democratization of derivative content
https://towardsdatascience.com/audio-ai-isolating-instruments-from-stereo-music-using-convolutional-neural-networks-584ababf69de?source=collection_home---4------0-----------------------
🔗 Audio AI: isolating instruments from stereo music using Convolutional Neural Networks
hacking music towards the democratization of derivative content
hacking music towards the democratization of derivative content
https://towardsdatascience.com/audio-ai-isolating-instruments-from-stereo-music-using-convolutional-neural-networks-584ababf69de?source=collection_home---4------0-----------------------
🔗 Audio AI: isolating instruments from stereo music using Convolutional Neural Networks
hacking music towards the democratization of derivative content
Medium
Audio AI: isolating instruments from stereo music using Convolutional Neural Networks
hacking music towards the democratization of derivative content