Нейронные сети и компьютерное зрение (Часть 2)
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
11 - ML & CV. Многоклассовая классификация? Софтмакс!
12 - ML & CV. Локализация, детекция, сегментация и super-resolution
13 - ML & CV. Семинар: Строим первую нейронную сеть
14 - ML & CV. Семинар: Классификация в PyTorch
15 - ML & CV. Самый обычный градиентный спуск
16 - ML & CV. Модификации градиентного спуска
16.1 - ML & CV. Модификации градиентного спуска. RProp
17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
18 - ML & CV. Свёртка, каскад свёрток
🎥 10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
👁 1 раз ⏳ 749 сек.
🎥 11 - ML & CV. Многоклассовая классификация? Софтмакс!
👁 1 раз ⏳ 1276 сек.
🎥 12 - ML & CV. Локализация, детекция, сегментация и super-resolution
👁 1 раз ⏳ 1073 сек.
🎥 13 - ML & CV. Семинар: Строим первую нейронную сеть
👁 1 раз ⏳ 981 сек.
🎥 14 - ML & CV. Семинар: Классификация в PyTorch
👁 1 раз ⏳ 997 сек.
🎥 15 - ML & CV. Самый обычный градиентный спуск
👁 1 раз ⏳ 644 сек.
🎥 16 - ML & CV. Модификации градиентного спуска
👁 1 раз ⏳ 1139 сек.
🎥 16.1 - ML & CV. Модификации градиентного спуска. RProp
👁 1 раз ⏳ 155 сек.
🎥 17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
👁 1 раз ⏳ 1164 сек.
🎥 18 - ML & CV. Свёртка, каскад свёрток
👁 1 раз ⏳ 1489 сек.
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
11 - ML & CV. Многоклассовая классификация? Софтмакс!
12 - ML & CV. Локализация, детекция, сегментация и super-resolution
13 - ML & CV. Семинар: Строим первую нейронную сеть
14 - ML & CV. Семинар: Классификация в PyTorch
15 - ML & CV. Самый обычный градиентный спуск
16 - ML & CV. Модификации градиентного спуска
16.1 - ML & CV. Модификации градиентного спуска. RProp
17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
18 - ML & CV. Свёртка, каскад свёрток
🎥 10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
👁 1 раз ⏳ 749 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 11 - ML & CV. Многоклассовая классификация? Софтмакс!
👁 1 раз ⏳ 1276 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 12 - ML & CV. Локализация, детекция, сегментация и super-resolution
👁 1 раз ⏳ 1073 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 13 - ML & CV. Семинар: Строим первую нейронную сеть
👁 1 раз ⏳ 981 сек.
Лектор: Игорь Слинько
Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_sin_prediction.ip...🎥 14 - ML & CV. Семинар: Классификация в PyTorch
👁 1 раз ⏳ 997 сек.
Лектор: Игорь Слинько
Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_wine_prediction.i...🎥 15 - ML & CV. Самый обычный градиентный спуск
👁 1 раз ⏳ 644 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 16 - ML & CV. Модификации градиентного спуска
👁 1 раз ⏳ 1139 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 16.1 - ML & CV. Модификации градиентного спуска. RProp
👁 1 раз ⏳ 155 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
👁 1 раз ⏳ 1164 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module04_m...🎥 18 - ML & CV. Свёртка, каскад свёрток
👁 1 раз ⏳ 1489 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2paVk
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
Лектор: Михаил Романов https://stepik.org/50352 Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Creating An Explainable Machine Learning Algorithm
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
https://towardsdatascience.com/creating-an-explainable-machine-learning-algorithm-19ea9af8231c?source=collection_home---4------5-----------------------
🔗 Creating An Explainable Machine Learning Algorithm - Towards Data Science
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
https://towardsdatascience.com/creating-an-explainable-machine-learning-algorithm-19ea9af8231c?source=collection_home---4------5-----------------------
🔗 Creating An Explainable Machine Learning Algorithm - Towards Data Science
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
Medium
Creating An Explainable Machine Learning Algorithm
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
9 Tips For Training Lightning Fast Neural Networks In Pytorch
https://towardsdatascience.com/9-tips-for-training-lightning-fast-neural-networks-in-pytorch-8e63a502f565
🔗 9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
https://towardsdatascience.com/9-tips-for-training-lightning-fast-neural-networks-in-pytorch-8e63a502f565
🔗 9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
Medium
9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
Нейронные сети и компьютерное зрение (Часть 3)
19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle
🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз ⏳ 600 сек.
🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз ⏳ 1628 сек.
🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз ⏳ 1097 сек.
🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз ⏳ 1187 сек.
🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз ⏳ 1603 сек.
🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз ⏳ 817 сек.
🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз ⏳ 1223 сек.
🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз ⏳ 1181 сек.
🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз ⏳ 2463 сек.
19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle
🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз ⏳ 600 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз ⏳ 1628 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз ⏳ 1097 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз ⏳ 1187 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module05_m...🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз ⏳ 1603 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз ⏳ 817 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз ⏳ 1223 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module06_m...🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз ⏳ 1181 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз ⏳ 2463 сек.
Лектор: Игорь Слинько
Код для этого урока доступен здесь
https://www.kaggle.com/yellowduck/baseline-in-pytorch
После записи этого урока мы немног...Vk
19 - ML & CV. Собери их все: архитектура LeNet (1998)
Лектор: Михаил Романов https://stepik.org/50352 Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.
🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
What is it, how it is calculated and when to use it.
🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
Medium
Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.
Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------
🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------
🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
Medium
Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
MIDL 2019, Day 3: Presentation by Bart Liefers
https://www.youtube.com/watch?v=8iMSM8ijk7A
🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз ⏳ 1221 сек.
https://www.youtube.com/watch?v=8iMSM8ijk7A
🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз ⏳ 1221 сек.
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Application to Retinal Optical Coherence Tomography' at the MIDL (Medical Imaging and Deep Learning) 2019 conference in London, United Kingdom.
Paper: http://proceedings.mlr.press/v102/liefers19a.html
MIDL 2019 website: https://2019.midl.ioYouTube
MIDL 2019, Day 3: Presentation by Bart Liefers
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Applica...
Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
🎥 Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
👁 1 раз ⏳ 1314 сек.
🎥 Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
👁 1 раз ⏳ 1314 сек.
Welcome back to this series on reinforcement learning! In this episode, we’ll be continuing to develop the code project we’ve been working on to build a deep Q-network to master the cart and pole problem. We'll see how to manage the environment and process images that will be passed to our deep Q-network as input.
💥🦎 DEEPLIZARD COMMUNITY RESOURCES 🦎💥
👀 OUR VLOG:
🔗 https://www.youtube.com/channel/UC9cBIteC3u7Ee6bzeOcl_Og
👉 Check out the blog post and other resources for this video:
🔗 https://deeplizard.cVk
Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
Welcome back to this series on reinforcement learning! In this episode, we’ll be continuing to develop the code project we’ve been working on to build a deep Q-network to master the cart and pole problem. We'll see how to manage the environment and process…
New Structures for Physics | Bob Coecke | Springer
🔗 New Structures for Physics | Bob Coecke | Springer
This volume provides a series of tutorials on mathematical structures which recently have gained prominence in physics, ranging from quantum foundations, via quantum information, to quantum gravity. These include the theory of monoidal categories and corresponding graphical calculi, Girard’s...
🔗 New Structures for Physics | Bob Coecke | Springer
This volume provides a series of tutorials on mathematical structures which recently have gained prominence in physics, ranging from quantum foundations, via quantum information, to quantum gravity. These include the theory of monoidal categories and corresponding graphical calculi, Girard’s...
Springer
New Structures for Physics | Bob Coecke | Springer
This volume provides a series of tutorials on mathematical structures which recently have gained prominence in physics, ranging from quantum foundations, via quantum information, to quantum gravity. These include the theory of monoidal categories and corresponding…
Выравнивание лица за одну миллисекунду с помощью ансамбля
В этой статье рассматривается задача выравнивания лица для одного изображения. Мы покажем, как ансамбль деревьев регрессии можно использовать для прогнозирования положения ориентиров лица непосредственно по рассеянному подмножеству интенсивностей пикселей, достигая супер-производительности в режиме реального времени с предсказаниями высокого качества. Мы представляем общую структуру, основанную на градиентном бустинге, для изучения ансамбля деревьев регрессии, который оптимизирует сумму квадратичных потерь и, естественно, обрабатывает отсутствующие или частично помеченные данные. Мы покажем, как использование соответствующих распределений, учитывающих структуру данных изображения, помогает в эффективном выборе признаков. Также исследуются различные стратегии регуляризации и их важность для борьбы с переобучением. Кроме того, мы анализируем влияние количества обучающих данных на точность прогнозов и исследуем эффект увеличения данных с использованием синтезированных данных.
https://habr.com/ru/company/otus/blog/460541/
🔗 Выравнивание лица за одну миллисекунду с помощью ансамбля деревьев регрессии
Перевод статьи подготовлен для студентов курса «Математика для Data Science» Аннотация В этой статье рассматривается задача выравнивания лица для одного изобра...
В этой статье рассматривается задача выравнивания лица для одного изображения. Мы покажем, как ансамбль деревьев регрессии можно использовать для прогнозирования положения ориентиров лица непосредственно по рассеянному подмножеству интенсивностей пикселей, достигая супер-производительности в режиме реального времени с предсказаниями высокого качества. Мы представляем общую структуру, основанную на градиентном бустинге, для изучения ансамбля деревьев регрессии, который оптимизирует сумму квадратичных потерь и, естественно, обрабатывает отсутствующие или частично помеченные данные. Мы покажем, как использование соответствующих распределений, учитывающих структуру данных изображения, помогает в эффективном выборе признаков. Также исследуются различные стратегии регуляризации и их важность для борьбы с переобучением. Кроме того, мы анализируем влияние количества обучающих данных на точность прогнозов и исследуем эффект увеличения данных с использованием синтезированных данных.
https://habr.com/ru/company/otus/blog/460541/
🔗 Выравнивание лица за одну миллисекунду с помощью ансамбля деревьев регрессии
Перевод статьи подготовлен для студентов курса «Математика для Data Science» Аннотация В этой статье рассматривается задача выравнивания лица для одного изобра...
Хабр
Поиск контуров лица за одну миллисекунду с помощью ансамбля деревьев регрессии
Перевод статьи подготовлен для студентов курса «Математика для Data Science» Аннотация В этой статье рассматривается задача поиска контуров лица для одного изображения. Мы покажем, как ансамбль...
🔥24 июля в 20:00 мск приглашаем на День открытых дверей курса «Математика для Data Science»: https://otus.pw/Fghn/
Старт курса уже 30 июля - успейте пройти вступительный тест: https://otus.pw/XLae/
На бесплатном вебинаре:
- вы познакомитесь с преподавателем курса Пётром Лукьянченко - преподавателем ВШЭ по высшей математике (работал в Lamoda на должности Team Lead Analytics);
- сможете задать любые вопросы по Data Science;
- узнаете подробнее о хардкорной программе курса, формате обучения и выпускном проекте;
расскажем о карьерных перспективах и компаниях (NVIDIA, Лаборатория Касперского, OZON, СберТех, Газпромбанк, Тинькофф, МТС, Avito и другие), которые уже ждут выпускников курса «Математика для Data Science» на собеседования.
Вебинар рассчитан на всех, кто хочет развиваться в сфере Data Science.
Регистрируйтесь сейчас - напомним в день вебинара!
🔗 Математика для Data Science | OTUS
Профессиональные онлайн курсы для разработчиков
🎥 Untitled
👁 5698 раз ⏳ 52 сек.
Старт курса уже 30 июля - успейте пройти вступительный тест: https://otus.pw/XLae/
На бесплатном вебинаре:
- вы познакомитесь с преподавателем курса Пётром Лукьянченко - преподавателем ВШЭ по высшей математике (работал в Lamoda на должности Team Lead Analytics);
- сможете задать любые вопросы по Data Science;
- узнаете подробнее о хардкорной программе курса, формате обучения и выпускном проекте;
расскажем о карьерных перспективах и компаниях (NVIDIA, Лаборатория Касперского, OZON, СберТех, Газпромбанк, Тинькофф, МТС, Avito и другие), которые уже ждут выпускников курса «Математика для Data Science» на собеседования.
Вебинар рассчитан на всех, кто хочет развиваться в сфере Data Science.
Регистрируйтесь сейчас - напомним в день вебинара!
🔗 Математика для Data Science | OTUS
Профессиональные онлайн курсы для разработчиков
🎥 Untitled
👁 5698 раз ⏳ 52 сек.
Otus
Математика для Data Science | OTUS
Профессиональные онлайн курсы для разработчиков
Как мы запустили роботов в маленький Чернобыль
История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии, мой друг Леша сказал: «Представь себе будущее, в котором люди в виде развлечения, из любой части мира управляют на игровом полигоне настоящими роботами, как «аватарами»».
https://habr.com/ru/post/460751/
🔗 Как мы запустили роботов в маленький Чернобыль
Рождение концепции Remote Reality История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии,...
История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии, мой друг Леша сказал: «Представь себе будущее, в котором люди в виде развлечения, из любой части мира управляют на игровом полигоне настоящими роботами, как «аватарами»».
https://habr.com/ru/post/460751/
🔗 Как мы запустили роботов в маленький Чернобыль
Рождение концепции Remote Reality История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии,...
Хабр
Как мы запустили роботов в маленький Чернобыль. Часть 1
Рождение концепции Remote Reality История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии, мой друг Леша сказал: «Представь себе...
🎥 Машинное обучение. Лекция 1
👁 4 раз ⏳ 5108 сек.
👁 4 раз ⏳ 5108 сек.
Распознавание и синтез речи, мультимодальная биометрия
http://www.speechpro.ru/
STC ML School 2019 19.07Vk
Машинное обучение. Лекция 1
Распознавание и синтез речи, мультимодальная биометрия
http://www.speechpro.ru/
STC ML School 2019 19.07
http://www.speechpro.ru/
STC ML School 2019 19.07
Робот, который поедет за вашей улыбкой. Делаем дешевую тележку для изучения ROS.Часть 1-я, железная
Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И, первое желание — вернуться в управлении роботом на старые добрые скрипты. Но нет. Каждый взрослый мужчина должен собрать для мужчины поменьше что-то, что бы ездило, мигало, пищало. В качестве платформы была выбрана ROS, так как все же это следующий шаг в развитии роботов в мире бездушных ардуино. Предлагается собрать ROS «тележку», которая будет не только дешевая, но и функциональная: сможет поехать по линии на полу, вашим котом, вашим телом :)
https://habr.com/ru/post/460755/
🔗 Робот, который поедет за вашей улыбкой. Делаем дешевую тележку для изучения ROS.Часть 1-я, железная
Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И,...
Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И, первое желание — вернуться в управлении роботом на старые добрые скрипты. Но нет. Каждый взрослый мужчина должен собрать для мужчины поменьше что-то, что бы ездило, мигало, пищало. В качестве платформы была выбрана ROS, так как все же это следующий шаг в развитии роботов в мире бездушных ардуино. Предлагается собрать ROS «тележку», которая будет не только дешевая, но и функциональная: сможет поехать по линии на полу, вашим котом, вашим телом :)
https://habr.com/ru/post/460755/
🔗 Робот, который поедет за вашей улыбкой. Делаем дешевую тележку для изучения ROS.Часть 1-я, железная
Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И,...
Хабр
Робот-тележка на ROS.Часть 1. Железо
Посты серии: 8. Управляем с телефона-ROS Control, GPS-нода 7. Локализация робота: gmapping, AMCL, реперные точки на карте помещения 6. Одометрия с энкодеров колес, карта помещения, лидар 5....
huggingface/pytorch-transformers
🔗 huggingface/pytorch-transformers
👾 A library of state-of-the-art pretrained models for Natural Language Processing (NLP) - huggingface/pytorch-transformers
🔗 huggingface/pytorch-transformers
👾 A library of state-of-the-art pretrained models for Natural Language Processing (NLP) - huggingface/pytorch-transformers
GitHub
GitHub - huggingface/transformers: 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. - huggingface/transformers
R Squared Interpretation | R Squared Linear Regression
🔗 R Squared Interpretation | R Squared Linear Regression
How to calculate and interpret R Squared. An example which covers the meaning of the R Squared score in relation to linear regression.
🔗 R Squared Interpretation | R Squared Linear Regression
How to calculate and interpret R Squared. An example which covers the meaning of the R Squared score in relation to linear regression.
Medium
R Squared Interpretation | R Squared Linear Regression
How to calculate and interpret R Squared. An example which covers the meaning of the R Squared score in relation to linear regression.
Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
🔗 Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
🔗 Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
Medium
Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?
До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающие значения. На практике же, когда вы используете нейросеть для атаки на проблему, может быть сложно найти хорошие гиперпараметры. Представьте, к примеру, что нам только что рассказали о задаче MNIST, и мы начали работать над ней, ничего не зная по поводу величин подходящих гиперпараметров. Допустим, что нам случайно повезло, и в первых экспериментах мы выбрали многие гиперпараметры так, как уже делали в этой главе: 30 скрытых нейронов, размер мини-пакета 10, обучение за 30 эпох и использование перекрёстной энтропии. Однако мы выбрали скорость обучения η=10,0, и параметр регуляризации λ=1000,0. И вот, что я увидел при таком прогоне
Машинное обучение,
Искусственный интеллект
https://habr.com/ru/post/460711/
🔗 Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?
До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающи...
До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающие значения. На практике же, когда вы используете нейросеть для атаки на проблему, может быть сложно найти хорошие гиперпараметры. Представьте, к примеру, что нам только что рассказали о задаче MNIST, и мы начали работать над ней, ничего не зная по поводу величин подходящих гиперпараметров. Допустим, что нам случайно повезло, и в первых экспериментах мы выбрали многие гиперпараметры так, как уже делали в этой главе: 30 скрытых нейронов, размер мини-пакета 10, обучение за 30 эпох и использование перекрёстной энтропии. Однако мы выбрали скорость обучения η=10,0, и параметр регуляризации λ=1000,0. И вот, что я увидел при таком прогоне
Машинное обучение,
Искусственный интеллект
https://habr.com/ru/post/460711/
🔗 Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?
До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающи...
Хабр
Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?
Содержание Глава 1: использование нейросетей для распознавания рукописных цифр Глава 2: как работает алгоритм обратного распространения Глава 3: ч.1: улучшение способа обучения нейросетей ч.2: почему...
Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation
🔗 Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation
An overview of machine learning systems for online content moderation
🔗 Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation
Medium
Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation
How to deal with Uncertainty in the era of Deep Learning
TensorFlow introduces Probabilistic Modeling in the Deep Learning Community
https://towardsdatascience.com/how-to-deal-with-uncertainty-in-the-era-of-deep-learning-977decdf84b5?source=collection_home---4------0-----------------------
🔗 How to deal with Uncertainty in the era of Deep Learning
TensorFlow introduces Probabilistic Modeling in the Deep Learning Community
TensorFlow introduces Probabilistic Modeling in the Deep Learning Community
https://towardsdatascience.com/how-to-deal-with-uncertainty-in-the-era-of-deep-learning-977decdf84b5?source=collection_home---4------0-----------------------
🔗 How to deal with Uncertainty in the era of Deep Learning
TensorFlow introduces Probabilistic Modeling in the Deep Learning Community
Medium
How to deal with Uncertainty in the era of Deep Learning
TensorFlow introduces Probabilistic Modeling in the Deep Learning Community