Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Нейронные сети и компьютерное зрение (Часть 3)

19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle

🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз 600 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз 1628 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз 1097 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз 1187 сек.
Лектор: Игорь Слинько

Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module05_m...


🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз 1603 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз 817 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз 1223 сек.
Лектор: Игорь Слинько

Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module06_m...


🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз 1181 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз 2463 сек.
Лектор: Игорь Слинько

Код для этого урока доступен здесь
https://www.kaggle.com/yellowduck/baseline-in-pytorch

После записи этого урока мы немног...
​Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.

🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
​Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------

🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
MIDL 2019, Day 3: Presentation by Bart Liefers
https://www.youtube.com/watch?v=8iMSM8ijk7A

🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз 1221 сек.
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Application to Retinal Optical Coherence Tomography' at the MIDL (Medical Imaging and Deep Learning) 2019 conference in London, United Kingdom.

Paper: http://proceedings.mlr.press/v102/liefers19a.html

MIDL 2019 website: https://2019.midl.io
Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project

🎥 Deep Q-Network Image Processing and Environment Management - Reinforcement Learning Code Project
👁 1 раз 1314 сек.
Welcome back to this series on reinforcement learning! In this episode, we’ll be continuing to develop the code project we’ve been working on to build a deep Q-network to master the cart and pole problem. We'll see how to manage the environment and process images that will be passed to our deep Q-network as input.

💥🦎 DEEPLIZARD COMMUNITY RESOURCES 🦎💥

👀 OUR VLOG:
🔗 https://www.youtube.com/channel/UC9cBIteC3u7Ee6bzeOcl_Og

👉 Check out the blog post and other resources for this video:
🔗 https://deeplizard.c
​New Structures for Physics | Bob Coecke | Springer

🔗 New Structures for Physics | Bob Coecke | Springer
This volume provides a series of tutorials on mathematical structures which recently have gained prominence in physics, ranging from quantum foundations, via quantum information, to quantum gravity. These include the theory of monoidal categories and corresponding graphical calculi, Girard’s...
​Выравнивание лица за одну миллисекунду с помощью ансамбля

В этой статье рассматривается задача выравнивания лица для одного изображения. Мы покажем, как ансамбль деревьев регрессии можно использовать для прогнозирования положения ориентиров лица непосредственно по рассеянному подмножеству интенсивностей пикселей, достигая супер-производительности в режиме реального времени с предсказаниями высокого качества. Мы представляем общую структуру, основанную на градиентном бустинге, для изучения ансамбля деревьев регрессии, который оптимизирует сумму квадратичных потерь и, естественно, обрабатывает отсутствующие или частично помеченные данные. Мы покажем, как использование соответствующих распределений, учитывающих структуру данных изображения, помогает в эффективном выборе признаков. Также исследуются различные стратегии регуляризации и их важность для борьбы с переобучением. Кроме того, мы анализируем влияние количества обучающих данных на точность прогнозов и исследуем эффект увеличения данных с использованием синтезированных данных.

https://habr.com/ru/company/otus/blog/460541/

🔗 Выравнивание лица за одну миллисекунду с помощью ансамбля деревьев регрессии
Перевод статьи подготовлен для студентов курса «Математика для Data Science» Аннотация В этой статье рассматривается задача выравнивания лица для одного изобра...
🔥24 июля в 20:00 мск приглашаем на День открытых дверей курса «Математика для Data Science»: https://otus.pw/Fghn/
Старт курса уже 30 июля - успейте пройти вступительный тест: https://otus.pw/XLae/

На бесплатном вебинаре:
- вы познакомитесь с преподавателем курса Пётром Лукьянченко - преподавателем ВШЭ по высшей математике (работал в Lamoda на должности Team Lead Analytics);
- сможете задать любые вопросы по Data Science;
- узнаете подробнее о хардкорной программе курса, формате обучения и выпускном проекте;
расскажем о карьерных перспективах и компаниях (NVIDIA, Лаборатория Касперского, OZON, СберТех, Газпромбанк, Тинькофф, МТС, Avito и другие), которые уже ждут выпускников курса «Математика для Data Science» на собеседования.

Вебинар рассчитан на всех, кто хочет развиваться в сфере Data Science.
Регистрируйтесь сейчас - напомним в день вебинара!

🔗 Математика для Data Science | OTUS
Профессиональные онлайн курсы для разработчиков


🎥 Untitled
👁 5698 раз 52 сек.
​Как мы запустили роботов в маленький Чернобыль

История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии, мой друг Леша сказал: «Представь себе будущее, в котором люди в виде развлечения, из любой части мира управляют на игровом полигоне настоящими роботами, как «аватарами»».
https://habr.com/ru/post/460751/

🔗 Как мы запустили роботов в маленький Чернобыль
Рождение концепции Remote Reality История нашего «безумного» проекта началась три года назад, когда размышляя о будущих перспективах развития игровой индустрии,...
​Робот, который поедет за вашей улыбкой. Делаем дешевую тележку для изучения ROS.Часть 1-я, железная

Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И, первое желание — вернуться в управлении роботом на старые добрые скрипты. Но нет. Каждый взрослый мужчина должен собрать для мужчины поменьше что-то, что бы ездило, мигало, пищало. В качестве платформы была выбрана ROS, так как все же это следующий шаг в развитии роботов в мире бездушных ардуино. Предлагается собрать ROS «тележку», которая будет не только дешевая, но и функциональная: сможет поехать по линии на полу, вашим котом, вашим телом :)
https://habr.com/ru/post/460755/

🔗 Робот, который поедет за вашей улыбкой. Делаем дешевую тележку для изучения ROS.Часть 1-я, железная
Начав изучать ROS (Robotic operation system), сначала поражаешься, как тут «все сложно», от количества информации про топики, ноды,actions голова идет кругом. И,...
​Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?

🔗 Creating a License Plate Reading iOS Application Using OCR Technologies and CoreData
Full tutorial using different libraries — TesseractOCRiOS, SwiftOCR, and Google MLVision | Can we beat Google?
​Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?

До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающие значения. На практике же, когда вы используете нейросеть для атаки на проблему, может быть сложно найти хорошие гиперпараметры. Представьте, к примеру, что нам только что рассказали о задаче MNIST, и мы начали работать над ней, ничего не зная по поводу величин подходящих гиперпараметров. Допустим, что нам случайно повезло, и в первых экспериментах мы выбрали многие гиперпараметры так, как уже делали в этой главе: 30 скрытых нейронов, размер мини-пакета 10, обучение за 30 эпох и использование перекрёстной энтропии. Однако мы выбрали скорость обучения η=10,0, и параметр регуляризации λ=1000,0. И вот, что я увидел при таком прогоне
Машинное обучение,
Искусственный интеллект
https://habr.com/ru/post/460711/

🔗 Нейросети и глубокое обучение, глава 3, ч.3: как выбрать гиперпараметры нейросети?
До сих пор я не объяснял, как я выбираю значения гиперпараметров – скорость обучения η, параметр регуляризации λ, и так далее. Я просто выдавал неплохо работающи...
​Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation

🔗 Machine Learning for Content Moderation — Introduction
An overview of machine learning systems for online content moderation
#OracleAmbassador #Agile #DataScience
Experience Innovation: Four Exciting AI, Machine Learning and Predictive Analytics Use Cases
https://www.youtube.com/watch?v=0x4uUNHP3os

🎥 Experience Innovation: Four Exciting AI, Machine Learning and Predictive Analytics Use Cases
👁 1 раз 4391 сек.
#OracleAmbassador @Oracle #Agile #DataScience #DigitalTransformation

Join our #Broadcast Now!

Experience #Innovation: Four Exciting #AI, #MachineLearning and Predictive #Analytics Use Cases
​Построение системы автоматического машинного обучения (SDSJ AutoML 2018) – Антон Кленицкий

🔗 Построение системы автоматического машинного обучения (SDSJ AutoML 2018) – Антон Кленицкий
Антон Кленицкий рассказывает про опыт участия в SDSJ AutoML 2018, где он занял второе место. Задача соревнования заключалась в построении системы автоматического машинного обучения. Из видео вы сможете узнать: - Подробнее о задачах соревнования: 3 задачи на регрессию и 5 задач на классификацию - Почему было тяжело валидироваться - Детали решения второго места Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакте https://vk.com/mlt