Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.
https://www.youtube.com/watch?v=lA77zsJ31nA
🎥 Watch Elon Musk’s Neuralink presentation
👁 1 раз ⏳ 1109 сек.
https://www.youtube.com/watch?v=lA77zsJ31nA
🎥 Watch Elon Musk’s Neuralink presentation
👁 1 раз ⏳ 1109 сек.
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.
Subscribe to CNET: https://www.youtYouTube
Watch Elon Musk’s original Neuralink presentation
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July…
Как выглядят банки изнутри
#DataMining #BigData
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией.
В качестве источника данных — главная бухгалтерская книга банка. Используя теорию графов, выделяем всех его клиентов в качестве узлов, а операции по счёту используем как ребра. Сумма операции, в таком случае, будет являться весом ребра.
https://habr.com/ru/post/460687/
🔗 Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
#DataMining #BigData
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией.
В качестве источника данных — главная бухгалтерская книга банка. Используя теорию графов, выделяем всех его клиентов в качестве узлов, а операции по счёту используем как ребра. Сумма операции, в таком случае, будет являться весом ребра.
https://habr.com/ru/post/460687/
🔗 Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
Хабр
Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
AI Discovers Sentiment By Writing Amazon Reviews
https://www.youtube.com/watch?v=hYWr67i8z5o&feature=youtu.be
🎥 AI Discovers Sentiment By Writing Amazon Reviews
👁 1 раз ⏳ 246 сек.
https://www.youtube.com/watch?v=hYWr67i8z5o&feature=youtu.be
🎥 AI Discovers Sentiment By Writing Amazon Reviews
👁 1 раз ⏳ 246 сек.
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers
📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here:
https://openai.com/blog/unsupervised-sentiment-neuron/
https://arxiv.org/abs/1704.01444
🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible:
313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, CYouTube
AI Discovers Sentiment By Writing Amazon Reviews
❤️ Support the show on Patreon: https://www.patreon.com/TwoMinutePapers ₿ Crypto and PayPal links are available below. Thank you very much for your generous ...
Deep Learning For Real Time Streaming Data With Kafka And Tensorflow
#ODSC #DeepLearning #Tensorflow
https://www.youtube.com/watch?v=HenBuC4ATb0
🔗 Deep Learning For Real Time Streaming Data With Kafka And Tensorflow | YongTang - ODSC East 2019
In mission-critical real time applications, using machine learning to analyze streaming data are gaining momentum. In those applications Apache Kafka is the most widely used framework to process the data streams. It typically works with other machine learning frameworks for model inference and training purposes. In this talk, our focus is to discuss the KafkaDataset module in TensorFlow. KafkaDataset processes Kafka streaming data directly to TensorFlow's graph. As a part of Tensorflow (in `tf.contrib`), t
#ODSC #DeepLearning #Tensorflow
https://www.youtube.com/watch?v=HenBuC4ATb0
🔗 Deep Learning For Real Time Streaming Data With Kafka And Tensorflow | YongTang - ODSC East 2019
In mission-critical real time applications, using machine learning to analyze streaming data are gaining momentum. In those applications Apache Kafka is the most widely used framework to process the data streams. It typically works with other machine learning frameworks for model inference and training purposes. In this talk, our focus is to discuss the KafkaDataset module in TensorFlow. KafkaDataset processes Kafka streaming data directly to TensorFlow's graph. As a part of Tensorflow (in `tf.contrib`), t
AI Discovers Sentiment By Writing Amazon Reviews
🔗 AI Discovers Sentiment By Writing Amazon Reviews
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here: https://openai.com/blog/unsupervised-sentiment-neuron/ https://arxiv.org/abs/1704.01444 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
🔗 AI Discovers Sentiment By Writing Amazon Reviews
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here: https://openai.com/blog/unsupervised-sentiment-neuron/ https://arxiv.org/abs/1704.01444 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
YouTube
AI Discovers Sentiment By Writing Amazon Reviews
❤️ Support the show on Patreon: https://www.patreon.com/TwoMinutePapers₿ Crypto and PayPal links are available below. Thank you very much for your generous s...
Data Exploration with Adversarial Autoencoders
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
https://towardsdatascience.com/data-exploration-with-adversarial-autoencoders-311a4e1f271b?source=collection_home---4------1-----------------------
🔗 Data Exploration with Adversarial Autoencoders - Towards Data Science
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
https://towardsdatascience.com/data-exploration-with-adversarial-autoencoders-311a4e1f271b?source=collection_home---4------1-----------------------
🔗 Data Exploration with Adversarial Autoencoders - Towards Data Science
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
Medium
Data Exploration with Adversarial Autoencoders
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
Comprehending the concept of ‘Comprehensions’ in Python
Understanding and implementing the list, dictionary, set, and generator comprehensions in python.
https://towardsdatascience.com/comprehending-the-concept-of-comprehensions-in-python-c9dafce5111?source=collection_home---4------0-----------------------
🔗 Comprehending the concept of ‘Comprehensions’ in Python
Understanding and implementing the list, dictionary, set, and generator comprehensions in python.
Understanding and implementing the list, dictionary, set, and generator comprehensions in python.
https://towardsdatascience.com/comprehending-the-concept-of-comprehensions-in-python-c9dafce5111?source=collection_home---4------0-----------------------
🔗 Comprehending the concept of ‘Comprehensions’ in Python
Understanding and implementing the list, dictionary, set, and generator comprehensions in python.
Medium
Comprehending the concept of ‘Comprehensions’ in Python
Understanding and implementing the list, dictionary, set, and generator comprehensions in python.
Balancing Who Handles Data Inconsistency
In Production, things inevitably get wonky, and that’s normal
https://towardsdatascience.com/balancing-who-handles-data-inconsistency-72779a1404b8?source=collection_home---4------0-----------------------
🔗 Balancing Who Handles Data Inconsistency - Towards Data Science
In Production, things inevitably get wonky, and that’s normal
In Production, things inevitably get wonky, and that’s normal
https://towardsdatascience.com/balancing-who-handles-data-inconsistency-72779a1404b8?source=collection_home---4------0-----------------------
🔗 Balancing Who Handles Data Inconsistency - Towards Data Science
In Production, things inevitably get wonky, and that’s normal
Medium
Balancing Who Handles Data Inconsistency
In Production, things inevitably get wonky, and that’s normal
#Dataquality #Machinelearning #Datascientist
"Data Quality Check In Machine Learning"
https://www.youtube.com/watch?v=DRGajth6OO4/
🎥 "Data Quality Check In Machine Learning"
👁 1 раз ⏳ 3348 сек.
"Data Quality Check In Machine Learning"
https://www.youtube.com/watch?v=DRGajth6OO4/
🎥 "Data Quality Check In Machine Learning"
👁 1 раз ⏳ 3348 сек.
The world of data quality check in Machine Learning is expanding at an unimaginable pace. Researchers estimate that by 2020, every human would create 1.7MB of information each second. The true power of data can be unlocked when it is refined and transformed into a high quality state where we can realize its true potential. Many businesses and researchers believe that data quality is one of the primary concerns for data-driven enterprises and associated processes considering the pace of data growth. Most ofYouTube
"Data Quality Check In Machine Learning"
The world of data quality check in Machine Learning is expanding at an unimaginable pace. Researchers estimate that by 2020, every human would create 1.7MB o...
Lecture 15 | Machine Learning (PSI 18/19, Explorations) - Michael Albergo (Perimeter) 2019.4.12 9:00
https://www.youtube.com/watch?v=uAOsfOmdYvQ
🎥 Lecture 15 | Machine Learning (PSI 18/19, Explorations) - Michael Albergo (Perimeter) 2019.4.12 9:00
👁 1 раз ⏳ 3518 сек.
https://www.youtube.com/watch?v=uAOsfOmdYvQ
🎥 Lecture 15 | Machine Learning (PSI 18/19, Explorations) - Michael Albergo (Perimeter) 2019.4.12 9:00
👁 1 раз ⏳ 3518 сек.
YouTube
Lecture 15 | Machine Learning (PSI 18/19, Explorations) - Michael Albergo (Perimeter) 2019.4.12 9:00
Нейронные сети и компьютерное зрение
00 - ML & CV. О курсе
01 - ML & CV. Математическая модель нейрона
02 - ML & CV. Булевы операции в виде нейронов
03 - ML & CV. От нейрона к нейронной сети
04 - ML & CV. Семинар: Базовая работа в PyTorch
05 - ML & CV. Восстановление зависимости нейронной сетью
06 - ML & CV. Компоненты нейронной сети
07 - ML & CV. Алгоритм настройки нейронной сети
08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
🎥 00 - ML & CV. О курсе
👁 1 раз ⏳ 242 сек.
🎥 01 - ML & CV. Математическая модель нейрона
👁 1 раз ⏳ 890 сек.
🎥 02 - ML & CV. Булевы операции в виде нейронов
👁 1 раз ⏳ 766 сек.
🎥 03 - ML & CV. От нейрона к нейронной сети
👁 1 раз ⏳ 228 сек.
🎥 04 - ML & CV. Семинар: Базовая работа в PyTorch
👁 1 раз ⏳ 818 сек.
🎥 05 - ML & CV. Восстановление зависимости нейронной сетью
👁 1 раз ⏳ 226 сек.
🎥 06 - ML & CV. Компоненты нейронной сети
👁 1 раз ⏳ 816 сек.
🎥 07 - ML & CV. Алгоритм настройки нейронной сети
👁 1 раз ⏳ 1032 сек.
🎥 08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
👁 1 раз ⏳ 259 сек.
🎥 09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
👁 1 раз ⏳ 760 сек.
00 - ML & CV. О курсе
01 - ML & CV. Математическая модель нейрона
02 - ML & CV. Булевы операции в виде нейронов
03 - ML & CV. От нейрона к нейронной сети
04 - ML & CV. Семинар: Базовая работа в PyTorch
05 - ML & CV. Восстановление зависимости нейронной сетью
06 - ML & CV. Компоненты нейронной сети
07 - ML & CV. Алгоритм настройки нейронной сети
08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
🎥 00 - ML & CV. О курсе
👁 1 раз ⏳ 242 сек.
Лекторы: Михаил Романов и Игорь Слинько
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 01 - ML & CV. Математическая модель нейрона
👁 1 раз ⏳ 890 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 02 - ML & CV. Булевы операции в виде нейронов
👁 1 раз ⏳ 766 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 03 - ML & CV. От нейрона к нейронной сети
👁 1 раз ⏳ 228 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 04 - ML & CV. Семинар: Базовая работа в PyTorch
👁 1 раз ⏳ 818 сек.
Лектор: Игорь Слинько
Попробуйте зайти в Google Colaboratory и проимпортировать torch.
Для этого:
1. Зайдите на сайт https://colab.research.goo...🎥 05 - ML & CV. Восстановление зависимости нейронной сетью
👁 1 раз ⏳ 226 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 06 - ML & CV. Компоненты нейронной сети
👁 1 раз ⏳ 816 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 07 - ML & CV. Алгоритм настройки нейронной сети
👁 1 раз ⏳ 1032 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
👁 1 раз ⏳ 259 сек.
Лектор: Игорь Слинько
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
👁 1 раз ⏳ 760 сек.
Лектор: Игорь Слинько
Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module02_gradient_descent....Vk
00 - ML & CV. О курсе
Лекторы: Михаил Романов и Игорь Слинько https://stepik.org/50352 Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Adaptive and Array Signal Processing". А именно основами адаптивной фильтрации.
Для кого в первую очередь была написана эта статья:
1) для студенческой братии родной специальности;
2) для преподавателей, которые готовят практические семинары, но ещё не определились с инструментарием — ниже будут примеры на python и Matlab/Octave;
3) для всех, кто интересуется темой фильтрации.
Что можно найти под катом:
1) сведения из теории, которые я постарался оформить максимально сжато, но, как мне кажется, информативно;
2) примеры применения фильтров: в частности, в рамках эквалайзера для антенной решетки;
3) ссылки на базисную литературу и открытые библиотеки (на python), которые могут быть полезны для исследований.
https://habr.com/ru/post/455497/
🔗 Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Ad...
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Adaptive and Array Signal Processing". А именно основами адаптивной фильтрации.
Для кого в первую очередь была написана эта статья:
1) для студенческой братии родной специальности;
2) для преподавателей, которые готовят практические семинары, но ещё не определились с инструментарием — ниже будут примеры на python и Matlab/Octave;
3) для всех, кто интересуется темой фильтрации.
Что можно найти под катом:
1) сведения из теории, которые я постарался оформить максимально сжато, но, как мне кажется, информативно;
2) примеры применения фильтров: в частности, в рамках эквалайзера для антенной решетки;
3) ссылки на базисную литературу и открытые библиотеки (на python), которые могут быть полезны для исследований.
https://habr.com/ru/post/455497/
🔗 Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Ad...
Хабр
Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Adaptive and Array Signal...
Подборка рабочих примеров обработки данных
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для кого не секрет, что обучение на хороших примерах проходит эффективнее и быстрее. Посмотрим, что интересного нам смогут показать одни из лучших примеров по обработке данных.
Схема работы с текущим постом унаследуется от моего поста про лучшие блокноты по ML и DS, а именно — сохранил в закладки → передал коллеге.
+ бонус в конце статьи — крутой курс от ФПМИ МФТИ.
image
Итак, давайте приступим.
Подборка датасетов с рабочими примерами обработки данных:
Suicide Rates Overview 1985 to 2016 — сравнение социально-экономической информации с показателями самоубийств по годам и странам.
#Python #DataMining #BigData
#Машинноеобучение
https://habr.com/ru/post/460557/
🔗 Подборка рабочих примеров обработки данных
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами п...
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для кого не секрет, что обучение на хороших примерах проходит эффективнее и быстрее. Посмотрим, что интересного нам смогут показать одни из лучших примеров по обработке данных.
Схема работы с текущим постом унаследуется от моего поста про лучшие блокноты по ML и DS, а именно — сохранил в закладки → передал коллеге.
+ бонус в конце статьи — крутой курс от ФПМИ МФТИ.
image
Итак, давайте приступим.
Подборка датасетов с рабочими примерами обработки данных:
Suicide Rates Overview 1985 to 2016 — сравнение социально-экономической информации с показателями самоубийств по годам и странам.
#Python #DataMining #BigData
#Машинноеобучение
https://habr.com/ru/post/460557/
🔗 Подборка рабочих примеров обработки данных
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами п...
Хабр
Подборка рабочих примеров обработки данных
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для кого не...
Нейронные сети и компьютерное зрение (Часть 2)
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
11 - ML & CV. Многоклассовая классификация? Софтмакс!
12 - ML & CV. Локализация, детекция, сегментация и super-resolution
13 - ML & CV. Семинар: Строим первую нейронную сеть
14 - ML & CV. Семинар: Классификация в PyTorch
15 - ML & CV. Самый обычный градиентный спуск
16 - ML & CV. Модификации градиентного спуска
16.1 - ML & CV. Модификации градиентного спуска. RProp
17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
18 - ML & CV. Свёртка, каскад свёрток
🎥 10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
👁 1 раз ⏳ 749 сек.
🎥 11 - ML & CV. Многоклассовая классификация? Софтмакс!
👁 1 раз ⏳ 1276 сек.
🎥 12 - ML & CV. Локализация, детекция, сегментация и super-resolution
👁 1 раз ⏳ 1073 сек.
🎥 13 - ML & CV. Семинар: Строим первую нейронную сеть
👁 1 раз ⏳ 981 сек.
🎥 14 - ML & CV. Семинар: Классификация в PyTorch
👁 1 раз ⏳ 997 сек.
🎥 15 - ML & CV. Самый обычный градиентный спуск
👁 1 раз ⏳ 644 сек.
🎥 16 - ML & CV. Модификации градиентного спуска
👁 1 раз ⏳ 1139 сек.
🎥 16.1 - ML & CV. Модификации градиентного спуска. RProp
👁 1 раз ⏳ 155 сек.
🎥 17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
👁 1 раз ⏳ 1164 сек.
🎥 18 - ML & CV. Свёртка, каскад свёрток
👁 1 раз ⏳ 1489 сек.
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
11 - ML & CV. Многоклассовая классификация? Софтмакс!
12 - ML & CV. Локализация, детекция, сегментация и super-resolution
13 - ML & CV. Семинар: Строим первую нейронную сеть
14 - ML & CV. Семинар: Классификация в PyTorch
15 - ML & CV. Самый обычный градиентный спуск
16 - ML & CV. Модификации градиентного спуска
16.1 - ML & CV. Модификации градиентного спуска. RProp
17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
18 - ML & CV. Свёртка, каскад свёрток
🎥 10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
👁 1 раз ⏳ 749 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 11 - ML & CV. Многоклассовая классификация? Софтмакс!
👁 1 раз ⏳ 1276 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 12 - ML & CV. Локализация, детекция, сегментация и super-resolution
👁 1 раз ⏳ 1073 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 13 - ML & CV. Семинар: Строим первую нейронную сеть
👁 1 раз ⏳ 981 сек.
Лектор: Игорь Слинько
Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_sin_prediction.ip...🎥 14 - ML & CV. Семинар: Классификация в PyTorch
👁 1 раз ⏳ 997 сек.
Лектор: Игорь Слинько
Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module03_wine_prediction.i...🎥 15 - ML & CV. Самый обычный градиентный спуск
👁 1 раз ⏳ 644 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 16 - ML & CV. Модификации градиентного спуска
👁 1 раз ⏳ 1139 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 16.1 - ML & CV. Модификации градиентного спуска. RProp
👁 1 раз ⏳ 155 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 17 - ML & CV. Семинар: Классификация рукописных чисел полносвязанной сетью
👁 1 раз ⏳ 1164 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module04_m...🎥 18 - ML & CV. Свёртка, каскад свёрток
👁 1 раз ⏳ 1489 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2paVk
10 - ML & CV. Бинарная классификация? Бинарная кросс-энтропия!
Лектор: Михаил Романов https://stepik.org/50352 Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Creating An Explainable Machine Learning Algorithm
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
https://towardsdatascience.com/creating-an-explainable-machine-learning-algorithm-19ea9af8231c?source=collection_home---4------5-----------------------
🔗 Creating An Explainable Machine Learning Algorithm - Towards Data Science
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
https://towardsdatascience.com/creating-an-explainable-machine-learning-algorithm-19ea9af8231c?source=collection_home---4------5-----------------------
🔗 Creating An Explainable Machine Learning Algorithm - Towards Data Science
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
Medium
Creating An Explainable Machine Learning Algorithm
The What, How To and Why of Building an Explainable Machine Learning Algorithm with Results from Picking Stocks
9 Tips For Training Lightning Fast Neural Networks In Pytorch
https://towardsdatascience.com/9-tips-for-training-lightning-fast-neural-networks-in-pytorch-8e63a502f565
🔗 9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
https://towardsdatascience.com/9-tips-for-training-lightning-fast-neural-networks-in-pytorch-8e63a502f565
🔗 9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
Medium
9 Tips For Training Lightning Fast Neural Networks In Pytorch
Let’s face it, your model is probably still stuck in the stone age. I bet you’re still using 32bit precision or *GASP* perhaps even…
Нейронные сети и компьютерное зрение (Часть 3)
19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle
🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз ⏳ 600 сек.
🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз ⏳ 1628 сек.
🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз ⏳ 1097 сек.
🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз ⏳ 1187 сек.
🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз ⏳ 1603 сек.
🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз ⏳ 817 сек.
🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз ⏳ 1223 сек.
🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз ⏳ 1181 сек.
🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз ⏳ 2463 сек.
19 - ML & CV. Собери их все: архитектура LeNet (1998)
20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
23 - ML & CV. Ударим дропаутом по переобучению!
24 - ML & CV. И целой вечности мало? Батч-нормализация!
25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
26 - ML & CV. Метод максимального правдоподобия
28 - ML & CV. Transfer learning на примере соревнования на Kaggle
🎥 19 - ML & CV. Собери их все: архитектура LeNet (1998)
👁 1 раз ⏳ 600 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 20 - ML & CV. Собери их все: AlexNet (2012) и VGG (2014)
👁 1 раз ⏳ 1628 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 21 - ML & CV. Собери их все: GoogLeNet и ResNet (2015)
👁 1 раз ⏳ 1097 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 22 - ML & CV. Семинар: Классификация рукописных чисел свёрточной нейросетью
👁 1 раз ⏳ 1187 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module05_m...🎥 23 - ML & CV. Ударим дропаутом по переобучению!
👁 1 раз ⏳ 1603 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 24 - ML & CV. И целой вечности мало? Батч-нормализация!
👁 1 раз ⏳ 817 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 25 - ML & CV. Семинар: Решаем задачу классификации на датасете CIFAR
👁 1 раз ⏳ 1223 сек.
Лектор: Игорь Слинько
Код для этого урока доступен в репозитории курса
https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module06_m...🎥 26 - ML & CV. Метод максимального правдоподобия
👁 1 раз ⏳ 1181 сек.
Лектор: Михаил Романов
https://stepik.org/50352
Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa🎥 28 - ML & CV. Transfer learning на примере соревнования на Kaggle
👁 1 раз ⏳ 2463 сек.
Лектор: Игорь Слинько
Код для этого урока доступен здесь
https://www.kaggle.com/yellowduck/baseline-in-pytorch
После записи этого урока мы немног...Vk
19 - ML & CV. Собери их все: архитектура LeNet (1998)
Лектор: Михаил Романов https://stepik.org/50352 Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa
Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.
🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
What is it, how it is calculated and when to use it.
🔗 Understanding Partial Auto-Correlation - Towards Data Science
What is it, how it is calculated and when to use it.
Medium
Understanding Partial Auto-Correlation
What is it, how it is calculated and when to use it.
Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------
🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
https://towardsdatascience.com/detecting-stationarity-in-time-series-data-d29e0a21e638?source=collection_home---4------1-----------------------
🔗 Detecting stationarity in time series data - Towards Data Science
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
Medium
Detecting stationarity in time series data
In this post I’ll cover several ways to determine whether your data is stationary, which is crucial for many tools in time series analysis.
MIDL 2019, Day 3: Presentation by Bart Liefers
https://www.youtube.com/watch?v=8iMSM8ijk7A
🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз ⏳ 1221 сек.
https://www.youtube.com/watch?v=8iMSM8ijk7A
🎥 MIDL 2019, Day 3: Presentation by Bart Liefers
👁 1 раз ⏳ 1221 сек.
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Application to Retinal Optical Coherence Tomography' at the MIDL (Medical Imaging and Deep Learning) 2019 conference in London, United Kingdom.
Paper: http://proceedings.mlr.press/v102/liefers19a.html
MIDL 2019 website: https://2019.midl.ioYouTube
MIDL 2019, Day 3: Presentation by Bart Liefers
Oral presentation given by Bart Liefers of A-Eye Research Group, Radboudumc, Nijmegen, The Netherlands on 'Dense Segmentation in Selected Dimensions: Applica...