Neural Networks | Нейронные сети
11.6K subscribers
801 photos
183 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Нейронные сети
01 - Нейронные сети. Основы линейной алгебры
02 - Нейронные сети. Перцептрон и градиентный спуск
03 - Нейронные сети. Алгоритм обратного распространения ошибки
04 - Нейронные сети. Мониторинг состояния сети
05 - Нейронные сети. Заключение
#Нейронныесети
Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🎥 01 - Нейронные сети. Основы линейной алгебры
👁 1 раз 5559 сек.
Лектор: Арсений Москвичев

1. Введение
2. Ликбез по линейной алгебре: векторы
3. Ликбез по линейной алгебре: матрицы
4. Линейная алгебра в деле

ht...


🎥 02 - Нейронные сети. Перцептрон и градиентный спуск
👁 1 раз 7739 сек.
Лектор: Арсений Москвичев

1. Нейроны: настоящие и искусственные
2. Перцептрон
3. Перцептрон: обучение
4. Больше искусственных нейронов!
5. Градиен...


🎥 03 - Нейронные сети. Алгоритм обратного распространения ошибки
👁 1 раз 5437 сек.
Лектор: Арсений Москвичев

1. Многослойный перцептрон
2. Алгоритм обратного распространения ошибки
3. Алгоритм обратного распространения ошибки: пр...


🎥 04 - Нейронные сети. Мониторинг состояния сети
👁 1 раз 2796 сек.
Лектор: Арсений Москвичев

1. Мониторинг состояния сети
2. Визуализация

https://stepik.org/s/JRYrVjqo
Русскоязычный курс по алгоритмам и структурам данных. Must-have для каждого программиста.

1. О курсе
2. Базовые структуры данных
3. Очереди с приоритетом
4. Системы непересекающихся множеств
5. Хеш-таблицы
6. АВЛ-деревья
7. Дополнительные операции
8. Сплей-деревья

🎥 00 - Алгоритмы. Структуры данных. О курсе
👁 1 раз 114 сек.
Лектор: Александр Куликов

https://stepik.org/1547


🎥 01 - Алгоритмы. Структуры данных. Базовые структуры данных
👁 1 раз 5222 сек.
Лектор: Александр Куликов

1. Массивы
2. Списки
3. Стеки
4. Очереди
5. Деревья
6. Масси ...


🎥 02 - Алгоритмы. Структуры данных. Очереди с приоритетом
👁 1 раз 3736 сек.
Лектор: Александр Куликов

1. Очереди с приоритетом
2. Двоичная куча
3. Полностью з ...


🎥 03 - Алгоритмы. Структуры данных. Системы непересекающихся множеств
👁 1 раз 3553 сек.
Лектор: Александр Куликов

1. Непересекающиеся множества
2. Простейшие реализаци ...


🎥 04 - Алгоритмы. Структуры данных. Хеш-таблицы
👁 1 раз 4783 сек.
Лектор: Александр Куликов

1. Хеширование
2. Способы разрешения коллизий
3. Вероят ...


🎥 05 - Алгоритмы. Структуры данных. АВЛ-деревья
👁 1 раз 2483 сек.
Лектор: Александр Куликов

1. Деревья поиска
2. АВЛ-деревья

https://stepik.org/1547


🎥 06 - Алгоритмы. Структуры данных. Дополнительные операции
👁 1 раз 2183 сек.
Лектор: Александр Куликов

1. Дополнительные операции
2. Склеивание
3. Разрезание ...


🎥 07 - Алгоритмы. Структуры данных. Сплей-деревья
👁 1 раз 2854 сек.
Лектор: Александр Куликов

1. Сплей-дерево
2. Детали реализации
3. Анализ

https://stepik.or...
​Что почитать и посмотреть для старта в Data Science: книги, словари и курсы

Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-курсах. Так вы опередите одногруппников, а заодно прокачаете полезный навык — изучать дополнительные материалы самостоятельно.
https://habr.com/ru/company/netologyru/blog/467011/

🔗 Что почитать и посмотреть для старта в Data Science: книги, словари и курсы
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-...
Data Science and Machine Learning Bootcamp with R
Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🎥 Data Science and Machine Learning Bootcamp with R - Part 1
👁 1 раз 5688 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that info...

🎥 Data Science and Machine Learning Bootcamp with R - Part 2 // Matrices
👁 1 раз 3003 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that information at a fraction of the cost! With over 100 HD video lectures and detailed code notebooks for every lecture this is one of the most comprehensive course for data science and machine learning on Udemy!

We'll teach you how to program with R, how to create amazing data visualizations, and how to use Machine Learning with R! Here a just a few of the topics we w


🎥 Data Science and Machine Learning Bootcamp with R - Part 3 // Data Frames
👁 1 раз 4147 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that information at a fraction of the cost! With over 100 HD video lectures and detailed code notebooks for every lecture this is one of the most comprehensive course for data science and machine learning on Udemy!

We'll teach you how to program with R, how to create amazing data visualizations, and how to use Machine Learning with R! Here a just a few of the topics we w
Meta-Learning with Implicit Gradients
https://arxiv.org/abs/1909.04630

🔗 Meta-Learning with Implicit Gradients
A core capability of intelligent systems is the ability to quickly learn new tasks by drawing on prior experience. Gradient (or optimization) based meta-learning has recently emerged as an effective approach for few-shot learning. In this formulation, meta-parameters are learned in the outer loop, while task-specific models are learned in the inner-loop, by using only a small amount of data from the current task. A key challenge in scaling these approaches is the need to differentiate through the inner loop learning process, which can impose considerable computational and memory burdens. By drawing upon implicit differentiation, we develop the implicit MAML algorithm, which depends only on the solution to the inner level optimization and not the path taken by the inner loop optimizer. This effectively decouples the meta-gradient computation from the choice of inner loop optimizer. As a result, our approach is agnostic to the choice of inner loop optimizer and can gracefully handle many gradient steps without
🎥 Python Voice Assistant Tutorial #7 - Speaking Events (With Pyttsx3)
👁 1 раз 672 сек.
In this tutorial we will add to our previously created functions to get our assistant to speak out events that we have on a specific day. We will be using pyttsx3 to do this.

Text-Based Tutorial: https://techwithtim.net/tutorials/voice-assistant/speaking-events/

*****
Enroll in The Fundamentals of Programming w/ Python
https://tech-with-tim.teachable.com/p/the-fundamentals-of-programming-with-python

Instagram: https://www.instagram.com/tech_with_tim
Website https://techwithtim.net
Twitter: https://twitt
SoftTriple Loss: Deep Metric Learning Without Triplet Sampling

Authors: Qi Qian, Lei Shang, Baigui Sun, Juhua Hu, Hao Li, Rong Jin

Abstract: Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML.
https://arxiv.org/abs/1909.05235

🔗 SoftTriple Loss: Deep Metric Learning Without Triplet Sampling
Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML. With the tremendous success of deep learning in classifications, it has been applied for DML. When learning embeddings with deep neural networks (DNNs), only a mini-batch of data is available at each iteration. The set of triplet constraints has to be sampled within the mini-batch. Since a mini-batch cannot capture the neighbors in the original set well, it makes the learned embeddings sub-optimal. On the contrary, optimizing SoftMax loss, which is a classification loss, with DNN shows a superior performance in certain DML tasks. It inspires us to investigate the formulation of SoftMax. Our analysis shows that SoftMax loss is equivalent to a smoothed triplet loss where each class has a single center. In real-world d
​Как мы промышленность и big data подружили

Промышленное программирование
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Экономить конкретно будете! Дайте только мне доступ во-о-от к этим данным по производству». В ответ на заводе разводят руки. «Вот у нас по продажам аналитика. Вот по турбинам что-то есть — шибко умные турбины у Siemens. А по остальному оборудованию отродясь ничего не было».

Вы прочитали миниатюру о конфликте двух миров — промышленности и аналитики. Мы как раз из последнего, и вот как все выглядит для нас: с одной стороны — созданные для управления оборудованием и недоступные для простых смертных протоколы обмена данными с большим количеством цифр в названии. С другой — аналитические системы, красивая отчетность, удобные дэшборды и прочие приятности.
https://habr.com/ru/company/croc/blog/466933/

🔗 Как мы промышленность и big data подружили
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Эко...
​Counterfactual Story Reasoning and Generation”, presents the TimeTravel dataset that tests causal reasoning capabilities over natural language narratives.

Paper:
https://arxiv.org/abs/1909.04076
Code+Data:
https://github.com/qkaren/Counterfactual-StoryRW

🔗 Counterfactual Story Reasoning and Generation
Counterfactual reasoning requires predicting how alternative events, contrary to what actually happened, might have resulted in different outcomes. Despite being considered a necessary component of AI-complete systems, few resources have been developed for evaluating counterfactual reasoning in narratives. In this paper, we propose Counterfactual Story Rewriting: given an original story and an intervening counterfactual event, the task is to minimally revise the story to make it compatible with the given counterfactual event. Solving this task will require deep understanding of causal narrative chains and counterfactual invariance, and integration of such story reasoning capabilities into conditional language generation models. We present TimeTravel, a new dataset of 29,849 counterfactual rewritings, each with the original story, a counterfactual event, and human-generated revision of the original story compatible with the counterfactual event. Additionally, we include 80,115 counterfactual "branches" without a rewritten storyline to support future work on semi- or un-supervised approaches to counterfactual story rewriting. Finally, we evaluate the counterfactual rewriting capacities of several competitive baselines based on pretrained language models, and assess whether common overlap and model-based automatic metrics for text generation correlate well with human scores for counterfactual rewriting.
​Throwing dice with maximum entropy principle

🔗 Throwing dice with maximum entropy principle
Entropy function is used in a variety of ML and DL applications. Here I show why entropy function is unique, using words, math and python.
Нейронные сети
#Нейросети

#video
Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🎥 Нейронные сети Лекция 1
👁 2 раз 4808 сек.


🎥 Нейронные сети Лекция 2
👁 1 раз 4875 сек.


🎥 Нейронные сети Лекция 3
👁 1 раз 3035 сек.


🎥 Нейронные сети Лекция 4
👁 1 раз 4726 сек.


🎥 Нейронные сети Лекция 5
👁 1 раз 4730 сек.
Сети с обратными связями. Сети Кохонена и Гроссберга, Хопфилда. Instar и Outstar. Устойчивость (Ляпунов) для сетей Хопфилда.

🎥 Нейронные сети Лекция 6
👁 1 раз 3174 сек.
​Умные алгоритмы обработки строк в ClickHouse

В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то поиск типа учёта регистра или поиск по сжатым данным.

Всё началось с того, что руководитель разработки ClickHouse Лёша Миловидов o6CuFl2Q пришёл к нам на факультет компьютерных наук в НИУ ВШЭ и предложил огромное количество тем для курсовых и дипломов. Когда я увидел «Умные алгоритмы обработки строк в ClickHouse» (я, человек, который увлекается разными алгоритмами, в том числе экспериментальными), сразу же настроил планов, как сделаю самый крутой диплом.
https://habr.com/ru/company/yandex/blog/466183/

🔗 Умные алгоритмы обработки строк в ClickHouse
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то пои...