RecoTour II: neural recommendation algorithms
🔗 RecoTour II: neural recommendation algorithms
Adding Deep Learning-based recommendation algorithms to RecoTour, a tour through recommendation algorithms in python.
🔗 RecoTour II: neural recommendation algorithms
Adding Deep Learning-based recommendation algorithms to RecoTour, a tour through recommendation algorithms in python.
Medium
RecoTour II: neural recommendation algorithms
Adding Deep Learning-based recommendation algorithms to RecoTour, a tour through recommendation algorithms in python.
Take your Python Skills to the Next Level With Fluent Python
🔗 Take your Python Skills to the Next Level With Fluent Python
You’ve been programming in Python for a while, and although you know your way around dicts, lists, tuples, sets, functions, and classes…
🔗 Take your Python Skills to the Next Level With Fluent Python
You’ve been programming in Python for a while, and although you know your way around dicts, lists, tuples, sets, functions, and classes…
Medium
Take your Python Skills to the Next Level With Fluent Python
You’ve been programming in Python for a while, and although you know your way around dicts, lists, tuples, sets, functions, and classes…
The thin line between data science and data engineering
🔗 The thin line between data science and data engineering
Akshay Singh on the TDS podcast
🔗 The thin line between data science and data engineering
Akshay Singh on the TDS podcast
Medium
The thin line between data science and data engineering
Akshay Singh on the TDS podcast
Нейронные сети
01 - Нейронные сети. Основы линейной алгебры
02 - Нейронные сети. Перцептрон и градиентный спуск
03 - Нейронные сети. Алгоритм обратного распространения ошибки
04 - Нейронные сети. Мониторинг состояния сети
05 - Нейронные сети. Заключение
#Нейронныесети
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 01 - Нейронные сети. Основы линейной алгебры
👁 1 раз ⏳ 5559 сек.
🎥 02 - Нейронные сети. Перцептрон и градиентный спуск
👁 1 раз ⏳ 7739 сек.
🎥 03 - Нейронные сети. Алгоритм обратного распространения ошибки
👁 1 раз ⏳ 5437 сек.
🎥 04 - Нейронные сети. Мониторинг состояния сети
👁 1 раз ⏳ 2796 сек.
01 - Нейронные сети. Основы линейной алгебры
02 - Нейронные сети. Перцептрон и градиентный спуск
03 - Нейронные сети. Алгоритм обратного распространения ошибки
04 - Нейронные сети. Мониторинг состояния сети
05 - Нейронные сети. Заключение
#Нейронныесети
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 01 - Нейронные сети. Основы линейной алгебры
👁 1 раз ⏳ 5559 сек.
Лектор: Арсений Москвичев
1. Введение
2. Ликбез по линейной алгебре: векторы
3. Ликбез по линейной алгебре: матрицы
4. Линейная алгебра в деле
ht...🎥 02 - Нейронные сети. Перцептрон и градиентный спуск
👁 1 раз ⏳ 7739 сек.
Лектор: Арсений Москвичев
1. Нейроны: настоящие и искусственные
2. Перцептрон
3. Перцептрон: обучение
4. Больше искусственных нейронов!
5. Градиен...🎥 03 - Нейронные сети. Алгоритм обратного распространения ошибки
👁 1 раз ⏳ 5437 сек.
Лектор: Арсений Москвичев
1. Многослойный перцептрон
2. Алгоритм обратного распространения ошибки
3. Алгоритм обратного распространения ошибки: пр...🎥 04 - Нейронные сети. Мониторинг состояния сети
👁 1 раз ⏳ 2796 сек.
Лектор: Арсений Москвичев
1. Мониторинг состояния сети
2. Визуализация
https://stepik.org/s/JRYrVjqoРусскоязычный курс по алгоритмам и структурам данных. Must-have для каждого программиста.
1. О курсе
2. Базовые структуры данных
3. Очереди с приоритетом
4. Системы непересекающихся множеств
5. Хеш-таблицы
6. АВЛ-деревья
7. Дополнительные операции
8. Сплей-деревья
🎥 00 - Алгоритмы. Структуры данных. О курсе
👁 1 раз ⏳ 114 сек.
🎥 01 - Алгоритмы. Структуры данных. Базовые структуры данных
👁 1 раз ⏳ 5222 сек.
🎥 02 - Алгоритмы. Структуры данных. Очереди с приоритетом
👁 1 раз ⏳ 3736 сек.
🎥 03 - Алгоритмы. Структуры данных. Системы непересекающихся множеств
👁 1 раз ⏳ 3553 сек.
🎥 04 - Алгоритмы. Структуры данных. Хеш-таблицы
👁 1 раз ⏳ 4783 сек.
🎥 05 - Алгоритмы. Структуры данных. АВЛ-деревья
👁 1 раз ⏳ 2483 сек.
🎥 06 - Алгоритмы. Структуры данных. Дополнительные операции
👁 1 раз ⏳ 2183 сек.
🎥 07 - Алгоритмы. Структуры данных. Сплей-деревья
👁 1 раз ⏳ 2854 сек.
1. О курсе
2. Базовые структуры данных
3. Очереди с приоритетом
4. Системы непересекающихся множеств
5. Хеш-таблицы
6. АВЛ-деревья
7. Дополнительные операции
8. Сплей-деревья
🎥 00 - Алгоритмы. Структуры данных. О курсе
👁 1 раз ⏳ 114 сек.
Лектор: Александр Куликов
https://stepik.org/1547🎥 01 - Алгоритмы. Структуры данных. Базовые структуры данных
👁 1 раз ⏳ 5222 сек.
Лектор: Александр Куликов
1. Массивы
2. Списки
3. Стеки
4. Очереди
5. Деревья
6. Масси ...🎥 02 - Алгоритмы. Структуры данных. Очереди с приоритетом
👁 1 раз ⏳ 3736 сек.
Лектор: Александр Куликов
1. Очереди с приоритетом
2. Двоичная куча
3. Полностью з ...🎥 03 - Алгоритмы. Структуры данных. Системы непересекающихся множеств
👁 1 раз ⏳ 3553 сек.
Лектор: Александр Куликов
1. Непересекающиеся множества
2. Простейшие реализаци ...🎥 04 - Алгоритмы. Структуры данных. Хеш-таблицы
👁 1 раз ⏳ 4783 сек.
Лектор: Александр Куликов
1. Хеширование
2. Способы разрешения коллизий
3. Вероят ...🎥 05 - Алгоритмы. Структуры данных. АВЛ-деревья
👁 1 раз ⏳ 2483 сек.
Лектор: Александр Куликов
1. Деревья поиска
2. АВЛ-деревья
https://stepik.org/1547🎥 06 - Алгоритмы. Структуры данных. Дополнительные операции
👁 1 раз ⏳ 2183 сек.
Лектор: Александр Куликов
1. Дополнительные операции
2. Склеивание
3. Разрезание ...🎥 07 - Алгоритмы. Структуры данных. Сплей-деревья
👁 1 раз ⏳ 2854 сек.
Лектор: Александр Куликов
1. Сплей-дерево
2. Детали реализации
3. Анализ
https://stepik.or...Vk
00 - Алгоритмы. Структуры данных. О курсе
Лектор: Александр Куликов https://stepik.org/1547
Что почитать и посмотреть для старта в Data Science: книги, словари и курсы
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-курсах. Так вы опередите одногруппников, а заодно прокачаете полезный навык — изучать дополнительные материалы самостоятельно.
https://habr.com/ru/company/netologyru/blog/467011/
🔗 Что почитать и посмотреть для старта в Data Science: книги, словари и курсы
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-...
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-курсах. Так вы опередите одногруппников, а заодно прокачаете полезный навык — изучать дополнительные материалы самостоятельно.
https://habr.com/ru/company/netologyru/blog/467011/
🔗 Что почитать и посмотреть для старта в Data Science: книги, словари и курсы
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-...
Хабр
Что почитать и посмотреть для старта в Data Science: книги, словари и курсы
Подборка ресурсов по математике, статистике и программированию для начинающих Дата Сайентистов. Ознакомьтесь с материалами, если вы планируете учиться на онлайн-курсах. Так вы опередите...
Data Science and Machine Learning Bootcamp with R
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Data Science and Machine Learning Bootcamp with R - Part 1
👁 1 раз ⏳ 5688 сек.
🎥 Data Science and Machine Learning Bootcamp with R - Part 2 // Matrices
👁 1 раз ⏳ 3003 сек.
🎥 Data Science and Machine Learning Bootcamp with R - Part 3 // Data Frames
👁 1 раз ⏳ 4147 сек.
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Data Science and Machine Learning Bootcamp with R - Part 1
👁 1 раз ⏳ 5688 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that info...🎥 Data Science and Machine Learning Bootcamp with R - Part 2 // Matrices
👁 1 раз ⏳ 3003 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that information at a fraction of the cost! With over 100 HD video lectures and detailed code notebooks for every lecture this is one of the most comprehensive course for data science and machine learning on Udemy!
We'll teach you how to program with R, how to create amazing data visualizations, and how to use Machine Learning with R! Here a just a few of the topics we w🎥 Data Science and Machine Learning Bootcamp with R - Part 3 // Data Frames
👁 1 раз ⏳ 4147 сек.
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that information at a fraction of the cost! With over 100 HD video lectures and detailed code notebooks for every lecture this is one of the most comprehensive course for data science and machine learning on Udemy!
We'll teach you how to program with R, how to create amazing data visualizations, and how to use Machine Learning with R! Here a just a few of the topics we wVk
Data Science and Machine Learning Bootcamp with R - Part 1
This comprehensive course is comparable to other Data Science bootcamps that usually cost thousands of dollars, but now you can learn all that info...
Meta-Learning with Implicit Gradients
https://arxiv.org/abs/1909.04630
🔗 Meta-Learning with Implicit Gradients
A core capability of intelligent systems is the ability to quickly learn new tasks by drawing on prior experience. Gradient (or optimization) based meta-learning has recently emerged as an effective approach for few-shot learning. In this formulation, meta-parameters are learned in the outer loop, while task-specific models are learned in the inner-loop, by using only a small amount of data from the current task. A key challenge in scaling these approaches is the need to differentiate through the inner loop learning process, which can impose considerable computational and memory burdens. By drawing upon implicit differentiation, we develop the implicit MAML algorithm, which depends only on the solution to the inner level optimization and not the path taken by the inner loop optimizer. This effectively decouples the meta-gradient computation from the choice of inner loop optimizer. As a result, our approach is agnostic to the choice of inner loop optimizer and can gracefully handle many gradient steps without
https://arxiv.org/abs/1909.04630
🔗 Meta-Learning with Implicit Gradients
A core capability of intelligent systems is the ability to quickly learn new tasks by drawing on prior experience. Gradient (or optimization) based meta-learning has recently emerged as an effective approach for few-shot learning. In this formulation, meta-parameters are learned in the outer loop, while task-specific models are learned in the inner-loop, by using only a small amount of data from the current task. A key challenge in scaling these approaches is the need to differentiate through the inner loop learning process, which can impose considerable computational and memory burdens. By drawing upon implicit differentiation, we develop the implicit MAML algorithm, which depends only on the solution to the inner level optimization and not the path taken by the inner loop optimizer. This effectively decouples the meta-gradient computation from the choice of inner loop optimizer. As a result, our approach is agnostic to the choice of inner loop optimizer and can gracefully handle many gradient steps without
Full Stack Deep Learning Bootcamp
Lectures of Day 1
https://fullstackdeeplearning.com/march2019
🔗 Full Stack Deep Learning
Hands-on program for software developers familiar with the basics of deep learning seeking to expand their skills.
Lectures of Day 1
https://fullstackdeeplearning.com/march2019
🔗 Full Stack Deep Learning
Hands-on program for software developers familiar with the basics of deep learning seeking to expand their skills.
Fullstackdeeplearning
Full Stack Deep Learning
Hands-on program for software developers familiar with the basics of deep learning seeking to expand their skills.
🎥 Поиск биомаркеров из протеомов и других экспрессионных данных методами машинного обучения
👁 3 раз ⏳ 3193 сек.
👁 3 раз ⏳ 3193 сек.
Лектор: Елена Чуклина, ETH ZürichVk
Поиск биомаркеров из протеомов и других экспрессионных данных методами машинного обучения
Лектор: Елена Чуклина, ETH Zürich
🎥 Python Voice Assistant Tutorial #7 - Speaking Events (With Pyttsx3)
👁 1 раз ⏳ 672 сек.
👁 1 раз ⏳ 672 сек.
In this tutorial we will add to our previously created functions to get our assistant to speak out events that we have on a specific day. We will be using pyttsx3 to do this.
Text-Based Tutorial: https://techwithtim.net/tutorials/voice-assistant/speaking-events/
*****
Enroll in The Fundamentals of Programming w/ Python
https://tech-with-tim.teachable.com/p/the-fundamentals-of-programming-with-python
Instagram: https://www.instagram.com/tech_with_tim
Website https://techwithtim.net
Twitter: https://twittVk
Python Voice Assistant Tutorial #7 - Speaking Events (With Pyttsx3)
In this tutorial we will add to our previously created functions to get our assistant to speak out events that we have on a specific day. We will be using pyttsx3 to do this.
Text-Based Tutorial: https://techwithtim.net/tutorials/voice-assistant/speaking…
Text-Based Tutorial: https://techwithtim.net/tutorials/voice-assistant/speaking…
SoftTriple Loss: Deep Metric Learning Without Triplet Sampling
Authors: Qi Qian, Lei Shang, Baigui Sun, Juhua Hu, Hao Li, Rong Jin
Abstract: Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML.
https://arxiv.org/abs/1909.05235
🔗 SoftTriple Loss: Deep Metric Learning Without Triplet Sampling
Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML. With the tremendous success of deep learning in classifications, it has been applied for DML. When learning embeddings with deep neural networks (DNNs), only a mini-batch of data is available at each iteration. The set of triplet constraints has to be sampled within the mini-batch. Since a mini-batch cannot capture the neighbors in the original set well, it makes the learned embeddings sub-optimal. On the contrary, optimizing SoftMax loss, which is a classification loss, with DNN shows a superior performance in certain DML tasks. It inspires us to investigate the formulation of SoftMax. Our analysis shows that SoftMax loss is equivalent to a smoothed triplet loss where each class has a single center. In real-world d
Authors: Qi Qian, Lei Shang, Baigui Sun, Juhua Hu, Hao Li, Rong Jin
Abstract: Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML.
https://arxiv.org/abs/1909.05235
🔗 SoftTriple Loss: Deep Metric Learning Without Triplet Sampling
Distance metric learning (DML) is to learn the embeddings where examples from the same class are closer than examples from different classes. It can be cast as an optimization problem with triplet constraints. Due to the vast number of triplet constraints, a sampling strategy is essential for DML. With the tremendous success of deep learning in classifications, it has been applied for DML. When learning embeddings with deep neural networks (DNNs), only a mini-batch of data is available at each iteration. The set of triplet constraints has to be sampled within the mini-batch. Since a mini-batch cannot capture the neighbors in the original set well, it makes the learned embeddings sub-optimal. On the contrary, optimizing SoftMax loss, which is a classification loss, with DNN shows a superior performance in certain DML tasks. It inspires us to investigate the formulation of SoftMax. Our analysis shows that SoftMax loss is equivalent to a smoothed triplet loss where each class has a single center. In real-world d
Automate Data Cleaning with Unsupervised Learning
🔗 Automate Data Cleaning with Unsupervised Learning
Cleaning text for your NLP projects has never been so fun and easy!
🔗 Automate Data Cleaning with Unsupervised Learning
Cleaning text for your NLP projects has never been so fun and easy!
Medium
Automate Data Cleaning with Unsupervised Learning
Cleaning text for your NLP projects has never been so fun and easy!
Hierarchical Neural Architecture Search
🔗 Hierarchical Neural Architecture Search
The easiest way to achieve more efficient Neural Architecture Search, making these gains accessible to those without 10s or 100s of GPUs.
🔗 Hierarchical Neural Architecture Search
The easiest way to achieve more efficient Neural Architecture Search, making these gains accessible to those without 10s or 100s of GPUs.
Medium
Hierarchical Neural Architecture Search
The easiest way to achieve more efficient Neural Architecture Search, making these gains accessible to those without 10s or 100s of GPUs.
How to master Python’s main data analysis library in 20 Minutes
🔗 How to master Python’s main data analysis library in 20 Minutes
A code-along guide of essential Pandas functionalities.
🔗 How to master Python’s main data analysis library in 20 Minutes
A code-along guide of essential Pandas functionalities.
Medium
How to master Python’s main data analysis library in 20 Minutes
A code-along guide of essential Pandas functionalities.
Как мы промышленность и big data подружили
Промышленное программирование
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Экономить конкретно будете! Дайте только мне доступ во-о-от к этим данным по производству». В ответ на заводе разводят руки. «Вот у нас по продажам аналитика. Вот по турбинам что-то есть — шибко умные турбины у Siemens. А по остальному оборудованию отродясь ничего не было».
Вы прочитали миниатюру о конфликте двух миров — промышленности и аналитики. Мы как раз из последнего, и вот как все выглядит для нас: с одной стороны — созданные для управления оборудованием и недоступные для простых смертных протоколы обмена данными с большим количеством цифр в названии. С другой — аналитические системы, красивая отчетность, удобные дэшборды и прочие приятности.
https://habr.com/ru/company/croc/blog/466933/
🔗 Как мы промышленность и big data подружили
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Эко...
Промышленное программирование
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Экономить конкретно будете! Дайте только мне доступ во-о-от к этим данным по производству». В ответ на заводе разводят руки. «Вот у нас по продажам аналитика. Вот по турбинам что-то есть — шибко умные турбины у Siemens. А по остальному оборудованию отродясь ничего не было».
Вы прочитали миниатюру о конфликте двух миров — промышленности и аналитики. Мы как раз из последнего, и вот как все выглядит для нас: с одной стороны — созданные для управления оборудованием и недоступные для простых смертных протоколы обмена данными с большим количеством цифр в названии. С другой — аналитические системы, красивая отчетность, удобные дэшборды и прочие приятности.
https://habr.com/ru/company/croc/blog/466933/
🔗 Как мы промышленность и big data подружили
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Эко...
Хабр
Как подружить промышленность и big data
Приходит как-то на завод специалист по цифровизации. Здесь походил, там походил, лоб наморщил и говорит: «Я знаю, как у вас тут можно кое-что оптимизировать. Эко...
Counterfactual Story Reasoning and Generation”, presents the TimeTravel dataset that tests causal reasoning capabilities over natural language narratives.
Paper:
https://arxiv.org/abs/1909.04076
Code+Data:
https://github.com/qkaren/Counterfactual-StoryRW
🔗 Counterfactual Story Reasoning and Generation
Counterfactual reasoning requires predicting how alternative events, contrary to what actually happened, might have resulted in different outcomes. Despite being considered a necessary component of AI-complete systems, few resources have been developed for evaluating counterfactual reasoning in narratives. In this paper, we propose Counterfactual Story Rewriting: given an original story and an intervening counterfactual event, the task is to minimally revise the story to make it compatible with the given counterfactual event. Solving this task will require deep understanding of causal narrative chains and counterfactual invariance, and integration of such story reasoning capabilities into conditional language generation models. We present TimeTravel, a new dataset of 29,849 counterfactual rewritings, each with the original story, a counterfactual event, and human-generated revision of the original story compatible with the counterfactual event. Additionally, we include 80,115 counterfactual "branches" without a rewritten storyline to support future work on semi- or un-supervised approaches to counterfactual story rewriting. Finally, we evaluate the counterfactual rewriting capacities of several competitive baselines based on pretrained language models, and assess whether common overlap and model-based automatic metrics for text generation correlate well with human scores for counterfactual rewriting.
Paper:
https://arxiv.org/abs/1909.04076
Code+Data:
https://github.com/qkaren/Counterfactual-StoryRW
🔗 Counterfactual Story Reasoning and Generation
Counterfactual reasoning requires predicting how alternative events, contrary to what actually happened, might have resulted in different outcomes. Despite being considered a necessary component of AI-complete systems, few resources have been developed for evaluating counterfactual reasoning in narratives. In this paper, we propose Counterfactual Story Rewriting: given an original story and an intervening counterfactual event, the task is to minimally revise the story to make it compatible with the given counterfactual event. Solving this task will require deep understanding of causal narrative chains and counterfactual invariance, and integration of such story reasoning capabilities into conditional language generation models. We present TimeTravel, a new dataset of 29,849 counterfactual rewritings, each with the original story, a counterfactual event, and human-generated revision of the original story compatible with the counterfactual event. Additionally, we include 80,115 counterfactual "branches" without a rewritten storyline to support future work on semi- or un-supervised approaches to counterfactual story rewriting. Finally, we evaluate the counterfactual rewriting capacities of several competitive baselines based on pretrained language models, and assess whether common overlap and model-based automatic metrics for text generation correlate well with human scores for counterfactual rewriting.
arXiv.org
Counterfactual Story Reasoning and Generation
Counterfactual reasoning requires predicting how alternative events, contrary
to what actually happened, might have resulted in different outcomes. Despite
being considered a necessary component...
to what actually happened, might have resulted in different outcomes. Despite
being considered a necessary component...
Throwing dice with maximum entropy principle
🔗 Throwing dice with maximum entropy principle
Entropy function is used in a variety of ML and DL applications. Here I show why entropy function is unique, using words, math and python.
🔗 Throwing dice with maximum entropy principle
Entropy function is used in a variety of ML and DL applications. Here I show why entropy function is unique, using words, math and python.
Нейронные сети
#Нейросети
#video
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Нейронные сети Лекция 1
👁 2 раз ⏳ 4808 сек.
🎥 Нейронные сети Лекция 2
👁 1 раз ⏳ 4875 сек.
🎥 Нейронные сети Лекция 3
👁 1 раз ⏳ 3035 сек.
🎥 Нейронные сети Лекция 4
👁 1 раз ⏳ 4726 сек.
🎥 Нейронные сети Лекция 5
👁 1 раз ⏳ 4730 сек.
🎥 Нейронные сети Лекция 6
👁 1 раз ⏳ 3174 сек.
#Нейросети
#video
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🎥 Нейронные сети Лекция 1
👁 2 раз ⏳ 4808 сек.
🎥 Нейронные сети Лекция 2
👁 1 раз ⏳ 4875 сек.
🎥 Нейронные сети Лекция 3
👁 1 раз ⏳ 3035 сек.
🎥 Нейронные сети Лекция 4
👁 1 раз ⏳ 4726 сек.
🎥 Нейронные сети Лекция 5
👁 1 раз ⏳ 4730 сек.
Сети с обратными связями. Сети Кохонена и Гроссберга, Хопфилда. Instar и Outstar. Устойчивость (Ляпунов) для сетей Хопфилда.🎥 Нейронные сети Лекция 6
👁 1 раз ⏳ 3174 сек.
Vk
Нейронные сети Лекция 1
vk.com video
Умные алгоритмы обработки строк в ClickHouse
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то поиск типа учёта регистра или поиск по сжатым данным.
Всё началось с того, что руководитель разработки ClickHouse Лёша Миловидов o6CuFl2Q пришёл к нам на факультет компьютерных наук в НИУ ВШЭ и предложил огромное количество тем для курсовых и дипломов. Когда я увидел «Умные алгоритмы обработки строк в ClickHouse» (я, человек, который увлекается разными алгоритмами, в том числе экспериментальными), сразу же настроил планов, как сделаю самый крутой диплом.
https://habr.com/ru/company/yandex/blog/466183/
🔗 Умные алгоритмы обработки строк в ClickHouse
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то пои...
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то поиск типа учёта регистра или поиск по сжатым данным.
Всё началось с того, что руководитель разработки ClickHouse Лёша Миловидов o6CuFl2Q пришёл к нам на факультет компьютерных наук в НИУ ВШЭ и предложил огромное количество тем для курсовых и дипломов. Когда я увидел «Умные алгоритмы обработки строк в ClickHouse» (я, человек, который увлекается разными алгоритмами, в том числе экспериментальными), сразу же настроил планов, как сделаю самый крутой диплом.
https://habr.com/ru/company/yandex/blog/466183/
🔗 Умные алгоритмы обработки строк в ClickHouse
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то пои...
Хабр
Умные алгоритмы обработки строк в ClickHouse
В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то пои...