Инструменты для разработчиков ПО: открытые фреймворки и библиотеки машинного обучения
Продолжаем нашу серию материалов, посвященных открытым инструментам для разработчиков. Сегодня рассказываем о фреймворках и библиотеках для МО — Transformers, Accord.NET и MLflow.
🔗 Инструменты для разработчиков ПО: открытые фреймворки и библиотеки машинного обучения
Продолжаем нашу серию материалов, посвященных открытым инструментам для разработчиков. Сегодня рассказываем о фреймворках и библиотеках для МО — Transformers, Ac...
Продолжаем нашу серию материалов, посвященных открытым инструментам для разработчиков. Сегодня рассказываем о фреймворках и библиотеках для МО — Transformers, Accord.NET и MLflow.
🔗 Инструменты для разработчиков ПО: открытые фреймворки и библиотеки машинного обучения
Продолжаем нашу серию материалов, посвященных открытым инструментам для разработчиков. Сегодня рассказываем о фреймворках и библиотеках для МО — Transformers, Ac...
Хабр
Инструменты для разработчиков ПО: открытые фреймворки и библиотеки машинного обучения
Продолжаем нашу серию материалов , посвященных открытым инструментам для разработчиков. Сегодня рассказываем о фреймворках и библиотеках для МО — Transformers, Accord.NET и MLflow. Фото — Franck V. —...
Generating MRI Images of Brain Tumors with GANs
🔗 Generating MRI Images of Brain Tumors with GANs
The need for more data within the field of artificial intelligence is significant, especially in medical imaging. In order to produce ways…
🔗 Generating MRI Images of Brain Tumors with GANs
The need for more data within the field of artificial intelligence is significant, especially in medical imaging. In order to produce ways…
Medium
Generating MRI Images of Brain Tumors with GANs
The need for more data within the field of artificial intelligence is significant, especially in medical imaging. In order to produce ways…
Искусственный Интеллект С Примерами На Python
📝 Iskusstvenny_intellekt_s_primerami_na_Python_2019_Pratik_Dzhoshi.pdf - 💾72 984 400
📝 Iskusstvenny_intellekt_s_primerami_na_Python_2019_Pratik_Dzhoshi.pdf - 💾72 984 400
🎥 [Part 12] || Machine Learning A-Z™: Hands-On Python & R In Data Science 2019
👁 1 раз ⏳ 4712 сек.
👁 1 раз ⏳ 4712 сек.
Learn to create Machine Learning Algorithms in Python and R from two Data Science experts. Code templates included.
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
###############################
What you'll learn
Master Machine Learning on Python & R
Have a great intuition of many Machine Learning models
Make accurate predictions
Make powerful analysis
Make robust Machine Learning models
Create strong added value toVk
[Part 12] || Machine Learning A-Z™: Hands-On Python & R In Data Science 2019
Learn to create Machine Learning Algorithms in Python and R from two Data Science experts. Code templates included.
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
######…
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
######…
Probability Theory 101 for Dummies like Me
🔗 Probability Theory 101 for Dummies like Me
In the Classical interpretation Probability is the measure of the likelihood that an event will occur in a Random Experiment; In other…
🔗 Probability Theory 101 for Dummies like Me
In the Classical interpretation Probability is the measure of the likelihood that an event will occur in a Random Experiment; In other…
Medium
Probability Theory 101 for Dummies like Me
In the Classical interpretation Probability is the measure of the likelihood that an event will occur in a Random Experiment; In other…
Gradient Descent Demystified in 5 Minutes
🔗 Gradient Descent Demystified in 5 Minutes
Learn how Gradient Descent works with just tiny bit of Math — and a lot of common sense.
🔗 Gradient Descent Demystified in 5 Minutes
Learn how Gradient Descent works with just tiny bit of Math — and a lot of common sense.
Medium
Gradient Descent Demystified in 5 Minutes
Learn how Gradient Descent works with just tiny bit of Math — and a lot of common sense.
ищу лучшего в мире программиста, зп не обещаю а интересную жизнь- точно
My Learning Plan for Getting Into Data Science from Scratch
🔗 My Learning Plan for Getting Into Data Science from Scratch
I started when I was in college and still continue up to this day!
🔗 My Learning Plan for Getting Into Data Science from Scratch
I started when I was in college and still continue up to this day!
Medium
My Learning Plan for Getting Into Data Science from Scratch
I started when I was in college and still continue up to this day!
New Data Science Cheat Sheet, by Maverick Lin
🔗 New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers…
🔗 New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers…
Data Science Central
New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers basic concepts in probability, statistics, statistical learning, machine learning, deep learning…
Neural Puppet: Generative Layered Cartoon Characters
https://arxiv.org/abs/1910.02060v1
🔗 Neural Puppet: Generative Layered Cartoon Characters
We propose a learning based method for generating new animations of a cartoon character given a few example images. Our method is designed to learn from a traditionally animated sequence, where each frame is drawn by an artist, and thus the input images lack any common structure, correspondences, or labels. We express pose changes as a deformation of a layered 2.5D template mesh, and devise a novel architecture that learns to predict mesh deformations matching the template to a target image. This enables us to extract a common low-dimensional structure from a diverse set of character poses. We combine recent advances in differentiable rendering as well as mesh-aware models to successfully align common template even if only a few character images are available during training. In addition to coarse poses, character appearance also varies due to shading, out-of-plane motions, and artistic effects. We capture these subtle changes by applying an image translation network to refine the mesh rendering, providing an
https://arxiv.org/abs/1910.02060v1
🔗 Neural Puppet: Generative Layered Cartoon Characters
We propose a learning based method for generating new animations of a cartoon character given a few example images. Our method is designed to learn from a traditionally animated sequence, where each frame is drawn by an artist, and thus the input images lack any common structure, correspondences, or labels. We express pose changes as a deformation of a layered 2.5D template mesh, and devise a novel architecture that learns to predict mesh deformations matching the template to a target image. This enables us to extract a common low-dimensional structure from a diverse set of character poses. We combine recent advances in differentiable rendering as well as mesh-aware models to successfully align common template even if only a few character images are available during training. In addition to coarse poses, character appearance also varies due to shading, out-of-plane motions, and artistic effects. We capture these subtle changes by applying an image translation network to refine the mesh rendering, providing an
Deep Learning Is Blowing up OCR, and Your Field Could be Next
🔗 Deep Learning Is Blowing up OCR, and Your Field Could be Next
Picture a computer reading text on a sign in a grainy photo you took on your phone and translating into 100 languages. That world is here.
🔗 Deep Learning Is Blowing up OCR, and Your Field Could be Next
Picture a computer reading text on a sign in a grainy photo you took on your phone and translating into 100 languages. That world is here.
Medium
Deep Learning Is Blowing up OCR, and Your Field Could be Next
Picture a computer reading text on a sign in a grainy photo you took on your phone and translating into 100 languages. That world is here.
🎥 How can non programmers get into Data Science/Machine Learning?
👁 1 раз ⏳ 6016 сек.
👁 1 раз ⏳ 6016 сек.
UpX Academy is an exclusive ed-tech venture under the umbrella of Tech Mahindra. We provide live, online and interactive courses on big data and Data Science.Vk
How can non programmers get into Data Science/Machine Learning?
UpX Academy is an exclusive ed-tech venture under the umbrella of Tech Mahindra. We provide live, online and interactive courses on big data and Data Science.
Announcing Support for Native Editing of Jupyter Notebooks in VS Code | Python
🔗 Announcing Support for Native Editing of Jupyter Notebooks in VS Code | Python
With today’s October release of the Python extension, we’re excited to announce the support of native editing of Jupyter notebooks inside Visual Studio Code! You can now directly edit .ipynb files and get the interactivity of Jupyter notebooks with all of the power of VS Code.
🔗 Announcing Support for Native Editing of Jupyter Notebooks in VS Code | Python
With today’s October release of the Python extension, we’re excited to announce the support of native editing of Jupyter notebooks inside Visual Studio Code! You can now directly edit .ipynb files and get the interactivity of Jupyter notebooks with all of the power of VS Code.
Microsoft News
Announcing Support for Native Editing of Jupyter Notebooks in VS Code
Today, we're excited to announce the first release of native Jupyter notebook support inside VS Code through the Python extension that shipped today! This brings together the interactivity of Jupyter Notebooks and the power of VS Code, offering a brand-new…
Линейная регрессия и градиентный спуск
Пусть в некоторой предметной области исследуются показатели X и Y, которые имеют количественное выражение.
При этом есть все основания полагать, что показатель Y зависит от показателя X. Это положение может быть как научной гипотезой, так и основываться на элементарном здравом смысле. К примеру, возьмем продовольственные магазины.
Обозначим через:
X — торговую площадь(кв. м.)
Y — годовой товарооборот(млн. р.)
Очевидно, что чем выше торговая площадь, тем выше годовой товарооборот(предполагаем линейную зависимость).
Представим, что у нас есть данные о некоторых n магазинах(торговая площадь и годовой товарооборот) — наш датасет и k торговых площадей(X), для которых мы хотим предсказать годовой товарооборот(Y) — наша задача.
Выдвинем гипотезу, что наше значение Y зависит от X в виде: Y = a + b * X
Чтобы решить нашу задачу, мы должны подобрать коэффициенты a и b.
🔗 Линейная регрессия и градиентный спуск
Пусть в некоторой предметной области исследуются показатели X и Y, которые имеют количественное выражение. При этом есть все основания полагать, что показатель...
Пусть в некоторой предметной области исследуются показатели X и Y, которые имеют количественное выражение.
При этом есть все основания полагать, что показатель Y зависит от показателя X. Это положение может быть как научной гипотезой, так и основываться на элементарном здравом смысле. К примеру, возьмем продовольственные магазины.
Обозначим через:
X — торговую площадь(кв. м.)
Y — годовой товарооборот(млн. р.)
Очевидно, что чем выше торговая площадь, тем выше годовой товарооборот(предполагаем линейную зависимость).
Представим, что у нас есть данные о некоторых n магазинах(торговая площадь и годовой товарооборот) — наш датасет и k торговых площадей(X), для которых мы хотим предсказать годовой товарооборот(Y) — наша задача.
Выдвинем гипотезу, что наше значение Y зависит от X в виде: Y = a + b * X
Чтобы решить нашу задачу, мы должны подобрать коэффициенты a и b.
🔗 Линейная регрессия и градиентный спуск
Пусть в некоторой предметной области исследуются показатели X и Y, которые имеют количественное выражение. При этом есть все основания полагать, что показатель...
Хабр
Линейная регрессия и градиентный спуск
Пусть в некоторой предметной области исследуются показатели X и Y, которые имеют количественное выражение. При этом есть все основания полагать, что показатель Y зависит от показателя X. Это положение...
Возможности языка Q и KDB+ на примере сервиса реального времени
О том, что такое база KDB+, язык программирования Q, какие у них есть сильные и слабые стороны, можно прочитать в моей предыдущей статье и кратко во введении. В статье же мы реализуем на Q сервис, который будет обрабатывать входящий поток данных и высчитывать поминутно различные агрегирующие функции в режиме “реального времени” (т.е. будет успевать все посчитать до следующей порции данных). Главная особенность Q состоит в том, что это векторный язык, позволяющий оперировать не единичными объектами, а их массивами, массивами массивов и другими сложносоставными объектами. Такие языки как Q и родственные ему K, J, APL знамениты своей краткостью. Нередко программу, занимающую несколько экранов кода на привычном языке типа Java, можно записать на них в несколько строк. Именно это я и хочу продемонстрировать в этой статье.
🔗 Возможности языка Q и KDB+ на примере сервиса реального времени
О том, что такое база KDB+, язык программирования Q, какие у них есть сильные и слабые стороны, можно прочитать в моей предыдущей статье и кратко во введении. В...
О том, что такое база KDB+, язык программирования Q, какие у них есть сильные и слабые стороны, можно прочитать в моей предыдущей статье и кратко во введении. В статье же мы реализуем на Q сервис, который будет обрабатывать входящий поток данных и высчитывать поминутно различные агрегирующие функции в режиме “реального времени” (т.е. будет успевать все посчитать до следующей порции данных). Главная особенность Q состоит в том, что это векторный язык, позволяющий оперировать не единичными объектами, а их массивами, массивами массивов и другими сложносоставными объектами. Такие языки как Q и родственные ему K, J, APL знамениты своей краткостью. Нередко программу, занимающую несколько экранов кода на привычном языке типа Java, можно записать на них в несколько строк. Именно это я и хочу продемонстрировать в этой статье.
🔗 Возможности языка Q и KDB+ на примере сервиса реального времени
О том, что такое база KDB+, язык программирования Q, какие у них есть сильные и слабые стороны, можно прочитать в моей предыдущей статье и кратко во введении. В...
Хабр
Возможности языка Q и KDB+ на примере сервиса реального времени
О том, что такое база KDB+, язык программирования Q, какие у них есть сильные и слабые стороны, можно прочитать в моей предыдущей статье и кратко во введении. В...
The Future of Design, Pt. 1: Body as Input
🔗 The Future of Design, Pt. 1: Body as Input
With machine learning, our bodies may be the next step in the way we interact with the internet
🔗 The Future of Design, Pt. 1: Body as Input
With machine learning, our bodies may be the next step in the way we interact with the internet
Medium
The Future of Design, Pt. 1: Body as Input
With machine learning, our bodies may be the next step in the way we interact with the internet
Введение в обработку естественного языка (осень 2019)
Лекция 1. Введение. Задачи обработки языка в информационном поиске
Лекция 2. Строки, расстояния, регулярные выражения
Лекция 3. Нейронные сети - I
Лекция 4. Языковое моделирование
Лекция 5. Нейронные сети - II. Регуляризация. Методы обучения.
Лекция 6. Нейронные сети — III. Рекуррентные нейронные сети. SimpleRNN, LSTM, AWD-LSTM
Лекция 7. Марковские модели и элементы теории информации
Лекция 8. Векторная семантика — I. Sparse vectors: DTM, word-context matrices, HAL
Лекция 9. Векторная семантика — II. Dense vectors: SVD, LSA, word2vec, fastText
🎥 Лекция 1. Введение. Задачи обработки языка в информационном поиске
👁 18 раз ⏳ 4897 сек.
🎥 Лекция 2. Строки, расстояния, регулярные выражения
👁 2 раз ⏳ 4094 сек.
🎥 Лекция 3. Нейронные сети - I
👁 2 раз ⏳ 2865 сек.
🎥 Лекция 4. Языковое моделирование
👁 3 раз ⏳ 3954 сек.
🎥 Лекция 5. Нейронные сети - II. Регуляризация. Методы обучения.
👁 1 раз ⏳ 2555 сек.
🎥 Лекция 6. Нейронные сети -- III. Рекуррентные нейронные сети. SimpleRNN, LSTM, AWD-LSTM
👁 2 раз ⏳ 3113 сек.
🎥 Лекция 7. Марковские модели и элементы теории информации
👁 2 раз ⏳ 4530 сек.
🎥 Лекция 8. Векторная семантика — I. Sparse vectors: DTM, word-context matrices, HAL
👁 1 раз ⏳ 2982 сек.
🎥 Лекция 9. Векторная семантика — II. Dense vectors: SVD, LSA, word2vec, fastText
👁 2 раз ⏳ 3996 сек.
Лекция 1. Введение. Задачи обработки языка в информационном поиске
Лекция 2. Строки, расстояния, регулярные выражения
Лекция 3. Нейронные сети - I
Лекция 4. Языковое моделирование
Лекция 5. Нейронные сети - II. Регуляризация. Методы обучения.
Лекция 6. Нейронные сети — III. Рекуррентные нейронные сети. SimpleRNN, LSTM, AWD-LSTM
Лекция 7. Марковские модели и элементы теории информации
Лекция 8. Векторная семантика — I. Sparse vectors: DTM, word-context matrices, HAL
Лекция 9. Векторная семантика — II. Dense vectors: SVD, LSA, word2vec, fastText
🎥 Лекция 1. Введение. Задачи обработки языка в информационном поиске
👁 18 раз ⏳ 4897 сек.
Лекция №1 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 2. Строки, расстояния, регулярные выражения
👁 2 раз ⏳ 4094 сек.
Лекция №2 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 3. Нейронные сети - I
👁 2 раз ⏳ 2865 сек.
Лекция №3 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 4. Языковое моделирование
👁 3 раз ⏳ 3954 сек.
Лекция №4 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 5. Нейронные сети - II. Регуляризация. Методы обучения.
👁 1 раз ⏳ 2555 сек.
Лекция №5 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 6. Нейронные сети -- III. Рекуррентные нейронные сети. SimpleRNN, LSTM, AWD-LSTM
👁 2 раз ⏳ 3113 сек.
Лекция №6 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: h...🎥 Лекция 7. Марковские модели и элементы теории информации
👁 2 раз ⏳ 4530 сек.
Лекция №7 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: ...🎥 Лекция 8. Векторная семантика — I. Sparse vectors: DTM, word-context matrices, HAL
👁 1 раз ⏳ 2982 сек.
Лекция №8 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: ...🎥 Лекция 9. Векторная семантика — II. Dense vectors: SVD, LSA, word2vec, fastText
👁 2 раз ⏳ 3996 сек.
Лекция №9 курса «Введение в обработку естественного языка » (осень 2019).
Преподаватель — Антон Михайлович Алексеев
Страница лекции на сайте CSC: ...Vk
Лекция 1. Введение. Задачи обработки языка в информационном поиске
Лекция №1 курса «Введение в обработку естественного языка » (осень 2019). Преподаватель — Антон Михайлович Алексеев Страница лекции на сайте CSC: h...
Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing
Authors: En Li, Liekang Zeng, Zhi Zhou, Xu Chen
Abstract: As a key technology of enabling Artificial Intelligence (AI) applications in 5G era, Deep Neural Networks (DNNs) have quickly attracted widespread attention. However, it is challenging to run computation-intensive DNN-based tasks on mobile devices due to the limited computation resources.
https://arxiv.org/abs/1910.05316
🔗 Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing
As a key technology of enabling Artificial Intelligence (AI) applications in 5G era, Deep Neural Networks (DNNs) have quickly attracted widespread attention. However, it is challenging to run computation-intensive DNN-based tasks on mobile devices due to the limited computation resources. What's worse, traditional cloud-assisted DNN inference is heavily hindered by the significant wide-area network latency, leading to poor real-time performance as well as low quality of user experience. To address these challenges, in this paper, we propose Edgent, a framework that leverages edge computing for DNN collaborative inference through device-edge synergy. Edgent exploits two design knobs: (1) DNN partitioning that adaptively partitions computation between device and edge for purpose of coordinating the powerful cloud resource and the proximal edge resource for real-time DNN inference; (2) DNN right-sizing that further reduces computing latency via early exiting inference at an appropriate intermediate DNN layer
Authors: En Li, Liekang Zeng, Zhi Zhou, Xu Chen
Abstract: As a key technology of enabling Artificial Intelligence (AI) applications in 5G era, Deep Neural Networks (DNNs) have quickly attracted widespread attention. However, it is challenging to run computation-intensive DNN-based tasks on mobile devices due to the limited computation resources.
https://arxiv.org/abs/1910.05316
🔗 Edge AI: On-Demand Accelerating Deep Neural Network Inference via Edge Computing
As a key technology of enabling Artificial Intelligence (AI) applications in 5G era, Deep Neural Networks (DNNs) have quickly attracted widespread attention. However, it is challenging to run computation-intensive DNN-based tasks on mobile devices due to the limited computation resources. What's worse, traditional cloud-assisted DNN inference is heavily hindered by the significant wide-area network latency, leading to poor real-time performance as well as low quality of user experience. To address these challenges, in this paper, we propose Edgent, a framework that leverages edge computing for DNN collaborative inference through device-edge synergy. Edgent exploits two design knobs: (1) DNN partitioning that adaptively partitions computation between device and edge for purpose of coordinating the powerful cloud resource and the proximal edge resource for real-time DNN inference; (2) DNN right-sizing that further reduces computing latency via early exiting inference at an appropriate intermediate DNN layer
Distributed Vector Representation : Simplified
🔗 Distributed Vector Representation : Simplified
Arguably the most essential feature representation method in Machine Learning
🔗 Distributed Vector Representation : Simplified
Arguably the most essential feature representation method in Machine Learning
Medium
Distributed Vector Representation : Simplified
Arguably the most essential feature representation method in Machine Learning