Американские ученые научили роботов использовать вспомогательные инструменты
🔗 Американские ученые научили роботов использовать вспомогательные инструменты
Обезьяна (шимпанзе) достает термитов из термитника при помощи палки. Навторой фотографии горилла использует палку для сбора нужной ей травы Разработчики из СШ...
🔗 Американские ученые научили роботов использовать вспомогательные инструменты
Обезьяна (шимпанзе) достает термитов из термитника при помощи палки. Навторой фотографии горилла использует палку для сбора нужной ей травы Разработчики из СШ...
Хабр
Американские ученые научили роботов использовать вспомогательные инструменты
Обезьяна (шимпанзе) достает термитов из термитника при помощи палки. На второй фотографии горилла использует палку для сбора нужной ей травы Разработчики из США создали специализированный...
Generate Anime Style Face Using DCGAN and Explore Its Latent Feature Representation
🔗 Generate Anime Style Face Using DCGAN and Explore Its Latent Feature Representation
Step by step experimenting DCGAN with visualization of its results
🔗 Generate Anime Style Face Using DCGAN and Explore Its Latent Feature Representation
Step by step experimenting DCGAN with visualization of its results
Towards Data Science
Generate Anime Style Face Using DCGAN and Explore Its Latent Feature Representation
Step by step experimenting DCGAN with visualization of its results
Data Science with Optimus. Part 2: Setting your DataOps Environment.
🔗 Data Science with Optimus. Part 2: Setting your DataOps Environment.
Breaking down data science with Python, Spark and Optimus. Today: Data Operations for Data Science. ..::Part 1 here::.. Here we’ll learn…
🔗 Data Science with Optimus. Part 2: Setting your DataOps Environment.
Breaking down data science with Python, Spark and Optimus. Today: Data Operations for Data Science. ..::Part 1 here::.. Here we’ll learn…
Towards Data Science
Data Science with Optimus. Part 2: Setting your DataOps Environment.
Breaking down data science with Python, Spark and Optimus. Today: Data Operations for Data Science. ..::Part 1 here::.. Here we’ll learn…
Machine Learning — Diagnosing faults on vehicle fleet trackers
🔗 Machine Learning — Diagnosing faults on vehicle fleet trackers
A Data-Driven solution to diagnose faults on tracking modules.
🔗 Machine Learning — Diagnosing faults on vehicle fleet trackers
A Data-Driven solution to diagnose faults on tracking modules.
Towards Data Science
Machine Learning — Diagnosing faults on vehicle fleet trackers
A Data-Driven solution to diagnose faults on tracking modules.
🎥 Building a sustainable, open source machine learning platform for everyone (TensorFlow Meets)
👁 1 раз ⏳ 493 сек.
👁 1 раз ⏳ 493 сек.
TensorFlow is a truly open source platform with over 1,900 contributors. On this episode of TensorFlow Meets, Laurence talks to Open Source Strategist Edd Wilder-James about how things like TensorFlow’s Request for Comments process, Special Interest Groups, and the modularity of its codebase make it easier for the ML community to build TensorFlow together. They also discuss the upcoming O’Reilly TensorFlow World conference, which is accepting applications to participate now through April 23rd. Please subscrVk
Building a sustainable, open source machine learning platform for everyone (TensorFlow Meets)
TensorFlow is a truly open source platform with over 1,900 contributors. On this episode of TensorFlow Meets, Laurence talks to Open Source Strategist Edd Wilder-James about how things like TensorFlow’s Request for Comments process, Special Interest Groups…
🎥 Lesson 2. Linear algebra basics
👁 1 раз ⏳ 1205 сек.
👁 1 раз ⏳ 1205 сек.
In order to understand the math behind the neural nets we need to recap the basics of linear algebra.
We will talk about such objects as vectors, matrcies and tensors.
Lecturer: Nadya Zueva (MIPT).
Materials:
https://drive.google.com/open?id=1iLiyNJSzIfgzTvnq1IHut-GXQcGgHVtm
---
About Deep Learning School at PSAMI MIPT
Official website: https://www.dlschool.org
Github-repo: https://github.com/DLSchool/dlschool_english
About PSAMI MIPT
Official website: https://mipt.ru/english/edu/phystechschoolVk
Lesson 2. Linear algebra basics
In order to understand the math behind the neural nets we need to recap the basics of linear algebra.
We will talk about such objects as vectors, matrcies and tensors.
Lecturer: Nadya Zueva (MIPT).
Materials:
https://drive.google.com/open?id=1iLiyNJSzIfgzTvnq1IHut…
We will talk about such objects as vectors, matrcies and tensors.
Lecturer: Nadya Zueva (MIPT).
Materials:
https://drive.google.com/open?id=1iLiyNJSzIfgzTvnq1IHut…
Как запустить ML-прототип за один день. Доклад Яндекс.Такси
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Машинное обучение применяется на всём цикле заказа автомобиля в Яндекс.Такси, и число компонентов сервиса, работающих благодаря ML, постоянно растёт. Чтобы строить их единообразно, нам потребовался обособленный процесс. Руководитель службы машинного обучения и анализа данных Роман Халкечев рассказал про препроцессинг данных, применение моделей в продакшене, сервис их прототипирования и сопутствующие инструменты.
https://habr.com/ru/company/yandex/blog/447186/
🔗 Как запустить ML-прототип за один день. Доклад Яндекс.Такси
Машинное обучение применяется на всём цикле заказа автомобиля в Яндекс.Такси, и число компонентов сервиса, работающих благодаря ML, постоянно растёт. Чтобы строи...
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Машинное обучение применяется на всём цикле заказа автомобиля в Яндекс.Такси, и число компонентов сервиса, работающих благодаря ML, постоянно растёт. Чтобы строить их единообразно, нам потребовался обособленный процесс. Руководитель службы машинного обучения и анализа данных Роман Халкечев рассказал про препроцессинг данных, применение моделей в продакшене, сервис их прототипирования и сопутствующие инструменты.
https://habr.com/ru/company/yandex/blog/447186/
🔗 Как запустить ML-прототип за один день. Доклад Яндекс.Такси
Машинное обучение применяется на всём цикле заказа автомобиля в Яндекс.Такси, и число компонентов сервиса, работающих благодаря ML, постоянно растёт. Чтобы строи...
Хабр
Как запустить ML-прототип за один день. Доклад Яндекс.Такси
Машинное обучение применяется на всём цикле заказа автомобиля в Яндекс.Такси, и число компонентов сервиса, работающих благодаря ML, постоянно растёт. Чтобы строить их единообразно, нам потребовался...
🎥 Week 8 (part c) CS294-158 Deep Unsupervised Learning (4/3/19) -- Ilya Sutskever
👁 1 раз ⏳ 2928 сек.
👁 1 раз ⏳ 2928 сек.
UC Berkeley CS294-158 Deep Unsupervised Learning (Spring 2019)
Instructors: Pieter Abbeel, Xi (Peter) Chen, Jonathan Ho, Aravind Srinivas
https://sites.google.com/view/berkele...
Week 8c Lecture Contents:
- Ilya Sutskever guest lecture on GPT-2Vk
Week 8 (part c) CS294-158 Deep Unsupervised Learning (4/3/19) -- Ilya Sutskever
UC Berkeley CS294-158 Deep Unsupervised Learning (Spring 2019)
Instructors: Pieter Abbeel, Xi (Peter) Chen, Jonathan Ho, Aravind Srinivas
https://sites.google.com/view/berkele...
Week 8c Lecture Contents:
- Ilya Sutskever guest lecture on GPT-2
Instructors: Pieter Abbeel, Xi (Peter) Chen, Jonathan Ho, Aravind Srinivas
https://sites.google.com/view/berkele...
Week 8c Lecture Contents:
- Ilya Sutskever guest lecture on GPT-2
Основы Natural Language Processing для текста
🔗 Основы Natural Language Processing для текста
Обработка естественного языка сейчас не используются разве что в совсем консервативных отраслях. В большинстве технологических решений распознавание и обработка...
🔗 Основы Natural Language Processing для текста
Обработка естественного языка сейчас не используются разве что в совсем консервативных отраслях. В большинстве технологических решений распознавание и обработка...
Хабр
Основы Natural Language Processing для текста
Обработка естественного языка сейчас не используются разве что в совсем консервативных отраслях. В большинстве технологических решений распознавание и обработка «человеческих» языков давно...
Вышел ML.NET 1.0 RC. Что нового?
🔗 Вышел ML.NET 1.0 RC. Что нового?
ML.NET — это кроссплатформенная среда машинного обучения с открытым исходным кодом (Windows, Linux, macOS) для разработчиков .NET. Работая с ML.NET, разработчики...
🔗 Вышел ML.NET 1.0 RC. Что нового?
ML.NET — это кроссплатформенная среда машинного обучения с открытым исходным кодом (Windows, Linux, macOS) для разработчиков .NET. Работая с ML.NET, разработчики...
Хабр
Вышел ML.NET 1.0 RC. Что нового?
ML.NET — это кроссплатформенная среда машинного обучения с открытым исходным кодом (Windows, Linux, macOS) для разработчиков .NET. Работая с ML.NET, разработчики могут использовать существующие...
Зачем нужен нейрон смещения
🎥 Нейронная сеть. Часть 4 . Нейрон смещения.
👁 31 раз ⏳ 345 сек.
🎥 Нейронная сеть. Часть 4 . Нейрон смещения.
👁 31 раз ⏳ 345 сек.
Делюсь своим пониманием, для чего нужен нейрон смещения
Моя группа ВКонтакте https://vk.com/electronics_nn
Мой кошелёк на яндекс-деньги для желающ...Vk
Нейронная сеть. Часть 4 . Нейрон смещения.
Делюсь своим пониманием, для чего нужен нейрон смещения Моя группа ВКонтакте https://vk.com/electronics_nn Мой кошелёк на яндекс-деньги для желающ...
Mathematical programming — a key habit to built up for advancing in data science
🔗 Mathematical programming — a key habit to built up for advancing in data science
We show a small step towards building the habit of mathematical programming, a key skill in the repertoire of a budding data scientist.
🔗 Mathematical programming — a key habit to built up for advancing in data science
We show a small step towards building the habit of mathematical programming, a key skill in the repertoire of a budding data scientist.
Towards Data Science
Mathematical programming — a key habit to built up for advancing in data science
We show a small step towards building the habit of mathematical programming, a key skill in the repertoire of a budding data scientist.
Generating Images with Autoencoders
🔗 Generating Images with Autoencoders
In the following weeks, I will post a series of tutorials giving comprehensive introductions into unsupervised and self-supervised…
🔗 Generating Images with Autoencoders
In the following weeks, I will post a series of tutorials giving comprehensive introductions into unsupervised and self-supervised…
Towards Data Science
Generating Images with Autoencoders
In the following weeks, I will post a series of tutorials giving comprehensive introductions into unsupervised and self-supervised…
Laurent Picard - Building smarter apps with Machine Learning, from magic to reality
🔗 Laurent Picard - Building smarter apps with Machine Learning, from magic to reality
Any sufficiently advanced technology is indistinguishable from magic (Arthur C Clarke). Well, Machine Learning can look like magic to most of us, but you don...
🔗 Laurent Picard - Building smarter apps with Machine Learning, from magic to reality
Any sufficiently advanced technology is indistinguishable from magic (Arthur C Clarke). Well, Machine Learning can look like magic to most of us, but you don...
YouTube
Laurent Picard - Building smarter apps with Machine Learning, from magic to reality
Any sufficiently advanced technology is indistinguishable from magic (Arthur C Clarke). Well, Machine Learning can look like magic to most of us, but you don...
🎥 Applied Machine Learning 2019 - Lecture 20 - Neural Networks
👁 1 раз ⏳ 4002 сек.
👁 1 раз ⏳ 4002 сек.
Introduction to neural networks
Autograd
GPU acceleration
Deep learning frameworksVk
Applied Machine Learning 2019 - Lecture 20 - Neural Networks
Introduction to neural networks Autograd GPU acceleration Deep learning frameworks
🎥 Stanford CS234: Reinforcement Learning | Winter 2019 | Lecture 6 - CNNs and Deep Q Learning
👁 1 раз ⏳ 4771 сек.
👁 1 раз ⏳ 4771 сек.
Professor Emma Brunskill, Stanford University
http://onlinehub.stanford.edu/
Professor Emma Brunskill
Assistant Professor, Computer Science
Stanford AI for Human Impact Lab
Stanford Artificial Intelligence Lab
Statistical Machine Learning Group
To follow along with the course schedule and syllabus, visit: http://web.stanford.edu/class/cs234/index.html
To get the latest news on Stanford’s upcoming professional programs in Artificial Intelligence, visit: http://learn.stanford.edu/AI.html
To view aVk
Stanford CS234: Reinforcement Learning | Winter 2019 | Lecture 6 - CNNs and Deep Q Learning
Professor Emma Brunskill, Stanford University
http://onlinehub.stanford.edu/
Professor Emma Brunskill
Assistant Professor, Computer Science
Stanford AI for Human Impact Lab
Stanford Artificial Intelligence Lab
Statistical Machine Learning Group
To…
http://onlinehub.stanford.edu/
Professor Emma Brunskill
Assistant Professor, Computer Science
Stanford AI for Human Impact Lab
Stanford Artificial Intelligence Lab
Statistical Machine Learning Group
To…
🎥 Машинное обучение в Яндексе
👁 2 раз ⏳ 4885 сек.
👁 2 раз ⏳ 4885 сек.
Александр Крайнов, Руководитель лаборатории машинного интеллекта компании "Яндекс"Vk
Машинное обучение в Яндексе
Александр Крайнов, Руководитель лаборатории машинного интеллекта компании "Яндекс"
https://arxiv.org/abs/1903.08855
🔗 Linguistic Knowledge and Transferability of Contextual Representations
Contextual word representations derived from large-scale neural language models are successful across a diverse set of NLP tasks, suggesting that they encode useful and transferable features of language. To shed light on the linguistic knowledge they capture, we study the representations produced by several recent pretrained contextualizers (variants of ELMo, the OpenAI transformer language model, and BERT) with a suite of sixteen diverse probing tasks. We find that linear models trained on top of frozen contextual representations are competitive with state-of-the-art task-specific models in many cases, but fail on tasks requiring fine-grained linguistic knowledge (e.g., conjunct identification). To investigate the transferability of contextual word representations, we quantify differences in the transferability of individual layers within contextualizers, especially between recurrent neural networks (RNNs) and transformers. For instance, higher layers of RNNs are more task-specific, while transformer layers do not exhibit the same monotonic trend. In addition, to better understand what makes contextual word representations transferable, we compare language model pretraining with eleven supervised pretraining tasks. For any given task, pretraining on a closely related task yields better performance than language model pretraining (which is better on average) when the pretraining dataset is fixed. However, language model pretraining on more data gives the best results.
🔗 Linguistic Knowledge and Transferability of Contextual Representations
Contextual word representations derived from large-scale neural language models are successful across a diverse set of NLP tasks, suggesting that they encode useful and transferable features of language. To shed light on the linguistic knowledge they capture, we study the representations produced by several recent pretrained contextualizers (variants of ELMo, the OpenAI transformer language model, and BERT) with a suite of sixteen diverse probing tasks. We find that linear models trained on top of frozen contextual representations are competitive with state-of-the-art task-specific models in many cases, but fail on tasks requiring fine-grained linguistic knowledge (e.g., conjunct identification). To investigate the transferability of contextual word representations, we quantify differences in the transferability of individual layers within contextualizers, especially between recurrent neural networks (RNNs) and transformers. For instance, higher layers of RNNs are more task-specific, while transformer layers do not exhibit the same monotonic trend. In addition, to better understand what makes contextual word representations transferable, we compare language model pretraining with eleven supervised pretraining tasks. For any given task, pretraining on a closely related task yields better performance than language model pretraining (which is better on average) when the pretraining dataset is fixed. However, language model pretraining on more data gives the best results.
arXiv.org
Linguistic Knowledge and Transferability of Contextual Representations
Contextual word representations derived from large-scale neural language models are successful across a diverse set of NLP tasks, suggesting that they encode useful and transferable features of...