🎥 16. Word embeddings: семинар
👁 1 раз ⏳ 2265 сек.
👁 1 раз ⏳ 2265 сек.
Практическая часть занятия по эмбеддингам.
Лекция: https://www.youtube.com/watch?v=v-1sE7CODF8
Занятие ведёт Татьяна Гайнцева (ФИВТ МФТИ, ШАД).
Материалы занятия:
https://drive.google.com/open?id=11nmmmuZ9zkt7xRUGBeCjBTyVP0YCBaY9
---
Deep Learning School при ФПМИ МФТИ
Официальный сайт: https://www.dlschool.org
Официальная группа ВК: https://vk.com/dlschlmipt
Github-репозиторий: https://github.com/DLSchool/dlschool
ФПМИ МФТИ
Официальный сайт: https://mipt.ru/education/departments/fpmi/
Проекты дляVk
16. Word embeddings: семинар
Практическая часть занятия по эмбеддингам.
Лекция: https://www.youtube.com/watch?v=v-1sE7CODF8
Занятие ведёт Татьяна Гайнцева (ФИВТ МФТИ, ШАД).
Материалы занятия:
https://drive.google.com/open?id=11nmmmuZ9zkt7xRUGBeCjBTyVP0YCBaY9
---
Deep Learning…
Лекция: https://www.youtube.com/watch?v=v-1sE7CODF8
Занятие ведёт Татьяна Гайнцева (ФИВТ МФТИ, ШАД).
Материалы занятия:
https://drive.google.com/open?id=11nmmmuZ9zkt7xRUGBeCjBTyVP0YCBaY9
---
Deep Learning…
🎥 5. Модель нейрона: лекция
👁 2 раз ⏳ 3343 сек.
👁 2 раз ⏳ 3343 сек.
Время начинать изучать нейросети!
Чтобы понять, как они работают, необходимо понимать работу одного нейрона. На этом занятии речь как раз идёт об этом и том, как устроен перцептрон Розенблатта -- прообраз современного нейрона.
Занятие ведёт Татьяна Гайнцева (ФИВТ МФТИ, ШАД).
Семинар: https://www.youtube.com/watch?v=gsPbqq-HYfg
Материалы занятия:
https://drive.google.com/open?id=1dwNweNgW1juGKjJZ-j1y0h-Rb4eSxJ0-
---
Deep Learning School при ФПМИ МФТИ
Официальный сайт: https://www.dlschool.org
ОфициVk
5. Модель нейрона: лекция
Время начинать изучать нейросети!
Чтобы понять, как они работают, необходимо понимать работу одного нейрона. На этом занятии речь как раз идёт об этом и том, как устроен перцептрон Розенблатта -- прообраз современного нейрона.
Занятие ведёт Татьяна Гайнцева…
Чтобы понять, как они работают, необходимо понимать работу одного нейрона. На этом занятии речь как раз идёт об этом и том, как устроен перцептрон Розенблатта -- прообраз современного нейрона.
Занятие ведёт Татьяна Гайнцева…
🎥 101. Чем может и чем не может наука о данных помочь науке о литературе — Борис Орехов
👁 1 раз ⏳ 1661 сек.
👁 1 раз ⏳ 1661 сек.
В рамках мероприятия "Data & Science: цифровые методы в гуманитарных науках" Борис Орехов рассказал, что наука о данных и литературоведение гораздо больше похожи, чем кажется на первый взгляд.
Обе отрасли знания пытаются найти неочевидные закономерности в сложно организованных объектах. Но не любой привычный исследователю данных подход будет осмыслен в исследовании литературы. Борис на примерах показывает, какие методы работают и приносят пользу, а какие пока остаются игрушками — и почему.
Другие докладыVk
101. Чем может и чем не может наука о данных помочь науке о литературе — Борис Орехов
В рамках мероприятия "Data & Science: цифровые методы в гуманитарных науках" Борис Орехов рассказал, что наука о данных и литературоведение гораздо больше похожи, чем кажется на первый взгляд.
Обе отрасли знания пытаются найти неочевидные закономерности…
Обе отрасли знания пытаются найти неочевидные закономерности…
Tinkering with Tensors and Other Great Adventures
A meditation on implementing your first deep learning paper, while (loosely) maintaining your sanity.
https://towardsdatascience.com/tinkering-with-tensors-and-other-great-adventures-260572a403e8
🔗 Tinkering with Tensors and Other Great Adventures
A meditation on implementing your first deep learning paper, while (loosely) maintaining your sanity.
A meditation on implementing your first deep learning paper, while (loosely) maintaining your sanity.
https://towardsdatascience.com/tinkering-with-tensors-and-other-great-adventures-260572a403e8
🔗 Tinkering with Tensors and Other Great Adventures
A meditation on implementing your first deep learning paper, while (loosely) maintaining your sanity.
Towards Data Science
Tinkering with Tensors and Other Great Adventures
A meditation on implementing your first deep learning paper, while (loosely) maintaining your sanity.
Visualizing memorization in RNNs
https://distill.pub/2019/memorization-in-rnns/
#artificialintelligence #deeplearning #machinelearning
🔗 Visualizing memorization in RNNs
Inspecting gradient magnitudes in context can be a powerful tool to see when recurrent units use short-term or long-term contextual understanding.
https://distill.pub/2019/memorization-in-rnns/
#artificialintelligence #deeplearning #machinelearning
🔗 Visualizing memorization in RNNs
Inspecting gradient magnitudes in context can be a powerful tool to see when recurrent units use short-term or long-term contextual understanding.
Distill
Visualizing memorization in RNNs
Inspecting gradient magnitudes in context can be a powerful tool to see when recurrent units use short-term or long-term contextual understanding.
Simulated Policy Learning in Video Models
http://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html
🔗 Simulated Policy Learning in Video Models
Posted by Łukasz Kaiser and Dumitru Erhan, Research Scientists, Google AI Deep reinforcement learning (RL) techniques can be used to le...
http://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html
🔗 Simulated Policy Learning in Video Models
Posted by Łukasz Kaiser and Dumitru Erhan, Research Scientists, Google AI Deep reinforcement learning (RL) techniques can be used to le...
Googleblog
Simulated Policy Learning in Video Models
Российский Завод Колесных Проставок ZUZ™
✔Шайбы сквозные
✔Расширители колеи
✔Переходники для дисков
Самые низкие цены на рынке 📉
Высокопрочный алюминий 👊🏻
Комплекты в наличии
Заказ от 1 штуки
Изготовление по вашим параметрам 🔧
✔автомобили
✔квадроциклы
✔прицепы
Проконсультироваться и заказать:
По телефону/Viber/Whatsapp +7 (982) 277 44 44 ☎
В группе: vk.com/zavodprostavok
На официальном сайте компании: http://zlatural74.ru/
Всех участников в сфере авто - мото бизнеса приглашаем к сотрудничеству 🤝
----------------------------------------------------------------------------
Проставки на автомобили: Уаз (Uaz), Нива (Niva), Ваз, Лада (Lada), Тойота (Toyota), Бмв (Bmw), Мерседес (Mercedes), Ауди (Audi),Фольксваген (Volkswagen),Ситроен (Citroen),Форд (Ford), Киа (Kia), Хендай (Hyundai), Лексус (Lexus), Мазда (Mazda), Митсубиси (Mitsubishi), Ниссан (Nissan), Опель (Opel), Пежо (Peugeot), Субару (Subaru), Cузуки (Suzuki), Вольво (Volvo), Санг Йонг (Ssangyong), Шевроле (Chevrolet)...
Проставки на квадроциклы: Поларис (Polaris), Brp, Can-Am, Yamaha (Ямаха), ArcticCat (Арктик Кэт), Honda (Хонда), Kawasaki ( Кавасаки), Cfmoto (Си Эф Мото), Stels (Стелс), Suzuki (Сузуки), Рм (Русская Механика)...
Проставки на прицепы: МЗСА, ВЕКТОР, Трейлер, СаранскСпецТехника, Курганские прицепы, Кремень31, LAKER, PRESTIGE...
🔗
✔Шайбы сквозные
✔Расширители колеи
✔Переходники для дисков
Самые низкие цены на рынке 📉
Высокопрочный алюминий 👊🏻
Комплекты в наличии
Заказ от 1 штуки
Изготовление по вашим параметрам 🔧
✔автомобили
✔квадроциклы
✔прицепы
Проконсультироваться и заказать:
По телефону/Viber/Whatsapp +7 (982) 277 44 44 ☎
В группе: vk.com/zavodprostavok
На официальном сайте компании: http://zlatural74.ru/
Всех участников в сфере авто - мото бизнеса приглашаем к сотрудничеству 🤝
----------------------------------------------------------------------------
Проставки на автомобили: Уаз (Uaz), Нива (Niva), Ваз, Лада (Lada), Тойота (Toyota), Бмв (Bmw), Мерседес (Mercedes), Ауди (Audi),Фольксваген (Volkswagen),Ситроен (Citroen),Форд (Ford), Киа (Kia), Хендай (Hyundai), Лексус (Lexus), Мазда (Mazda), Митсубиси (Mitsubishi), Ниссан (Nissan), Опель (Opel), Пежо (Peugeot), Субару (Subaru), Cузуки (Suzuki), Вольво (Volvo), Санг Йонг (Ssangyong), Шевроле (Chevrolet)...
Проставки на квадроциклы: Поларис (Polaris), Brp, Can-Am, Yamaha (Ямаха), ArcticCat (Арктик Кэт), Honda (Хонда), Kawasaki ( Кавасаки), Cfmoto (Си Эф Мото), Stels (Стелс), Suzuki (Сузуки), Рм (Русская Механика)...
Проставки на прицепы: МЗСА, ВЕКТОР, Трейлер, СаранскСпецТехника, Курганские прицепы, Кремень31, LAKER, PRESTIGE...
🔗
Выкупят/не выкупят: наш ML-пилот в «Утконосе»
В этом посте речь пойдет про пилотное ML-исследование для гипермаркета «Утконос», где мы прогнозировали выкуп скоропортящихся товаров. При этом мы учли данные не только по остаткам на складе, но и производственный календарь с выходными и праздниками и даже погоду (жара, снег, дождь и град нипочем только «Taft’у Три погоды», но не покупателям). Теперь мы знаем, например, что «загадочная русская душа» особенно жаждет мяса по субботам, а белые яйца ценит выше коричневых. Но обо всем по порядку.https://habr.com/ru/company/jetinfosystems/blog/445190/
🔗 Выкупят/не выкупят: наш ML-пилот в «Утконосе»
В этом посте речь пойдет про пилотное ML-исследование для гипермаркета «Утконос», где мы прогнозировали выкуп скоропортящихся товаров. При этом мы учли данные не...
В этом посте речь пойдет про пилотное ML-исследование для гипермаркета «Утконос», где мы прогнозировали выкуп скоропортящихся товаров. При этом мы учли данные не только по остаткам на складе, но и производственный календарь с выходными и праздниками и даже погоду (жара, снег, дождь и град нипочем только «Taft’у Три погоды», но не покупателям). Теперь мы знаем, например, что «загадочная русская душа» особенно жаждет мяса по субботам, а белые яйца ценит выше коричневых. Но обо всем по порядку.https://habr.com/ru/company/jetinfosystems/blog/445190/
🔗 Выкупят/не выкупят: наш ML-пилот в «Утконосе»
В этом посте речь пойдет про пилотное ML-исследование для гипермаркета «Утконос», где мы прогнозировали выкуп скоропортящихся товаров. При этом мы учли данные не...
Хабр
Выкупят/не выкупят: наш ML-пилот в «Утконосе»
В этом посте речь пойдет про пилотное ML-исследование для онлайн-гипермаркета «Утконос», где мы прогнозировали выкуп скоропортящихся товаров. При этом мы учли да...
SNA Hackathon 2019: усложняем архитектуру — упрощаем признаки
https://habr.com/ru/company/mailru/blog/445348/
🔗 SNA Hackathon 2019: усложняем архитектуру — упрощаем признаки
В этой статье я расскажу про свое решение текстовой части задачи SNA Hackathon 2019. Какие-то из предложенных идей будут полезны участникам очной части хакатон...
https://habr.com/ru/company/mailru/blog/445348/
🔗 SNA Hackathon 2019: усложняем архитектуру — упрощаем признаки
В этой статье я расскажу про свое решение текстовой части задачи SNA Hackathon 2019. Какие-то из предложенных идей будут полезны участникам очной части хакатон...
Habr
SNA Hackathon 2019: усложняем архитектуру — упрощаем признаки
В этой статье я расскажу про свое решение текстовой части задачи SNA Hackathon 2019. Какие-то из предложенных идей будут полезны участникам очной части хакатона, которая пройдет в московском офисе...
snakers4/gpu-box-setup
🔗 snakers4/gpu-box-setup
Contribute to snakers4/gpu-box-setup development by creating an account on GitHub.
🔗 snakers4/gpu-box-setup
Contribute to snakers4/gpu-box-setup development by creating an account on GitHub.
GitHub
GitHub - snakers4/gpu-box-setup
Contribute to snakers4/gpu-box-setup development by creating an account on GitHub.
Quantum Machine Learning - Prof. Lilienfeld
🔗 Quantum Machine Learning - Prof. Lilienfeld
Prof. O. Anatole von Lilienfeld of the University of Bassel presented his labs work on Quantum Machine Learning at the 2017 Conference on Neural Information ...
🔗 Quantum Machine Learning - Prof. Lilienfeld
Prof. O. Anatole von Lilienfeld of the University of Bassel presented his labs work on Quantum Machine Learning at the 2017 Conference on Neural Information ...
YouTube
Quantum Machine Learning - Prof. Lilienfeld
Prof. O. Anatole von Lilienfeld of the University of Bassel presented his labs work on Quantum Machine Learning at the 2017 Conference on Neural Information ...
https://arxiv.org/abs/1903.08114
🔗 Exact Gaussian Processes on a Million Data Points
Gaussian processes (GPs) are flexible models with state-of-the-art performance on many impactful applications. However, computational constraints with standard inference procedures have limited exact GPs to problems with fewer than about ten thousand training points, necessitating approximations for larger datasets. In this paper, we develop a scalable approach for exact GPs that leverages multi-GPU parallelization and methods like linear conjugate gradients, accessing the kernel matrix only through matrix multiplication. By partitioning and distributing kernel matrix multiplies, we demonstrate that an exact GP can be trained on over a million points in 3 days using 8 GPUs and can compute predictive means and variances in under a second using 1 GPU at test time. Moreover, we perform the first-ever comparison of exact GPs against state-of-the-art scalable approximations on large-scale regression datasets with $10^4-10^6$ data points, showing dramatic performance improvements.
🔗 Exact Gaussian Processes on a Million Data Points
Gaussian processes (GPs) are flexible models with state-of-the-art performance on many impactful applications. However, computational constraints with standard inference procedures have limited exact GPs to problems with fewer than about ten thousand training points, necessitating approximations for larger datasets. In this paper, we develop a scalable approach for exact GPs that leverages multi-GPU parallelization and methods like linear conjugate gradients, accessing the kernel matrix only through matrix multiplication. By partitioning and distributing kernel matrix multiplies, we demonstrate that an exact GP can be trained on over a million points in 3 days using 8 GPUs and can compute predictive means and variances in under a second using 1 GPU at test time. Moreover, we perform the first-ever comparison of exact GPs against state-of-the-art scalable approximations on large-scale regression datasets with $10^4-10^6$ data points, showing dramatic performance improvements.
arXiv.org
Exact Gaussian Processes on a Million Data Points
Gaussian processes (GPs) are flexible non-parametric models, with a capacity that grows with the available data. However, computational constraints with standard inference procedures have limited...
A quantum version of the building block behind neural networks could be exponentially more powerful. By Emerging Technology from the arXiv: https://www.technologyreview.com/…/machine-learning-meet-q…/
An Artificial Neuron Implemented on an Actual Quantum Processor, https://arxiv.org/abs/1811.02266
#artificialinteligence #quantumcomputing #neuralnetworks #machinelearning #processors
🔗 An Artificial Neuron Implemented on an Actual Quantum Processor
Artificial neural networks are the heart of machine learning algorithms and artificial intelligence protocols. Historically, the simplest implementation of an artificial neuron traces back to the classical Rosenblatt's `perceptron', but its long term practical applications may be hindered by the fast scaling up of computational complexity, especially relevant for the training of multilayered perceptron networks. Here we introduce a quantum information-based algorithm implementing the quantum computer version of a perceptron, which shows exponential advantage in encoding resources over alternative realizations. We experimentally test a few qubits version of this model on an actual small-scale quantum processor, which gives remarkably good answers against the expected results. We show that this quantum model of a perceptron can be used as an elementary nonlinear classifier of simple patterns, as a first step towards practical training of artificial quantum neural networks to be efficiently implemented o
An Artificial Neuron Implemented on an Actual Quantum Processor, https://arxiv.org/abs/1811.02266
#artificialinteligence #quantumcomputing #neuralnetworks #machinelearning #processors
🔗 An Artificial Neuron Implemented on an Actual Quantum Processor
Artificial neural networks are the heart of machine learning algorithms and artificial intelligence protocols. Historically, the simplest implementation of an artificial neuron traces back to the classical Rosenblatt's `perceptron', but its long term practical applications may be hindered by the fast scaling up of computational complexity, especially relevant for the training of multilayered perceptron networks. Here we introduce a quantum information-based algorithm implementing the quantum computer version of a perceptron, which shows exponential advantage in encoding resources over alternative realizations. We experimentally test a few qubits version of this model on an actual small-scale quantum processor, which gives remarkably good answers against the expected results. We show that this quantum model of a perceptron can be used as an elementary nonlinear classifier of simple patterns, as a first step towards practical training of artificial quantum neural networks to be efficiently implemented o
MIT Technology Review
Emerging technology news & insights | AI, Climate Change, BioTech, and more
Illustrated: Efficient Neural Architecture Search
🔗 Illustrated: Efficient Neural Architecture Search
Macro and micro search strategies in ENAS
🔗 Illustrated: Efficient Neural Architecture Search
Macro and micro search strategies in ENAS
Towards Data Science
Illustrated: Efficient Neural Architecture Search
Macro and micro search strategies in ENAS
🎥 Really Quick Questions - Nvidia Research
👁 21 раз ⏳ 490 сек.
👁 21 раз ⏳ 490 сек.
Nvidia is the inventor of the GPU! This tech company based in Silicon Valley has played a huge role in the deep learning revolution (which has relied primarily on GPUs for computing), and its transformed many industries. In this video, I interview Bryan Catanzaro, the Vice President of Applied Deep Learning Research at NVIDIA. Bryan got his PhD in AI from Berkeley, invented a language called Copperhead, and is an expert in parallel programming theory. Nvidia invited me to their annual conference, so I tookVk
Really Quick Questions - Nvidia Research
Nvidia is the inventor of the GPU! This tech company based in Silicon Valley has played a huge role in the deep learning revolution (which has relied primarily on GPUs for computing), and its transformed many industries. In this video, I interview Bryan Catanzaro…
Making Art With Your Webcam
🔗 Making Art With Your Webcam
An implementation and explanation of Fast Style Transfer with a precursor in Basic Style Transfer
🔗 Making Art With Your Webcam
An implementation and explanation of Fast Style Transfer with a precursor in Basic Style Transfer
Towards Data Science
Making Art With A Webcam
An implementation and explanation of Fast Style Transfer with a precursor in Basic Style Transfer