Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits

🔗 How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits
We significantly reduce the cost of factoring integers and computing discrete logarithms over finite fields on a quantum computer by combining techniques from Griffiths-Niu 1996, Zalka 2006, Fowler 2012, Ekerå-Håstad 2017, Ekerå 2017, Ekerå 2018, Gidney-Fowler 2019, Gidney 2019. We estimate the approximate cost of our construction using plausible physical assumptions for large-scale superconducting qubit platforms: a planar grid of qubits with nearest-neighbor connectivity, a characteristic physical gate error rate of $10^{-3}$, a surface code cycle time of 1 microsecond, and a reaction time of 10 micro-seconds. We account for factors that are normally ignored such as noise, the need to make repeated attempts, and the spacetime layout of the computation. When factoring 2048 bit RSA integers, our construction's spacetime volume is a hundredfold less than comparable estimates from earlier works (Fowler et al. 2012, Gheorghiu et al. 2019). In the abstract circuit model (which ig
​Google researchers developed a way to peer inside the minds of deep-learning systems, and the results are delightfully weird.

https://www.technologyreview.com/f/610439/making-sense-of-neural-networks-febrile-dreams/

🔗 A new tool helps us understand what an AI is actually thinking
Google researchers developed a way to peer inside the minds of deep-learning systems, and the results are delightfully weird.What they did: The team built a tool that combines several techniques to provide people with a clearer idea of how neural networks make decisions.
​Augmenting correlation structures in spatial data using deep generative models
https://arxiv.org/abs/1905.09796

🔗 Augmenting correlation structures in spatial data using deep generative models
State-of-the-art deep learning methods have shown a remarkable capacity to model complex data domains, but struggle with geospatial data. In this paper, we introduce SpaceGAN, a novel generative model for geospatial domains that learns neighbourhood structures through spatial conditioning. We propose to enhance spatial representation beyond mere spatial coordinates, by conditioning each data point on feature vectors of its spatial neighbours, thus allowing for a more flexible representation of the spatial structure. To overcome issues of training convergence, we employ a metric capturing the loss in local spatial autocorrelation between real and generated data as stopping criterion for SpaceGAN parametrization. This way, we ensure that the generator produces synthetic samples faithful to the spatial patterns observed in the input. SpaceGAN is successfully applied for data augmentation and outperforms compared to other methods of synthetic spatial data generation. Finally, we propose an ensemble learning frame
Основы статистики
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Основы статистики. О курсе
01 - Основы статистики. Введение
02 - Основы статистики. Сравнение средних
03 - Основы статистики. Корреляция и регрессия
04 - Основы статистики. Анализ номинативных данных
05 - Основы статистики. Логистическая регрессия и непараметрические методы
06 - Основы статистики. Кластерный анализ и метод главных компонент
07 - Основы статистики. Подробнее о линейной регрессии
08 - Основы статистики. Смешанные регрессионные модели
09 - Основы статистики. Введение в bootstrap

🎥 00 - Основы статистики. О курсе
👁 737 раз 76 сек.
Лектор: Анатолий Карпов

https://stepik.org/76


🎥 01 - Основы статистики. Введение
👁 1349 раз 3847 сек.
Лектор: Анатолий Карпов

1. 0:00 Общая информация о курсе
2. 1:32 Генеральная совокупность и выборка
2.1 1:32 Понятие генеральной совокупности и вы...


🎥 02 - Основы статистики. Сравнение средних
👁 359 раз 4638 сек.
Лектор: Анатолий Карпов

1. T-распределение
2. Сравнение двух средних; t-критерий Стьюдента
3. Проверка распределения на нормальность, QQ-Plot
4. О...


🎥 03 - Основы статистики. Корреляция и регрессия
👁 281 раз 6792 сек.
Лектор: Анатолий Карпов

1. Понятие корреляции
2. Условия применения коэффициента корреляции
3. Регрессия с одной независимой переменной
4. Гипотез...


🎥 04 - Основы статистики. Анализ номинативных данных
👁 231 раз 7503 сек.
Лектор: Анатолий Карпов

1. Постановка задачи
2. Расстояние Пирсона
3. Распределение Хи-квадрат Пирсона
4. Расчет p-уровня значимости
5. Анализ таб...


🎥 05 - Основы статистики. Логистическая регрессия и непараметрические методы
👁 163 раз 8859 сек.
Лектор: Анатолий Карпов

1. Логистическая регрессия. Постановка задачи.
2. Модель без предикторов. Intercept only model
3. Модель с одним номинатив...


🎥 06 - Основы статистики. Кластерный анализ и метод главных компонент
👁 173 раз 5970 сек.
Лектор: Анатолий Карпов

1. Кластерный анализ методом k - средних
2. Может ли кластерный анализ "ошибаться"?
3. Как определить оптимальное число кл...


🎥 07 - Основы статистики. Подробнее о линейной регрессии
👁 164 раз 8245 сек.
Лектор: Анатолий Карпов

1. Введение
2. Линейность взаимосвязи
3. Логарифмическая трансформация переменных
4. Проблема гетероскедастичности
5. Муль...


🎥 08 - Основы статистики. Смешанные регрессионные модели
👁 216 раз 3165 сек.
Лектор: Иван Иванчей

1. Введение
2. Нарушение допущения о независимости наблюдений
3. Смешанные регрессионные модели. Реализация в R
4. Статистиче...


🎥 09 - Основы статистики. Введение в bootstrap
👁 143 раз 3923 сек.
Лектор: Арсений Москвичев

1. Складной нож (jackknife)
2. Bootstrap

https://stepik.org/2152
​Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэтому многое будет зависеть от выбора данной обученной сети. Благо такие сети есть и выбирать есть из чего, но здесь будет применяться VGG-16.

Для начала необходимо подключить необходимые библиотеки
https://habr.com/ru/post/453512/

🔗 Перенос стиля
Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэ...
🎥 Implementing K-Means Clustering From Scratch: Simply Explained
👁 1 раз 1201 сек.
This video explains how the K-Means Clustering algorithm works, an implementation from scratch, using popular machine learning libraries to run K-Means Clustering, and the plethora of applications that unsupervised machine learning algorithms such as K-Means Clustering bring.
_______
Website: https://www.discoverai.org/
Presentation: https://docs.google.com/presentation/d/1T_towpsxCC31tWytFMWxoJC91FUcm64VUhrY4W77bFk/edit?usp=sharing
Follow us on Twitter: https://twitter.com/_DiscoverAI_
​10 Python image manipulation tools.
An overview of some of the commonly used Python libraries that provide an easy and intuitive way to transform images.

https://towardsdatascience.com/image-manipulation-tools-for-python-6eb0908ed61f

🔗 10 Python image manipulation tools
An overview of some of the commonly used Python libraries that provide an easy and intuitive way to transform images.
🎥 Machine Learning Part 19: Time Series And AutoRegressive Integrated Moving Average Model (ARIMA)
👁 1 раз 1250 сек.
In this video, we cover AutoRegressive Integrated Moving Average Model (ARIMA), Auto Correlation Function (ACF) and Partial Auto Correlation Function (PACF).

CONNECT
Site: https://coryjmaklin.com/
Medium: https://medium.com/@corymaklin
GitHub: https://github.com/corymaklin
Twitter: https://twitter.com/CoryMaklin
Linkedin: https://www.linkedin.com/in/cory-makl...
Facebook: https://www.facebook.com/cory.maklin
Patreon: https://www.patreon.com/corymaklin
🎥 PASSION TALK #8 - Введение в сверточные нейронные сети
👁 1 раз 4345 сек.
Нам посчастливилось жить в то время, когда в программировании, науке, бизнесе набирают популярность алгоритмы машинного обучения. Особое место среди них занимают свёрточные нейронные сети. Что это такое и как этим пользоваться? В данной лекции будет всё подробно рассказано.

Спикер: Колбасин Владислав Александрович, ассистент кафедры компьютерной математики и анализа данных факультета компьютерных наук и программной инженерии Национального технического университета «Харьковский политехнический институт», Le
🎥 Евгений Разинков. Лекция 5. Логистическая регрессия (курс "Машинное обучение", весна 2019)
👁 1 раз 4172 сек.
Лекция посвящена алгоритму логистической регрессии.
Рассмотрены следующие вопросы:
- Целевая функция для задачи классификации и ее вывод на основе принципа максимального правдоподобия.
- Градиентный спуск.
- Вычисления частных производных целевой функции по параметрам модели.

Евгений Разинков -- к.ф.-м.н., руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX, ассистент кафедры системного анализа и ИТ института ВМиИТ Казанского федерального университета.

Информация о лекциях:
h
🎥 День Открытых Дверей курса «Нейронные сети на Python»
👁 1 раз 6913 сек.
День Открытых Дверей — отличная возможность узнать подробнее о программе курса, особенностях онлайн-формата, навыках, компетенциях и перспективах, которые ждут выпускников после обучения.
Также преподаватель расскажет о своём профессиональном опыте и ответит на вопросы участников.
Поэтому если есть вопрос, запишитесь на онлайн-трансляцию и задайте его в прямом эфире!

Преподаватель: Артур Кадурин - CEO Insilico Taiwan и Chief AI Officer Insilico Medicine

Подключайтесь к обсуждению в чате - https://otus.p
​Перенос стиля

Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэтому многое будет зависеть от выбора данной обученной сети. Благо такие сети есть и выбирать есть из чего, но здесь будет применяться VGG-16.

Для начала необходимо подключить необходимые библиотеки
https://habr.com/ru/post/453512/

🔗 Перенос стиля
Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэ...
🎥 Анекдоты 2019 | Анекдоты смешные до слез | Подборка анекдотов 2019 от Володи
👁 1 раз 806 сек.
Здесь собраны короткие анекдоты в моем исполнении. Я подумал, что анекдоты эти лучше собрать в один ролик из-за их размера.Эти анекдоты слишком короткие для роликов по отдельности.
Моя группа в вконтакте https://vk.com/club121314638
Хорошая группа с музыкой https://vk.com/public181787832

#Мешки под Глазами#Анекдоты#Юмор
​Открыт прием заявок на участие в пятом ежегодном Молодежном глобальном форуме, который пройдет в Амстердаме со 2 по 6 декабря 2019 года.

Участниками Молодежного глобального форума могут быть магистранты/аспиранты, предприниматели и молодые специалисты в возрасте 20-35 лет из любой страны мира. Владение английским языком обязательно.

Тема форума: «Включенное развитие vs Индустрия 5.0: Где будущее?
(Inclusive Development vs Industry 5.0: Where is the future?)”. Эксперты и лидеры отрасли расскажут о том, какое будущее нас ждет на фоне продолжающейся интеграции машин во все сферы жизни – образование, безопасность, бизнес, производств и т.д.

Возможны две формы участия: докладчик проекта и основной участник. Основной участник сможет участвовать в образовательных и интерактивных паблик-токах и встретиться с лидерами отрасли. Докладчик проекта сможет, помимо этого, представить свой проект с возможностью получить грант до 10 000 евро для реализации его идеи. Также он сможет побороться за две полностью финансируемые стипендии для обучения по программе бакалавриата или магистратуры в Загребской школе бизнеса и IPMI International Business School; платную стажировку в Международном молодежном обществе экологически чистых возобновляемых технологий.

Подать заявку в качестве докладчика проекта или основного участника можно ДО 1 ИЮНЯ по ссылке: https://www.youthglobalforum.org/apply

🔗 Apply | YOUTH GLOBAL FORUM AMSTERDAM 2019
Experience a higher level Event Management
​An Algorithmic Barrier to Neural Circuit Understanding
Venkatakrishnan Ramaswamy: https://www.biorxiv.org/content/10.1101/639724v1
#Algorithme #Neuroscience #innovation #technology

🔗 An Algorithmic Barrier to Neural Circuit Understanding
Neuroscience is witnessing extraordinary progress in experimental techniques, especially at the neural circuit level. These advances are largely aimed at enabling us to understand how neural circuit computations mechanistically cause behavior. Here, using techniques from Theoretical Computer Science, we examine how many experiments are needed to obtain such an empirical understanding. It is proved, mathematically, that establishing the most extensive notions of understanding need exponentially-many experiments in the number of neurons, in general, unless a widely-posited hypothesis about computation is false. Worse still, the feasible experimental regime is one where the number of experiments scales sub-linearly in the number of neurons, suggesting a fundamental impediment to such an understanding. Determining which notions of understanding are algorithmically tractable, thus, becomes an important new endeavor in Neuroscience.