Reimagining Plutarch with Tensorflow 2.0
🔗 Reimagining Plutarch with Tensorflow 2.0
Plutarch’s Lives of the Noble Greeks and Romans through Word Embeddings in TensorFlow 2.0
🔗 Reimagining Plutarch with Tensorflow 2.0
Plutarch’s Lives of the Noble Greeks and Romans through Word Embeddings in TensorFlow 2.0
Medium
Reimagining Plutarch with Tensorflow 2.0
Plutarch’s Lives of the Noble Greeks and Romans through Word Embeddings in TensorFlow 2.0
What to Avoid: Common Mistakes on Data Science Applications
🔗 What to Avoid: Common Mistakes on Data Science Applications
Or what not to do if you want to get noticed in the competitive field of Data Science.
🔗 What to Avoid: Common Mistakes on Data Science Applications
Or what not to do if you want to get noticed in the competitive field of Data Science.
Medium
What to Avoid: Common Mistakes on Data Science Applications
Or what not to do if you want to get noticed in the competitive field of Data Science.
🎥 [Part4] |Multiple Linear Regression| Machine Learning A-Z™: Hands-On Python & R In Data Science 2019
👁 1 раз ⏳ 8319 сек.
👁 1 раз ⏳ 8319 сек.
Learn to create Machine Learning Algorithms in Python and R from two Data Science experts. Code templates included.
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
###############################
What you'll learn
Master Machine Learning on Python & R
Have a great intuition of many Machine Learning models
Make accurate predictions
Make powerful analysis
Make robust Machine Learning models
Create strong added value toVk
[Part4] |Multiple Linear Regression| Machine Learning A-Z™: Hands-On Python & R In Data Science 2019
Learn to create Machine Learning Algorithms in Python and R from two Data Science experts. Code templates included.
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
######…
###############################
Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support
######…
Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»
#Python
Профессиональная литература
imageПривет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практическое изучение RL на Python поможет освоить не только базовые, но и передовые алгоритмы глубокого обучения с подкреплением. Эта книга предназначена для разработчиков МО и энтузиастов глубокого обучения, интересующихся искусственным интеллектом и желающих освоить метод обучения с подкреплением. Прочитайте эту книгу и станьте экспертом в области обучения с подкреплением, реализуя практические примеры в работе или вне ее. Знания в области линейной алгебры, математического анализа и языка программирования Python помогут вам понять логику изложения материала.
https://habr.com/ru/company/piter/blog/465605/
🔗 Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»
Привет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практи...
#Python
Профессиональная литература
imageПривет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практическое изучение RL на Python поможет освоить не только базовые, но и передовые алгоритмы глубокого обучения с подкреплением. Эта книга предназначена для разработчиков МО и энтузиастов глубокого обучения, интересующихся искусственным интеллектом и желающих освоить метод обучения с подкреплением. Прочитайте эту книгу и станьте экспертом в области обучения с подкреплением, реализуя практические примеры в работе или вне ее. Знания в области линейной алгебры, математического анализа и языка программирования Python помогут вам понять логику изложения материала.
https://habr.com/ru/company/piter/blog/465605/
🔗 Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»
Привет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практи...
Хабр
Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»
Привет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практи...
Как оптимизировать pandas при работе с большими datasetами (очерк)
Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабатывать или хотя бы считать.
Предлагается взглянуть на оптимизацию в миниатюре, дабы не вытаскивать из сети гигантские датасеты.
В качестве датасета будем использовать хабрастатистику с комментариями пользователей за 2019 г., которая является общедоступной благодаря одному трудолюбивому пользователю:
dataset
В качестве инфо-основы будет использоваться ранее переведенная статья с Хабра, в которой намешано много интересного.
tglink.me/pythonl - наш телеграм канал
https://habr.com/ru/post/467785/
🔗 Как оптимизировать pandas при работе с большими datasetами (очерк)
Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабаты...
Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабатывать или хотя бы считать.
Предлагается взглянуть на оптимизацию в миниатюре, дабы не вытаскивать из сети гигантские датасеты.
В качестве датасета будем использовать хабрастатистику с комментариями пользователей за 2019 г., которая является общедоступной благодаря одному трудолюбивому пользователю:
dataset
В качестве инфо-основы будет использоваться ранее переведенная статья с Хабра, в которой намешано много интересного.
tglink.me/pythonl - наш телеграм канал
https://habr.com/ru/post/467785/
🔗 Как оптимизировать pandas при работе с большими datasetами (очерк)
Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабаты...
Кластеризуем лучше, чем «метод локтя»
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой мерой расстояния) точек в облаке данных, определить которые другими средствами было бы трудно.
Однако процесс кластеризации по большей части относится к сфере машинного обучения без учителя, для которой характерен ряд сложностей. Здесь не существует ответов или подсказок, как оптимизировать процесс или оценить успешность обучения. Это неизведанная территория.
https://habr.com/ru/company/jetinfosystems/blog/467745/
🔗 Кластеризуем лучше, чем «метод локтя»
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой...
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой мерой расстояния) точек в облаке данных, определить которые другими средствами было бы трудно.
Однако процесс кластеризации по большей части относится к сфере машинного обучения без учителя, для которой характерен ряд сложностей. Здесь не существует ответов или подсказок, как оптимизировать процесс или оценить успешность обучения. Это неизведанная территория.
https://habr.com/ru/company/jetinfosystems/blog/467745/
🔗 Кластеризуем лучше, чем «метод локтя»
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой...
Хабр
Кластеризуем лучше, чем «метод локтя»
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой мерой расстояния) точек в облаке...
Attention, please: forget about Recurrent Neural Networks
🔗 Attention, please: forget about Recurrent Neural Networks
You should probably replace your recurrent networks with convolutions and be happy
🔗 Attention, please: forget about Recurrent Neural Networks
You should probably replace your recurrent networks with convolutions and be happy
Medium
Attention, please: forget about Recurrent Neural Networks
You should probably replace your recurrent networks with convolutions and be happy
Логика нейронных сетей
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть, как они справляются с некоторыми модельными задачами. Примеры кода будут приводиться на python
с использованием библиотеки keras.
Задача 1. Начнём с простого. Построим нейронную сеть, аппроксимирующую синус.
import numpy as np
import matplotlib
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense
def get_X_y(n):
X = np.random.uniform(0, np.pi, n)
y = np.sin(X)
return X, y
n = 40
X, y = get_X_y(n)
print("X shape:", X.shape)
model = Sequential()
model.add(Dense(6, input_dim=1, activation='relu'))
model.add(Dense(4, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='mean_squared_error', optimizer='adam', metrics=['mean_squared_error'])
model.fit(X, y, epochs=1000, batch_size=4)
X_test = np.linspace(start=0, stop=np.pi, num=500)
print("X test shape:", X_test.shape)
y_test = model.predict(X_test)
font = {'weight': 'bold',
'size': 25}
matplotlib.rc('font', **font)
axes = plt.gca()
axes.set_ylim(0, 1)
plt.plot(X_test, y_test, c='green', marker='o', markersize=5)
plt.title("Sinus approximated by neural network")
plt.yticks(np.arange(0, 1, 0.1))
plt.grid()
plt.show()
Получаем следующй график:
Как видим, нейронная сеть успешно справилась с задачей аппроксимации несложной функции.
🔗 Логика нейронных сетей
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть...
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть, как они справляются с некоторыми модельными задачами. Примеры кода будут приводиться на python
с использованием библиотеки keras.
Задача 1. Начнём с простого. Построим нейронную сеть, аппроксимирующую синус.
import numpy as np
import matplotlib
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense
def get_X_y(n):
X = np.random.uniform(0, np.pi, n)
y = np.sin(X)
return X, y
n = 40
X, y = get_X_y(n)
print("X shape:", X.shape)
model = Sequential()
model.add(Dense(6, input_dim=1, activation='relu'))
model.add(Dense(4, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='mean_squared_error', optimizer='adam', metrics=['mean_squared_error'])
model.fit(X, y, epochs=1000, batch_size=4)
X_test = np.linspace(start=0, stop=np.pi, num=500)
print("X test shape:", X_test.shape)
y_test = model.predict(X_test)
font = {'weight': 'bold',
'size': 25}
matplotlib.rc('font', **font)
axes = plt.gca()
axes.set_ylim(0, 1)
plt.plot(X_test, y_test, c='green', marker='o', markersize=5)
plt.title("Sinus approximated by neural network")
plt.yticks(np.arange(0, 1, 0.1))
plt.grid()
plt.show()
Получаем следующй график:
Как видим, нейронная сеть успешно справилась с задачей аппроксимации несложной функции.
🔗 Логика нейронных сетей
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть...
Хабр
Какие закономерности находят нейросети?
В этом посте я хочу рассказать о закономерностях, которые могут находить нейросети. Во многих руководствах для начинающих акцент делается на технике написания ко...
🎥 Kaggle iMaterialist (Fashion) 2019 at FGVC6 — Илья Денисов
👁 1 раз ⏳ 1180 сек.
👁 1 раз ⏳ 1180 сек.
Илья Денисов рассказывает про опыт участия в соревновании Kaggle iMaterialist (Fashion) 2019 at FGVC6, в котором он выиграл золотую медаль.
Из этого видео вы сможете узнать:
- Как детальное изучение метрики дает улучшение на лидерборде
- Как особенности в данных могут помешать хорошо обучить модель
- Как выбор неправильного метода интерполяции может занижать результаты вашей сети
Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/
Узнать о новых тренировках и видео можно из групп:
ВКонтVk
Kaggle iMaterialist (Fashion) 2019 at FGVC6 — Илья Денисов
Илья Денисов рассказывает про опыт участия в соревновании Kaggle iMaterialist (Fashion) 2019 at FGVC6, в котором он выиграл золотую медаль.
Из этого видео вы сможете узнать:
- Как детальное изучение метрики дает улучшение на лидерборде
- Как особенности…
Из этого видео вы сможете узнать:
- Как детальное изучение метрики дает улучшение на лидерборде
- Как особенности…
Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle
🔗 Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle
Today we're continuing with the paper "Weight Agnostic Neural Networks" by Gaier & Ha from NeurIPS 2019. Link to paper: https://arxiv.org/pdf/1906.04358.pdf SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_... About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repo
🔗 Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle
Today we're continuing with the paper "Weight Agnostic Neural Networks" by Gaier & Ha from NeurIPS 2019. Link to paper: https://arxiv.org/pdf/1906.04358.pdf SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_... About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repo
YouTube
Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle
Today we're continuing with the paper "Weight Agnostic Neural Networks" by Gaier & Ha from NeurIPS 2019.
Link to paper: https://arxiv.org/pdf/1906.04358.pdf
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_...
About Kaggle:
Kaggle is the world's largest…
Link to paper: https://arxiv.org/pdf/1906.04358.pdf
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_...
About Kaggle:
Kaggle is the world's largest…
Ihmehimmeli
This repository contains code for project Ihmehimmeli. The model is described in the paper:
I.M. Comsa, K. Potempa, L. Versari, T. Fischbacher, A. Gesmundo, J. Alakuijala (2019). “Temporal coding in spiking neural networks with alpha synaptic function”, arXiv:1907.13223, July 2019
https://github.com/google/ihmehimmeli
🔗 google/ihmehimmeli
Contribute to google/ihmehimmeli development by creating an account on GitHub.
This repository contains code for project Ihmehimmeli. The model is described in the paper:
I.M. Comsa, K. Potempa, L. Versari, T. Fischbacher, A. Gesmundo, J. Alakuijala (2019). “Temporal coding in spiking neural networks with alpha synaptic function”, arXiv:1907.13223, July 2019
https://github.com/google/ihmehimmeli
🔗 google/ihmehimmeli
Contribute to google/ihmehimmeli development by creating an account on GitHub.
GitHub
GitHub - google/ihmehimmeli
Contribute to google/ihmehimmeli development by creating an account on GitHub.
Project Ihmehimmeli: Temporal Coding in Spiking Neural Networks
http://ai.googleblog.com/2019/09/project-ihmehimmeli-temporal-coding-in.html
🔗 Project Ihmehimmeli: Temporal Coding in Spiking Neural Networks
Posted by Iulia-Maria Comșa and Krzysztof Potempa, Research Engineers, Google Research, Zürich The discoveries being made regularly in n...
http://ai.googleblog.com/2019/09/project-ihmehimmeli-temporal-coding-in.html
🔗 Project Ihmehimmeli: Temporal Coding in Spiking Neural Networks
Posted by Iulia-Maria Comșa and Krzysztof Potempa, Research Engineers, Google Research, Zürich The discoveries being made regularly in n...
Googleblog
Project Ihmehimmeli: Temporal Coding in Spiking Neural Networks
7 Things you should know about ROC AUC
🔗 7 Things you should know about ROC AUC
The dark side of the popular performance metric
🔗 7 Things you should know about ROC AUC
The dark side of the popular performance metric
Medium
7 Things you should know about ROC AUC
The dark side of the popular performance metric
How to beat facial recognition systems with Face Anonymization.
🔗 How to beat facial recognition systems with Face Anonymization.
An exploration of DeepPrivacy — A Generative Adversarial Network for Face Anonymization.
🔗 How to beat facial recognition systems with Face Anonymization.
An exploration of DeepPrivacy — A Generative Adversarial Network for Face Anonymization.
Medium
How to beat facial recognition systems with Face Anonymization.
An exploration of DeepPrivacy — A Generative Adversarial Network for Face Anonymization.
Modeling Toxic Masculinity in the Action/Adventure Genre
🔗 Modeling Toxic Masculinity in the Action/Adventure Genre
Using NLTK, Gensim, Spacy and pyLDAvis to uncover telling patterns of speech amongst action protagonists.
🔗 Modeling Toxic Masculinity in the Action/Adventure Genre
Using NLTK, Gensim, Spacy and pyLDAvis to uncover telling patterns of speech amongst action protagonists.
Medium
Modeling Toxic Masculinity in the Action/Adventure Genre
Using NLTK, Gensim, Spacy and pyLDAvis to uncover telling patterns of speech amongst action protagonists.
RSNA Intracranial Hemorrhage Detection
🔗 RSNA Intracranial Hemorrhage Detection
Identify acute intracranial hemorrhage and its subtypes
🔗 RSNA Intracranial Hemorrhage Detection
Identify acute intracranial hemorrhage and its subtypes
Kaggle
RSNA Intracranial Hemorrhage Detection
Identify acute intracranial hemorrhage and its subtypes
🔍 DeepPavlov: An open-source library for end-to-end dialogue systems and chatbots
tutorial: https://medium.com/tensorflow/deeppavlov-an-open-source-library-for-end-to-end-dialog-systems-and-chatbots-31cf26849e37
research: https://colab.research.google.com/github/deepmipt/dp_notebooks/blob/master/DP_tf.ipynb
code: https://github.com/deepmipt/DeepPavlov
🔗 DeepPavlov: An open-source library for end-to-end dialogue systems and chatbots
A guest post by Vasily Konovalov
tutorial: https://medium.com/tensorflow/deeppavlov-an-open-source-library-for-end-to-end-dialog-systems-and-chatbots-31cf26849e37
research: https://colab.research.google.com/github/deepmipt/dp_notebooks/blob/master/DP_tf.ipynb
code: https://github.com/deepmipt/DeepPavlov
🔗 DeepPavlov: An open-source library for end-to-end dialogue systems and chatbots
A guest post by Vasily Konovalov
Medium
DeepPavlov: an open-source library for end-to-end dialog systems and chatbots
A guest post by Vasily Konovalov
Emergent Tool Use from Multi-Agent Interaction
https://openai.com/blog/emergent-tool-use
🔗 Emergent Tool Use from Multi-Agent Interaction
We've observed agents discovering progressively more complex tool use while playing a simple game of hide-and-seek.
https://openai.com/blog/emergent-tool-use
🔗 Emergent Tool Use from Multi-Agent Interaction
We've observed agents discovering progressively more complex tool use while playing a simple game of hide-and-seek.
Openai
Emergent tool use from multi-agent interaction
We’ve observed agents discovering progressively more complex tool use while playing a simple game of hide-and-seek. Through training in our new simulated hide-and-seek environment, agents build a series of six distinct strategies and counterstrategies, some…
История одного гипотетического робота
В прошлой статье я неосторожно анонсировал вторую часть, тем более что материал уже казалось был и даже частично оформленный. Но все оказалось несколько сложнее, чем на первый взгляд. Частично этому поспособствовали дискуссии в комментариях, частично — не достаточная внятность изложения мыслей, которые мне самому кажутся чертовски важными… Можно сказать, что пока материал не пропускает мой внутренний критик! )
Однако, для этого «опуса» он сделал исключение. Так как текст в общем-то чисто художественный, он ни к чему не обязывает. Однако, думаю на его основе можно будет сделать некие полезные умозаключения. Это как бы формат притчи: поучительной истории, не обязательно произошедшей на самом деле, которая заставляет задуматься. Ну… Должен заставлять. ;) Если притча хорошая!
Итак…
🔗 История одного гипотетического робота
В прошлой статье я неосторожно анонсировал вторую часть, тем более что материал уже казалось был и даже частично оформленный. Но все оказалось несколько сложнее...
В прошлой статье я неосторожно анонсировал вторую часть, тем более что материал уже казалось был и даже частично оформленный. Но все оказалось несколько сложнее, чем на первый взгляд. Частично этому поспособствовали дискуссии в комментариях, частично — не достаточная внятность изложения мыслей, которые мне самому кажутся чертовски важными… Можно сказать, что пока материал не пропускает мой внутренний критик! )
Однако, для этого «опуса» он сделал исключение. Так как текст в общем-то чисто художественный, он ни к чему не обязывает. Однако, думаю на его основе можно будет сделать некие полезные умозаключения. Это как бы формат притчи: поучительной истории, не обязательно произошедшей на самом деле, которая заставляет задуматься. Ну… Должен заставлять. ;) Если притча хорошая!
Итак…
🔗 История одного гипотетического робота
В прошлой статье я неосторожно анонсировал вторую часть, тем более что материал уже казалось был и даже частично оформленный. Но все оказалось несколько сложнее...
Хабр
История одного гипотетического робота
В прошлой статье я неосторожно анонсировал вторую часть, тем более что материал уже казалось был и даже частично оформленный. Но все оказалось несколько сложнее, чем на первый взгляд. Частично этому...
Kaggle Predicting Molecular Properties — Andrew Lukyanenko
🔗 Kaggle Predicting Molecular Properties — Andrew Lukyanenko
Andrew Lukyanenko tells about his participation in Kaggle Predicting Molecular Properties competition in English. His team won a gold medal. In this video you will find out: - Information about Predicting Molecular Properties competition and approaches of top teams - Architectures of graph neural nets which can be used to work with chemical molecules - Tips to improve score in this competition and some lessons learned from taking part in it Find out about new competitions http://mltrainings.ru/ Find out
🔗 Kaggle Predicting Molecular Properties — Andrew Lukyanenko
Andrew Lukyanenko tells about his participation in Kaggle Predicting Molecular Properties competition in English. His team won a gold medal. In this video you will find out: - Information about Predicting Molecular Properties competition and approaches of top teams - Architectures of graph neural nets which can be used to work with chemical molecules - Tips to improve score in this competition and some lessons learned from taking part in it Find out about new competitions http://mltrainings.ru/ Find out
YouTube
Kaggle Predicting Molecular Properties — Andrew Lukyanenko
Andrew Lukyanenko tells about his participation in Kaggle Predicting Molecular Properties competition in English. His team won a gold medal.
In this video you will find out:
- Information about Predicting Molecular Properties competition and approaches of…
In this video you will find out:
- Information about Predicting Molecular Properties competition and approaches of…