Bidimensional linked matrix factorization for pan-omics pan-cancer analysis
https://github.com/lockEF/bidifac
https://arxiv.org/abs/2002.02601v1
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 lockEF/bidifac
Bidimensional matrix factorization. Contribute to lockEF/bidifac development by creating an account on GitHub.
https://github.com/lockEF/bidifac
https://arxiv.org/abs/2002.02601v1
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 lockEF/bidifac
Bidimensional matrix factorization. Contribute to lockEF/bidifac development by creating an account on GitHub.
GitHub
lockEF/bidifac
Bidimensional matrix factorization. Contribute to lockEF/bidifac development by creating an account on GitHub.
Data Science Explained with… Cooking?
🔗 Data Science Explained with… Cooking?
My favorite analogy for explaining data science. What could these two fields possibly have in common?
🔗 Data Science Explained with… Cooking?
My favorite analogy for explaining data science. What could these two fields possibly have in common?
Medium
Data Science Explained with… Cooking?
My favorite analogy for explaining data science. What could these two fields possibly have in common?
The Future of Deep Learning Is Unsupervised, AI Pioneers Say
https://www.wsj.com/articles/the-future-of-deep-learning-is-unsupervised-ai-pioneers-say-11581330600
🔗 The Future of Deep Learning Is Unsupervised, AI Pioneers Say
Machines can do well at recognizing images and understanding language—when humans are involved with training. But for AI to reach new heights, the technology must figure out how to learn on its own, according to three AI pioneers.
https://www.wsj.com/articles/the-future-of-deep-learning-is-unsupervised-ai-pioneers-say-11581330600
🔗 The Future of Deep Learning Is Unsupervised, AI Pioneers Say
Machines can do well at recognizing images and understanding language—when humans are involved with training. But for AI to reach new heights, the technology must figure out how to learn on its own, according to three AI pioneers.
WSJ
The Future of Deep Learning Is Unsupervised, AI Pioneers Say
Machines can do well at recognizing images and understanding language—when humans are involved with training. But for AI to reach new heights, the technology must figure out how to learn on its own, according to three AI pioneers.
Top US Colleges for Computer Science
🔗 Top US Colleges for Computer Science
A reflection based on personal & anecdotal experience
🔗 Top US Colleges for Computer Science
A reflection based on personal & anecdotal experience
Medium
Top US Colleges for Computer Science
A reflection based on personal & anecdotal experience
🎥 Choosing an Activation Function for Deep Learning
👁 1 раз ⏳ 651 сек.
👁 1 раз ⏳ 651 сек.
This is an excerpt from the online course "AWS Certified Machine Learning Specialty 2020 - Hands On!" at https://www.udemy.com/course/aws-machine-learning/?referralCode=C5EC999BB34C4349A61E
In this video, we cover the different activation functions used in neural networks to provide an output of a given node, or neuron, given its set of inputs: linear, step, sigmoid / logistic, tanh / hyperbolic tangent, ReLU, Leaky ReLU, PReLu, Maxout, and more.Vk
Choosing an Activation Function for Deep Learning
This is an excerpt from the online course "AWS Certified Machine Learning Specialty 2020 - Hands On!" at https://www.udemy.com/course/aws-machine-learning/?referralCode=C5EC999BB34C4349A61E
In this video, we cover the different activation functions used…
In this video, we cover the different activation functions used…
🎥 Чуличков А. И. - Математическая статистика - Связь математической статистики с теорией вероятности
👁 1 раз ⏳ 5175 сек.
👁 1 раз ⏳ 5175 сек.
00:03:01 1. Выборка случайной величины
00:07:38 2. Функция правдоподобия
00:16:11 3. Задачи мат.статистики
00:21:21 4. Интервальное оцениваниеVk
Чуличков А. И. - Математическая статистика - Связь математической статистики с теорией вероятности
00:03:01 1. Выборка случайной величины
00:07:38 2. Функция правдоподобия
00:16:11 3. Задачи мат.статистики
00:21:21 4. Интервальное оценивание
00:07:38 2. Функция правдоподобия
00:16:11 3. Задачи мат.статистики
00:21:21 4. Интервальное оценивание
DevCon School: Технологии будущего
1- DevCon School: Технологии будущего // Открытие
2- Практическое введение в нейронные сети и глубокое обучение.(1)
3- Практическое введение в нейронные сети и глубокое обучение. (2)
4- Практическое введение в нейронные сети и глубокое обучение. (3)
5- Рефакторинг унаследованного кода: как разорвать зависимости?
6- Линейная и логистическая регрессия от Excel через Python к Azure ML
7- Построение процесса безопасной разработки
8- DevCon School: Практическое введение в нейронные сети и глубокое обучение
9- DevCon School // Интервью с Константином Кичинским (360°)
#video #interesting
#video
🎥 DevCon School: Технологии будущего // Открытие
👁 700 раз ⏳ 3766 сек.
🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 1
👁 278 раз ⏳ 9534 сек.
🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 2
👁 141 раз ⏳ 7864 сек.
🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 3
👁 71 раз ⏳ 7365 сек.
🎥 Рефакторинг унаследованного кода: как разорвать зависимости?
👁 47 раз ⏳ 6729 сек.
🎥 Линейная и логистическая регрессия от Excel через Python к Azure ML
👁 39 раз ⏳ 5067 сек.
🎥 Построение процесса безопасной разработки
👁 34 раз ⏳ 2343 сек.
🎥 DevCon School: Практическое введение в нейронные сети и глубокое обучение
👁 37 раз ⏳ 33905 сек.
🎥 DevCon School // Интервью с Константином Кичинским (360°)
👁 46 раз ⏳ 634 сек.
1- DevCon School: Технологии будущего // Открытие
2- Практическое введение в нейронные сети и глубокое обучение.(1)
3- Практическое введение в нейронные сети и глубокое обучение. (2)
4- Практическое введение в нейронные сети и глубокое обучение. (3)
5- Рефакторинг унаследованного кода: как разорвать зависимости?
6- Линейная и логистическая регрессия от Excel через Python к Azure ML
7- Построение процесса безопасной разработки
8- DevCon School: Практическое введение в нейронные сети и глубокое обучение
9- DevCon School // Интервью с Константином Кичинским (360°)
#video #interesting
#video
🎥 DevCon School: Технологии будущего // Открытие
👁 700 раз ⏳ 3766 сек.
1 июня в Москве прошла DevCon School, крупнейшая школа Microsoft для разработчиков в России....🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 1
👁 278 раз ⏳ 9534 сек.
Первая часть интенсива «Практическое введение в нейронные сети и глубокое обуч ...🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 2
👁 141 раз ⏳ 7864 сек.
Вторая часть интенсива «Практическое введение в нейронные сети и глубокое обуч ...🎥 Практическое введение в нейронные сети и глубокое обучение. Часть 3
👁 71 раз ⏳ 7365 сек.
Третья часть интенсива «Практическое введение в нейронные сети и глубокое обуч ...🎥 Рефакторинг унаследованного кода: как разорвать зависимости?
👁 47 раз ⏳ 6729 сек.
Запись мастер-класса «Рефакторинг унаследованного кода: как разорвать зависимо...🎥 Линейная и логистическая регрессия от Excel через Python к Azure ML
👁 39 раз ⏳ 5067 сек.
Запись мастер-класса «Линейная и логистическая регрессия от Excel через Python к Azure ML...🎥 Построение процесса безопасной разработки
👁 34 раз ⏳ 2343 сек.
Запись мастер-класса «Построение процесса безопасной разработки», который прош...🎥 DevCon School: Практическое введение в нейронные сети и глубокое обучение
👁 37 раз ⏳ 33905 сек.
Онлайн-трансляция интенсива «Практическое введение в нейронные сети и глубокое...🎥 DevCon School // Интервью с Константином Кичинским (360°)
👁 46 раз ⏳ 634 сек.
1 июня 2017 года в Москве прошла крупнейшая школа Microsoft для разработчиков в России. ...Vk
DevCon School: Технологии будущего // Открытие
1 июня в Москве прошла DevCon School, крупнейшая школа Microsoft для разработчиков в России....
ZeRO & DeepSpeed: New system optimizations enable training models with over 100 billion parameters -
🔗 ZeRO & DeepSpeed: New system optimizations enable training models with over 100 billion parameters -
The latest trend in AI is that larger natural language models provide better accuracy; however, larger models are difficult to train because of cost, time, and ease of code integration. Microsoft is releasing an open-source library called DeepSpeed, which vastly advances large model training by improving scale, speed, cost, and usability, unlocking the ability to …
🔗 ZeRO & DeepSpeed: New system optimizations enable training models with over 100 billion parameters -
The latest trend in AI is that larger natural language models provide better accuracy; however, larger models are difficult to train because of cost, time, and ease of code integration. Microsoft is releasing an open-source library called DeepSpeed, which vastly advances large model training by improving scale, speed, cost, and usability, unlocking the ability to …
Microsoft Research
ZeRO & DeepSpeed: New system optimizations enable training models with over 100 billion parameters - Microsoft Research
The latest trend in AI is that larger natural language models provide better accuracy; however, larger models are difficult to train because of cost, time, and ease of code integration. Microsoft is releasing an open-source library called DeepSpeed, which…
John Horton Conway: "On His LOVE/HATE Relationship with LIFE" | Talks at Google
🔗 John Horton Conway: "On His LOVE/HATE Relationship with LIFE" | Talks at Google
John Horton Conway stops by Google for a Talk. A short reading about why he hates the Game of Life but really loves it, followed by an interview and Q&A.
🔗 John Horton Conway: "On His LOVE/HATE Relationship with LIFE" | Talks at Google
John Horton Conway stops by Google for a Talk. A short reading about why he hates the Game of Life but really loves it, followed by an interview and Q&A.
YouTube
LOVE/HATE Relationship with LIFE | John Horton Conway | Talks at Google
John Horton Conway stops by Google for a Talk.
A short reading about why he hates the Game of Life but really loves it, followed by an interview and Q&A.
A short reading about why he hates the Game of Life but really loves it, followed by an interview and Q&A.
Brain-Like Object Recognition with High-Performing Shallow Recurrent ANNs
https://www.youtube.com/watch?v=IqkOZhfGEYs
🔗 Brain-Like Object Recognition with High-Performing Shallow Recurrent ANNs
Lead authors Jonas Kubilius and Martin Schrimpf discuss the challenges of measuring how closely neural networks match the brain and present a new scoring method Brain-Score they have developed to evaluate models of the brain’s ventral stream at scale together with a novel shallow and recurrent network CORnet.
https://www.youtube.com/watch?v=IqkOZhfGEYs
🔗 Brain-Like Object Recognition with High-Performing Shallow Recurrent ANNs
Lead authors Jonas Kubilius and Martin Schrimpf discuss the challenges of measuring how closely neural networks match the brain and present a new scoring method Brain-Score they have developed to evaluate models of the brain’s ventral stream at scale together with a novel shallow and recurrent network CORnet.
YouTube
Brain-Like Object Recognition with High-Performing Shallow Recurrent ANNs
Lead authors Jonas Kubilius and Martin Schrimpf discuss the challenges of measuring how closely neural networks match the brain and present a new scoring method Brain-Score they have developed to evaluate models of the brain’s ventral stream at scale together…
Scalable methods for computing state similarity in deterministic Markov Decision Processes
Pablo Samuel Castro
Paper: https://arxiv.org/abs/1911.09291
Code: https://github.com/google-research/google-research/tree/master/bisimulation_aaai2020/
#ArtificialIntelligence #MachineLearning #MarkovDecisionProcesses
🔗 google-research/google-research
Google AI Research. Contribute to google-research/google-research development by creating an account on GitHub.
Pablo Samuel Castro
Paper: https://arxiv.org/abs/1911.09291
Code: https://github.com/google-research/google-research/tree/master/bisimulation_aaai2020/
#ArtificialIntelligence #MachineLearning #MarkovDecisionProcesses
🔗 google-research/google-research
Google AI Research. Contribute to google-research/google-research development by creating an account on GitHub.
GitHub
google-research/google-research
Google AI Research. Contribute to google-research/google-research development by creating an account on GitHub.
🎥 Установка Tensorflow. Создание нейронной сети. FMNIST. Распознавание изображений. Python
👁 2 раз ⏳ 3988 сек.
👁 2 раз ⏳ 3988 сек.
Поддержать проект - http://www.donationalerts.ru/r/bytepp
Ссылки:
https://developer.nvidia.com/cuda-downloads
https://developer.nvidia.com/cudnn
https://www.nvidia.ru/Download/index.aspx
https://www.anaconda.com/distribution/
Пути:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\libnvvp
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\extras\CUPTI\libx64
C:\cuda\bin
C:\ProgramData\Anaconda3
C:\ProgramData\Anaconda3\Scripts
C:\UseVk
Установка Tensorflow. Создание нейронной сети. FMNIST. Распознавание изображений. Python
Поддержать проект - http://www.donationalerts.ru/r/bytepp
Ссылки:
https://developer.nvidia.com/cuda-downloads
https://developer.nvidia.com/cudnn
https://www.nvidia.ru/Download/index.aspx
https://www.anaconda.com/distribution/
Пути:
C:\Program Files\NVIDIA…
Ссылки:
https://developer.nvidia.com/cuda-downloads
https://developer.nvidia.com/cudnn
https://www.nvidia.ru/Download/index.aspx
https://www.anaconda.com/distribution/
Пути:
C:\Program Files\NVIDIA…
Explore and Clean: first steps of any data project.
🔗 Explore and Clean: first steps of any data project.
Before you start with the “fun” and “exciting” algorithms and methods, here are the first steps to being successful in your data project.
🔗 Explore and Clean: first steps of any data project.
Before you start with the “fun” and “exciting” algorithms and methods, here are the first steps to being successful in your data project.
Medium
Explore and Clean: first steps of any data project.
Before you start with the “fun” and “exciting” algorithms and methods, here are the first steps to being successful in your data project.
Продвинутый курс по визуализации и структурам данных.
https://youtu.be/uNGdpXCMrgM
🎥 Matplotlib Plot Tutorial: Histograms, Scatter Plots & Legend
👁 1 раз ⏳ 583 сек.
https://youtu.be/uNGdpXCMrgM
🎥 Matplotlib Plot Tutorial: Histograms, Scatter Plots & Legend
👁 1 раз ⏳ 583 сек.
Matplotlib makes it easy to create meaningful and insightful plots. In this beginner video you will learn how to build various types of plots such as histograms, scatter plots and line plots.
You will also see how to customize them to make them more visually appealing and interpretable.
You can do the corresponding exercises https://www.datacamp.com/courses/intermediate-python-for-data-scienceYouTube
Matplotlib Plot Tutorial: Histograms, Scatter Plots & Legend
Matplotlib makes it easy to create meaningful and insightful plots. In this beginner video you will learn how to build various types of plots such as histograms, scatter plots and line plots.
You will also see how to customize them to make them more visually…
You will also see how to customize them to make them more visually…
🎥 Amazon AI Conclave 2019 - Predict Future Business Conditions Using Deep Learning Based Forecasting
👁 1 раз ⏳ 2217 сек.
👁 1 раз ⏳ 2217 сек.
Speaker - Ankur Mehrotra, GM, Vertical AI, AWS
Amazon AI Conclave 2019 is the leading Artificial Intelligence and Machine learning conference held on Dec 19 -20, 2019 in Bangalore. It hosted over 1200 delegates comprising business and technology leaders from startups and enterprises, data scientists, ML developers, data engineers and architects. Sessions at the event covered some of the Amazon’s broadest and deepest set of machine learning and AI services.
Learn more about AWS Machine Learning at https://Vk
Amazon AI Conclave 2019 - Predict Future Business Conditions Using Deep Learning Based Forecasting
Speaker - Ankur Mehrotra, GM, Vertical AI, AWS
Amazon AI Conclave 2019 is the leading Artificial Intelligence and Machine learning conference held on Dec 19 -20, 2019 in Bangalore. It hosted over 1200 delegates comprising business and technology leaders…
Amazon AI Conclave 2019 is the leading Artificial Intelligence and Machine learning conference held on Dec 19 -20, 2019 in Bangalore. It hosted over 1200 delegates comprising business and technology leaders…
Искусственный интеллект и нейронные сети C#
Простая нейросеть.
Обучение нейронных сетей. Алгоритм обратного распространения ошибки
Нормализация и масштабирование данных. Обучение по Dataset.
Компьютерное зрение и распознавание образов нейронной сетью
Информационная система медицинской организации
#neural #csharp
🎥 Искусственный интеллект и нейронные сети C#. Машинное обучение для начинающих. Простая нейросеть.
👁 32 раз ⏳ 8928 сек.
🎥 Искусственный интеллект C#. Обучение нейронных сетей. Алгоритм обратного распространения ошибки
👁 5 раз ⏳ 7803 сек.
🎥 Нейронные сети C#. Нормализация и масштабирование данных. Обучение по Dataset.
👁 5 раз ⏳ 7635 сек.
🎥 Искусственный интеллект C#. Компьютерное зрение и распознавание образов нейронной сетью
👁 4 раз ⏳ 8198 сек.
🎥 Искусственный интеллект и нейронные сети C#. Информационная система медицинской организации
👁 3 раз ⏳ 8488 сек.
Простая нейросеть.
Обучение нейронных сетей. Алгоритм обратного распространения ошибки
Нормализация и масштабирование данных. Обучение по Dataset.
Компьютерное зрение и распознавание образов нейронной сетью
Информационная система медицинской организации
#neural #csharp
🎥 Искусственный интеллект и нейронные сети C#. Машинное обучение для начинающих. Простая нейросеть.
👁 32 раз ⏳ 8928 сек.
Мы изучим основные понятия и теорию необходимые для создания нейронных сетей, поймем главный принцип работы искусственного интеллекта и приступим к...🎥 Искусственный интеллект C#. Обучение нейронных сетей. Алгоритм обратного распространения ошибки
👁 5 раз ⏳ 7803 сек.
Основной задачей при разработке искусственного интеллекта является обучение нейронной сети. Это наиболее затратный процесс и для его успешного выпо...🎥 Нейронные сети C#. Нормализация и масштабирование данных. Обучение по Dataset.
👁 5 раз ⏳ 7635 сек.
Использую информацию по историческим данным (dataset - датасет) мы научимся с определенной вероятностью прогнозировать наличие сердечных заболевани...🎥 Искусственный интеллект C#. Компьютерное зрение и распознавание образов нейронной сетью
👁 4 раз ⏳ 8198 сек.
На основе большого количества изображений о клетках малярии мы научимся реализовывать простые механизмы компьютерного зрения и распознавания образо...🎥 Искусственный интеллект и нейронные сети C#. Информационная система медицинской организации
👁 3 раз ⏳ 8488 сек.
Завершаем разработку простой медицинской информационной системы, которую мы реализовали с помощью языка программирования C# и алгоритмов машинного ...Vk
Искусственный интеллект и нейронные сети C#. Машинное обучение для начинающих. Простая нейросеть.
Мы изучим основные понятия и теорию необходимые для создания нейронных сетей, поймем главный принцип работы искусственного интеллекта и приступим к...
Машинное обучение
Все лекции в видеоальбоме: https://vk.cc/8uZUMZ
#video #ai
#video
🎥 Лекция 1 | Машинное обучение | Сергей Николенко | Лекториум
👁 288 раз ⏳ 5396 сек.
🎥 Лекция 2 | Машинное обучение | Сергей Николенко | Лекториум
👁 36 раз ⏳ 4251 сек.
🎥 Лекция 3 | Машинное обучение | Сергей Николенко | Лекториум
👁 28 раз ⏳ 3352 сек.
🎥 Лекция 4 | Машинное обучение | Сергей Николенко | Лекториум
👁 22 раз ⏳ 6109 сек.
🎥 Лекция 5 | Машинное обучение | Сергей Николенко | Лекториум
👁 15 раз ⏳ 5170 сек.
🎥 Лекция 6 | Машинное обучение | Сергей Николенко | Лекториум
👁 13 раз ⏳ 5297 сек.
🎥 Лекция 7 | Машинное обучение | Сергей Николенко | Лекториум
👁 10 раз ⏳ 2860 сек.
🎥 Лекция 8 | Машинное обучение | Сергей Николенко | Лекториум
👁 14 раз ⏳ 2317 сек.
🎥 Лекция 9 | Машинное обучение | Сергей Николенко | Лекториум
👁 18 раз ⏳ 3029 сек.
🎥 Лекция 10 | Машинное обучение | Сергей Николенко | Лекториум
👁 20 раз ⏳ 6184 сек.
Все лекции в видеоальбоме: https://vk.cc/8uZUMZ
#video #ai
#video
🎥 Лекция 1 | Машинное обучение | Сергей Николенко | Лекториум
👁 288 раз ⏳ 5396 сек.
Лекция 1 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 2 | Машинное обучение | Сергей Николенко | Лекториум
👁 36 раз ⏳ 4251 сек.
Лекция 2 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 3 | Машинное обучение | Сергей Николенко | Лекториум
👁 28 раз ⏳ 3352 сек.
Лекция 3 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 4 | Машинное обучение | Сергей Николенко | Лекториум
👁 22 раз ⏳ 6109 сек.
Лекция 4 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 5 | Машинное обучение | Сергей Николенко | Лекториум
👁 15 раз ⏳ 5170 сек.
Лекция 5 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 6 | Машинное обучение | Сергей Николенко | Лекториум
👁 13 раз ⏳ 5297 сек.
Лекция 6 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 7 | Машинное обучение | Сергей Николенко | Лекториум
👁 10 раз ⏳ 2860 сек.
Лекция 7 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 8 | Машинное обучение | Сергей Николенко | Лекториум
👁 14 раз ⏳ 2317 сек.
Лекция 8 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 9 | Машинное обучение | Сергей Николенко | Лекториум
👁 18 раз ⏳ 3029 сек.
Лекция 9 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это виде...🎥 Лекция 10 | Машинное обучение | Сергей Николенко | Лекториум
👁 20 раз ⏳ 6184 сек.
Лекция 10 | Курс: Машинное обучение | Лектор: Сергей Николенко | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это вид...Vk
ITc | сообщество программистов's Videos | VK
VK is the largest European social network with more than 100 million active users. Our goal is to keep old friends, ex-classmates, neighbors and colleagues in touch.
Self-training with Noisy Student improves ImageNet classification
Xie et al.: https://arxiv.org/abs/1911.04252
Code:
https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet
#ArtificielIntelligence #DeepLearning #MachineLearning/
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 tensorflow/tpu
Reference models and tools for Cloud TPUs. Contribute to tensorflow/tpu development by creating an account on GitHub.
Xie et al.: https://arxiv.org/abs/1911.04252
Code:
https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet
#ArtificielIntelligence #DeepLearning #MachineLearning/
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 tensorflow/tpu
Reference models and tools for Cloud TPUs. Contribute to tensorflow/tpu development by creating an account on GitHub.
GitHub
tpu/models/official/efficientnet at master · tensorflow/tpu
Reference models and tools for Cloud TPUs. Contribute to tensorflow/tpu development by creating an account on GitHub.