Бетховен, 2Pac, Стас Михайлов? А может лучше виртуальные музыканты?
Обновляем плейлист ИИ-треками, а заодно и узнаем истории их создания.
😻 #forfun
Обновляем плейлист ИИ-треками, а заодно и узнаем истории их создания.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16💅1
Веселенькая, наглядная и прозрачная визуализации того, как обучаются RL агенты - AI Teaches Itself to Walk 🤖
https://youtu.be/L_4BPjLBF4E
😻 #forfun
https://youtu.be/L_4BPjLBF4E
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
AI Learns to Walk (deep reinforcement learning)
AI Teaches Itself to Walk!
In this video an AI Warehouse agent named Albert learns how to walk to escape 5 rooms I created. The AI was trained using Deep Reinforcement Learning, a method of Machine Learning which involves rewarding the agent for doing something…
In this video an AI Warehouse agent named Albert learns how to walk to escape 5 rooms I created. The AI was trained using Deep Reinforcement Learning, a method of Machine Learning which involves rewarding the agent for doing something…
❤🔥25❤3
Смотрите, какую залипательную схему с историей NLP мы нашли на просторах интернета
А все ли перечисленные модели вы знаете?Ладно-ладно, до 2008 не считается
😻 #forfun
А все ли перечисленные модели вы знаете?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍8❤3🤯2
Не знаешь чем заняться в cубботу?
А как насчет пройти наш кроссворд? Можно проходить коллективно в комментариях, а можно подумать самому и после запушить все ответы. Должно быть не сложно, но интересно. Все ответы на английском языке.
По горизонтали:
1. любимые животные дата сайентистов
4. продолжите правильно: Data ...
5. это лучше, чем TensorFlow
8. там команды наших подписчиков всегда первые в лидерборде
9. качественный ... – залог успеха в любом деле
12. постоянно out of memory
14. жизнь без этого – сущий ад
15. то, что можно не читать
По вертикали:
2. если видишь fit, то он где-то рядом
3. он любил ирисы и распределения
6. постоянно взлетает, хотя должен падать
7. проблема любого датасета
10. наш любимый стек
11. планета, на которой водятся ноутбуки
13. Сэма Альтмана там больше нет
😻 #forfun
А как насчет пройти наш кроссворд? Можно проходить коллективно в комментариях, а можно подумать самому и после запушить все ответы. Должно быть не сложно, но интересно. Все ответы на английском языке.
По горизонтали:
1. любимые животные дата сайентистов
4. продолжите правильно: Data ...
5. это лучше, чем TensorFlow
8. там команды наших подписчиков всегда первые в лидерборде
9. качественный ... – залог успеха в любом деле
12. постоянно out of memory
14. жизнь без этого – сущий ад
15. то, что можно не читать
По вертикали:
2. если видишь fit, то он где-то рядом
3. он любил ирисы и распределения
6. постоянно взлетает, хотя должен падать
7. проблема любого датасета
10. наш любимый стек
11. планета, на которой водятся ноутбуки
13. Сэма Альтмана там больше нет
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥10❤5✍1🤯1🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
Доска Гальтона – нормальное распределение наглядно
Доска состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
😻 #forfun
Доска состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82❤14👍9🤯3😁1
Как болтали первые языковые модели
Самой древней языковой моделью (1966) считается ELIZA, которая, ориентируясь на ключевые слова, имитировала психотерапевта. Точнее, она просто задавала уточняющие вопросы. Например: "Я расстроен" – "Почему ты расстроен?". Все было запрограммированно по шаблону.
В 1972 в пару к ELIZA появился PARRY, который также был шаблонным, но "обучен" был моделировать поведение параноидального шизофреника – уклоняться от ответов и переводить тему.
А потом... ELIZA и PARRY поговорили. Представляете этот диалог? Хотя и представять не надо – его фрагменты можно найти здесь. В конце не хватает только "Спасибо, с вас 10 тысяч".
😻 #forfun
Самой древней языковой моделью (1966) считается ELIZA, которая, ориентируясь на ключевые слова, имитировала психотерапевта. Точнее, она просто задавала уточняющие вопросы. Например: "Я расстроен" – "Почему ты расстроен?". Все было запрограммированно по шаблону.
В 1972 в пару к ELIZA появился PARRY, который также был шаблонным, но "обучен" был моделировать поведение параноидального шизофреника – уклоняться от ответов и переводить тему.
А потом... ELIZA и PARRY поговорили. Представляете этот диалог? Хотя и представять не надо – его фрагменты можно найти здесь. В конце не хватает только "Спасибо, с вас 10 тысяч".
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32😁19👍4❤3
Несем забавный пример степенной регрессии в ее естественной среде обитания – закон Клейбера о зависимости расхода энергии животного от массы его тела. Только посмотрите на этот прекрасный график.
😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46❤5👾4