Есть те, кому скучно в понедельник на работе?
Специально для вас: игра TensorTrust с ChatGPT. Здесь у вас есть банковская ячейка, которую нужно защитить промтом – таким, чтобы его никто не одолел. Задача номер два: хакать ячейки других игроков.
Кстати, там даже есть гайд, который позволит взломать часть соперников.
😻 #forfun
Специально для вас: игра TensorTrust с ChatGPT. Здесь у вас есть банковская ячейка, которую нужно защитить промтом – таким, чтобы его никто не одолел. Задача номер два: хакать ячейки других игроков.
Кстати, там даже есть гайд, который позволит взломать часть соперников.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17👍4❤3🐳2
Обычный человек vs Data Scientist
Профдеформация вещь опасная, поэтому мы решили напомнить вам оригинальные значения DS-терминов.
Не забудь отправить друзьям, чтобы лучше тебя понимали.
😻 #forfun
Профдеформация вещь опасная, поэтому мы решили напомнить вам оригинальные значения DS-терминов.
Не забудь отправить друзьям, чтобы лучше тебя понимали.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁86🔥16👍11❤2🤯2⚡1
И снова с вами рубрика интересные факты: мудрость толпы
Однажды 1906 году на сельской ярмарке в Плимуте приключилась история. 800 человек участвовали в конкурсе, где нужно было угадать вес убитого и освежёванного быка. Назывались самые разные числа, и никто не так и не угадал точный вес. Об этом соревновании услышал статистик Фрэнсис Гальтон. Из интереса он посчитал медиану всех вариантов и получил 547 кг, тогда как действительный вес составлял 543 кг, то есть коллективная ошибка составила менее 1%. Это настолько поразило ученого, что он продолжил исследовать феномен.
В итоге подобная точность в оценке параметров или количества каких-либо предметов ещё не раз наблюдалась в экспериментах в разных странах. Этому статистическому являнию дали название «мудрость толпы».
😻 #forfun
Однажды 1906 году на сельской ярмарке в Плимуте приключилась история. 800 человек участвовали в конкурсе, где нужно было угадать вес убитого и освежёванного быка. Назывались самые разные числа, и никто не так и не угадал точный вес. Об этом соревновании услышал статистик Фрэнсис Гальтон. Из интереса он посчитал медиану всех вариантов и получил 547 кг, тогда как действительный вес составлял 543 кг, то есть коллективная ошибка составила менее 1%. Это настолько поразило ученого, что он продолжил исследовать феномен.
В итоге подобная точность в оценке параметров или количества каких-либо предметов ещё не раз наблюдалась в экспериментах в разных странах. Этому статистическому являнию дали название «мудрость толпы».
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥68👍5❤1🍌1🗿1
Бетховен, 2Pac, Стас Михайлов? А может лучше виртуальные музыканты?
Обновляем плейлист ИИ-треками, а заодно и узнаем истории их создания.
😻 #forfun
Обновляем плейлист ИИ-треками, а заодно и узнаем истории их создания.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16💅1
Веселенькая, наглядная и прозрачная визуализации того, как обучаются RL агенты - AI Teaches Itself to Walk 🤖
https://youtu.be/L_4BPjLBF4E
😻 #forfun
https://youtu.be/L_4BPjLBF4E
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
AI Learns to Walk (deep reinforcement learning)
AI Teaches Itself to Walk!
In this video an AI Warehouse agent named Albert learns how to walk to escape 5 rooms I created. The AI was trained using Deep Reinforcement Learning, a method of Machine Learning which involves rewarding the agent for doing something…
In this video an AI Warehouse agent named Albert learns how to walk to escape 5 rooms I created. The AI was trained using Deep Reinforcement Learning, a method of Machine Learning which involves rewarding the agent for doing something…
❤🔥25❤3
Смотрите, какую залипательную схему с историей NLP мы нашли на просторах интернета
А все ли перечисленные модели вы знаете?Ладно-ладно, до 2008 не считается
😻 #forfun
А все ли перечисленные модели вы знаете?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍8❤3🤯2
Не знаешь чем заняться в cубботу?
А как насчет пройти наш кроссворд? Можно проходить коллективно в комментариях, а можно подумать самому и после запушить все ответы. Должно быть не сложно, но интересно. Все ответы на английском языке.
По горизонтали:
1. любимые животные дата сайентистов
4. продолжите правильно: Data ...
5. это лучше, чем TensorFlow
8. там команды наших подписчиков всегда первые в лидерборде
9. качественный ... – залог успеха в любом деле
12. постоянно out of memory
14. жизнь без этого – сущий ад
15. то, что можно не читать
По вертикали:
2. если видишь fit, то он где-то рядом
3. он любил ирисы и распределения
6. постоянно взлетает, хотя должен падать
7. проблема любого датасета
10. наш любимый стек
11. планета, на которой водятся ноутбуки
13. Сэма Альтмана там больше нет
😻 #forfun
А как насчет пройти наш кроссворд? Можно проходить коллективно в комментариях, а можно подумать самому и после запушить все ответы. Должно быть не сложно, но интересно. Все ответы на английском языке.
По горизонтали:
1. любимые животные дата сайентистов
4. продолжите правильно: Data ...
5. это лучше, чем TensorFlow
8. там команды наших подписчиков всегда первые в лидерборде
9. качественный ... – залог успеха в любом деле
12. постоянно out of memory
14. жизнь без этого – сущий ад
15. то, что можно не читать
По вертикали:
2. если видишь fit, то он где-то рядом
3. он любил ирисы и распределения
6. постоянно взлетает, хотя должен падать
7. проблема любого датасета
10. наш любимый стек
11. планета, на которой водятся ноутбуки
13. Сэма Альтмана там больше нет
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥10❤5✍1🤯1🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
Доска Гальтона – нормальное распределение наглядно
Доска состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
😻 #forfun
Доска состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82❤14👍9🤯3😁1
Как болтали первые языковые модели
Самой древней языковой моделью (1966) считается ELIZA, которая, ориентируясь на ключевые слова, имитировала психотерапевта. Точнее, она просто задавала уточняющие вопросы. Например: "Я расстроен" – "Почему ты расстроен?". Все было запрограммированно по шаблону.
В 1972 в пару к ELIZA появился PARRY, который также был шаблонным, но "обучен" был моделировать поведение параноидального шизофреника – уклоняться от ответов и переводить тему.
А потом... ELIZA и PARRY поговорили. Представляете этот диалог? Хотя и представять не надо – его фрагменты можно найти здесь. В конце не хватает только "Спасибо, с вас 10 тысяч".
😻 #forfun
Самой древней языковой моделью (1966) считается ELIZA, которая, ориентируясь на ключевые слова, имитировала психотерапевта. Точнее, она просто задавала уточняющие вопросы. Например: "Я расстроен" – "Почему ты расстроен?". Все было запрограммированно по шаблону.
В 1972 в пару к ELIZA появился PARRY, который также был шаблонным, но "обучен" был моделировать поведение параноидального шизофреника – уклоняться от ответов и переводить тему.
А потом... ELIZA и PARRY поговорили. Представляете этот диалог? Хотя и представять не надо – его фрагменты можно найти здесь. В конце не хватает только "Спасибо, с вас 10 тысяч".
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32😁19👍4❤3
Несем забавный пример степенной регрессии в ее естественной среде обитания – закон Клейбера о зависимости расхода энергии животного от массы его тела. Только посмотрите на этот прекрасный график.
😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46❤5👾4