Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
#читалиТвиттер и нашли вот такую схему: полу-мем, полу-чеклист по ML System Design.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥8❤‍🔥51
Есть те, кому скучно в понедельник на работе?

Специально для вас: игра TensorTrust с ChatGPT. Здесь у вас есть банковская ячейка, которую нужно защитить промтом – таким, чтобы его никто не одолел. Задача номер два: хакать ячейки других игроков.

Кстати, там даже есть гайд, который позволит взломать часть соперников.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17👍43🐳2
Обычный человек vs Data Scientist

Профдеформация вещь опасная, поэтому мы решили напомнить вам оригинальные значения DS-терминов.

Не забудь отправить друзьям, чтобы лучше тебя понимали.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁86🔥16👍112🤯21
И снова с вами рубрика интересные факты: мудрость толпы

Однажды 1906 году на сельской ярмарке в Плимуте приключилась история. 800 человек участвовали в конкурсе, где нужно было угадать вес убитого и освежёванного быка. Назывались самые разные числа, и никто не так и не угадал точный вес. Об этом соревновании услышал статистик Фрэнсис Гальтон. Из интереса он посчитал медиану всех вариантов и получил 547 кг, тогда как действительный вес составлял 543 кг, то есть коллективная ошибка составила менее 1%. Это настолько поразило ученого, что он продолжил исследовать феномен.

В итоге подобная точность в оценке параметров или количества каких-либо предметов ещё не раз наблюдалась в экспериментах в разных странах. Этому статистическому являнию дали название «мудрость толпы».

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥68👍51🍌1🗿1
Бетховен, 2Pac, Стас Михайлов? А может лучше виртуальные музыканты?

Обновляем плейлист ИИ-треками, а заодно и узнаем истории их создания.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16💅1
Смотрите, какую залипательную схему с историей NLP мы нашли на просторах интернета

А все ли перечисленные модели вы знаете? Ладно-ладно, до 2008 не считается

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍83🤯2
Не знаешь чем заняться в cубботу?

А как насчет пройти наш кроссворд? Можно проходить коллективно в комментариях, а можно подумать самому и после запушить все ответы. Должно быть не сложно, но интересно. Все ответы на английском языке.

По горизонтали:

1. любимые животные дата сайентистов
4. продолжите правильно: Data ...
5. это лучше, чем TensorFlow
8. там команды наших подписчиков всегда первые в лидерборде
9. качественный ... – залог успеха в любом деле
12. постоянно out of memory
14. жизнь без этого – сущий ад
15. то, что можно не читать

По вертикали:

2. если видишь fit, то он где-то рядом
3. он любил ирисы и распределения
6. постоянно взлетает, хотя должен падать
7. проблема любого датасета
10. наш любимый стек
11. планета, на которой водятся ноутбуки
13. Сэма Альтмана там больше нет

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥1051🤯1🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
Доска Гальтона – нормальное распределение наглядно

Доска состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).

Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.

Случайности не случайны.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8214👍9🤯3😁1
Как болтали первые языковые модели

Самой древней языковой моделью (1966) считается ELIZA, которая, ориентируясь на ключевые слова, имитировала психотерапевта. Точнее, она просто задавала уточняющие вопросы. Например: "Я расстроен" – "Почему ты расстроен?". Все было запрограммированно по шаблону.

В 1972 в пару к ELIZA появился PARRY, который также был шаблонным, но "обучен" был моделировать поведение параноидального шизофреника – уклоняться от ответов и переводить тему.

А потом... ELIZA и PARRY поговорили. Представляете этот диалог? Хотя и представять не надо – его фрагменты можно найти здесь. В конце не хватает только "Спасибо, с вас 10 тысяч".

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32😁19👍43
Несем забавный пример степенной регрессии в ее естественной среде обитания – закон Клейбера о зависимости расхода энергии животного от массы его тела. Только посмотрите на этот прекрасный график.

😻 #forfun
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥465👾4