Data Secrets
77.4K subscribers
6.05K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Два брата-близнеца c Reddit пару недель назад выпустили книгу с объяснением главных DL-парадигм в картинках

Называется чудо "Illustrated book to learn about Transformers & LLMs" и выглядит просто колоссально кайфово. По главам:

▪️ основы нейросетей (перцептроны там всякие, обратное распространение и тд);
▪️ эмбеддинги и токенизация;
▪️ дальше RNN, LSTM, GRU;
▪️ и, конечно же, трансформеры. Тут все, от внимания и BERT до GPT, дистилляции и RLHF;
▪️ бонусом рассказ про классические задачи, такие как машинный перевод, sentiment extraction или RAG.

В общем, всё от и до, а куча картинок на каждой странице помогут понять и запомнить даже самые непростые вещи. Правда, доступна пока только печатная версия, но PDF авторы обещают скоро выкатить.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝8642👍38
Apple, накануне новой презентации с Apple Intelligence, снова заняла первое место в рейтинге самых технологичных компаний.

Amazon упал на 4 место (вот чем кончается использование индусов вместо Computer Vision).

А Nvidia впервые вошла в топ-10, видимо за счет активного дропа ИИ-статей и моделей.
😁67👍128🙈4🔥1
To Code, or Not To Code

Современный Гамлет? Да нет, просто новая статья, в которой показано, что предобучение на коде улучшает метрики на некодовых задачах.

Ресерчеры из Cohere обнаружили, что даже небольшое количество кода в претрейне повышает производительность модели на языковом ризонинге на 8% (по сравнению с претрейном только на тексте). При этом можно брать даже качественный синтетический код.

Отправляем другу гуманитарию 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
651👍22😁74🔥33
Исследователи из Nvidia, видимо, нашли себе любимое занятие: дистиллировать и прунить модели

Около месяца назад они выпустили модель Minitron, полученную с помощью сжатия их собственной LLM Nemotron, а потом вошли во вкус и начали штамповать Minitron'ов других опенсорс моделей.

Неделю назад вышла Llama-3.1-Minitron-4B, ставшая SOTA в своем размере, а сегодня вот они выкатили Mistral NeMo Minitron 8В.

Надо сказать, что получается у них действительно неплохо: получившиеся мини-версии почти не уступают, а где-то и обгоняют по бенчмаркам своих "родителей".

Как у исследователей это получается, можете прочитать в нашей статье. Там мы подробно и понятно разбирали, что такое дистилляция и прунинг, и как в Nvidia итеративно их смешивают.

Веса нового Mistral NeMo Minitron 8В лежат на HF + моделью уже можно воспользоваться из Transformers.
👍37😁98
This media is not supported in your browser
VIEW IN TELEGRAM
Ни за что не угадаете, что это за штука и для чего она

… пока не досмотрите до пятой секунды видео. Это изобретение робототехников из Мюнхена для сбора данных. Оно специально спроектировано так, что обрабатывает данные в реальном времени и может служить для обучения различных частей тела робота (например, как для мелкой моторики, так и для движений всей руки). Код лежит в открытом доступе, вот тут.

Да, чего только ради этих данных не сделаешь. Кстати, почти такой же девайс, но менее продвинутый, недавно делали в Стенфорде. Именно им разработчики и вдохновлялись.

А спину им можно почесать, интересно?
👍59🔥168
This media is not supported in your browser
VIEW IN TELEGRAM
Масштабирование ИИ продолжится в том же темпе до 2030

Это установили аналитики из знаменитого EpochAI. Они также утверждают, что если тенденция на кратное увеличение компьюта сохранится, то к концу десятилетия мы увидим модели, обученные на кластерах в 10 000 раз больше, чем GPT-4. Сейчас мощи растут в 4 раза ежегодно.

Но что насчет того, возможно ли это вообще? По подсчетам, на момент 2030 года на обучение моделей потребуется 5GW (сейчас это 30MW), 100 млн GPU (Llama 3.1 405B обучалась на 16K видеокарт) и во много тысяч раз больше данных.

И тем не менее аналитики на основе данных о масштабировании Интернета и промышленности постановили, что человечество в силах раздобыть такие ресурсы, то есть перечисленное не будет серьезным препятствием к масштабированию.

Полный отчет можно посмотреть тут
30🔥13🤪9👍4🙈1
OpenAI такие: "Дааа, мы за регуляризацию! (...но только если регулируют не нас)"

В США сейчас рассматривают новый законопроект об искусственном интеллекте, который запретит опенсорс и разрешит разрабатывать сильный ИИ только небольшой группе компаний, фактически убив индустрию. OpenAI, конечно, в начале этот проект поддержали (можно ли было представить более выгодные для них условия?). Вот что сказал их стратегический директор Джейсон Квон неделю назад:

"Мы всегда считали, что ИИ должен регулироваться, и эта позиция остается неизменной».


Но потом появились новые детали о том, насколько жестко будут контролироваться эти избранные компании, и вот что Квон говорит сегодня:

"Законопроект Калифорнии об искусственном интеллекте поставит под угрозу рост и замедлит темпы инноваций ..."


Напоминаем, что OpenAI и, в частности, Альтман до этого были активными участниками лоббирования жесткого закона по регуляризации ИИ в Европе. Вот такие пироги 🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
91😁29🫡8🤯5👍4🙈21
Блокировка ютуба дает о себе знать, лекторы нашли другую площадку
😁233🔥33🙈133👏3👍2💘1
Мелочь, а как приятно: Anthropic сегодня катнули в бету отображение мат.формул в боте в нормальном латеховском виде.

Красиво.
111🔥37👍212🤯1🍌1
🚀 Grok-2 наконец-то появился на Арене!

Результаты превосходят ожидания: Grok-2 занял 2-е место, обойдя майскую версию GPT-4o, и сравнялся с последним Gemini. Grok-2-mini тоже отличился и занял пятое место.

По математике модель вообще завоевала уверенное первое место, а по направлениям Hard Prompts, Coding, Instruction-following – второе.

Как тебе такое, Илон Маск Сэм Альтман?
Please open Telegram to view this post
VIEW IN TELEGRAM
412034🔥199👍5
Forwarded from XOR
Пока кто-то хейтит кодинг с использованием ИИ — Андрей Карпатый не может себе представить, что «вернется к самостоятельному написанию кода».🧠

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥122👍32😁139❤‍🔥2🤯21
По поводу нового Калифорнийского законопроекта о регуляции ИИ продолжают разгораться споры и скандалы

⚪️ OpenAI все также настаивает, что законопроект неразумный. Они утверждают, что регулирование ИИ должно осуществляться на федеральном уровне, а не уровне штата, и запугивают, что закон может поставить под угрозу лидерство Калифорнии в разработке ИИ и вытеснить компании из штата.

⚪️ А вот Anthropic, в который недавно ушло много сильных ученых из OpenAI, наоборот, выступает за, хотя и с некоторыми оговорками. Они поддерживают требование к компаниям разрабатывать протоколы безопасности и заниматься работой по снижению рисков. Но в то же время компания аккуратно намекает, что не поддерживает ограничение опенсорса и чрезмерный надзор чиновников за стартапами.

⚪️ Высказались даже некоторые бывшие сотрудники OpenAI. Они обвиняют компанию в том, что ее руководство практикует запугивание и ложь, чтобы заставить замолчать тех сотрудников, кто критикует нарушение протокола безопасности. По поводу законопроекта они говорят, что он "в целом положительный и не слишком сложный для соблюдения".

Сейчас законопроект уже подается в Законодательное собрание для обсуждения и голосования. Его полное содержание можно посмотреть тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍348🔥6😁2😨1
Постельного белья, которое заставит тебя впасть в депрессию не существу…
😁108🫡137😨5👍2🤩1
Трамп выложил в Твиттере кучу нагенерированных женщин в футболках «Фанаты Свифт за Трампа»

После он заявил прессе, что якобы не знал, что картинки сгенерированы.

«Я наткнулся на них в интернете. Все что я знаю, что их кто-то сделал, но это был не я. Я всегда говорил, что ИИ может быть опасен.»


🤨
Please open Telegram to view this post
VIEW IN TELEGRAM
7😁1343016👍5🤔2
График лосса мечты

P.S. Стена вернулась
😁129🫡309👍2
Ладно, давайте отвлечемся от новостей и посмотрим, как красиво Perplexity рекламирует свои продукты

ИИ-маркетинг, который мы заслужили
👍7925😍14
This media is not supported in your browser
VIEW IN TELEGRAM
Любовь к машинному обучению + ностальгия = LossRider

Такой вот проект выходного дня получился у разработчика из Твиттера. Он перенес игру 2006 года Line Rider на график лосов.

GitHub тут. Музыка, кстати, генерируется с помощью Udio. А еще все это поддерживается из Jupyter, так что это идеальный способ скрасить обучение моделек.

Не благодарите.
169👍16🔥12😁4🤔1
Непопулярное мнение об ИИ Стивена Вольфрама: нам нужны философы

Стивен Вольфрам – это ученый, фаундер Wolfram Alpha и Wolfram Language, который выпустил свою первую статью в 15 лет, а в 20 получил докторскую в Калтехе.

Так вот, он заявляет, что по мере того, как мы все больше и больше взаимодействуем с ИИ, раздумья о последствиях становятся уже не аналитическим, а философским вопросом.

«Хватит относится к этому только как к математической задаче. Это уже давно вышло за грани одной только математики»
👍9119🔥16🤔86💯1