Data Secrets
77.3K subscribers
6.04K photos
592 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Тем временем Llama 3 на 400B параметров наконец закончила обучаться и выйдет 23 июля!

Модель скорее всего будет мультимодальной. Наверху – ее сравнение с известными LLM где-то во время середины обучения
68🔥165👍3
Data Secrets
У нас для вас большой анонс! Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы……
⚡️ Breaking! Мы запустили регистрацию на первое ML-соревнование от Data Secrets!

Большой день для всей нашей команды: платформа для хакатонов, о которой мы вам рассказывали, запущена. И на ней уже есть первое соревнование, в котором вы можете поучаствовать!

Задачка очень занятная и посвящена прогнозированию эффективности клиентских промо-рассылок. Ее, вместе с данными, нам предоставили наши друзья из Dodo Pizza. Полное описание здесь.

10 победителей соревнования получат не только крутой опыт решения реальной продуктовой проблемы, но и наш яркий мерч Data Secrets!

Скорее регистрируйтесь: https://datasecrets.ru/hackathons/7.
Please open Telegram to view this post
VIEW IN TELEGRAM
3514👍7🔥7🤯3🤨3🌚1
Data Secrets
OpenAI работает над новой технологией рассуждений Strawberry. Ранее проект был известен как Q* Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого…
И кроме того, у OpenAI опять какой-то новый сайт: OpenAI Supply Co

Это дословно поставляющая компания. Интересно, что они там собираются поставлять? Модели? Мерч? А может чипы? 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2312👍4🤔4👀4
This media is not supported in your browser
VIEW IN TELEGRAM
На видео любитель запускает Llama3 8B на домашнем кластере, состоящем из iPhone 15 Pro Max, iPad Pro, MacBook Pro, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal.

Весь код тут, включая код для iOS, так что можно повторить 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯75🔥194🏆3
Data Secrets
На видео любитель запускает Llama3 8B на домашнем кластере, состоящем из iPhone 15 Pro Max, iPad Pro, MacBook Pro, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal. Весь код тут, включая код для iOS, так что можно повторить 😏
Кстати про llama3: там TogetherAI выпустили классный кодовый туториал по файнтюнингу

В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.

Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
🔥47👍125😁5🗿1
⚡️ Xiaomi открывает новую фабрику вообще без людей. Xiaomi Smart Factory первая такая в своем роде, она будет находиться в Чанпине. Завод будет работать круглосуточно, скорость сборки составит один смартфон в секунду (86к/сутки!). Контроль качества полностью ляжет на ИИ.

С – смелость
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤯38👍9😁41
В далеком 2019 году чемпион мира по Go Ли Седоль проиграл алгоритму AlphaGo. Прошло 5 лет, и теперь Ли читает лекции об опасностях ИИ

В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.

Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.

Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
😁99👍18103👀2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
⚙️ Там вышла интересная библиотека gpu.cpp для проведения GPU-вычислений на С++. По сути, это набор удобных инструментов, которые помогают легким движением руки добавить код на GPU в проекты. Поддерживаются модули Nvidia, Intel, AMD. Ожидается, что сборки с gpu.cpp будут выполняться не более двух секунд даже на среднем железе. Либа опенсурсная, код лежит тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍407🔥53🦄1
Microsoft и Apple в последние дни в статейном ударе. Подборка свежих интересных папир от них:

➡️ SpreadsheetLLM. Первое место в разделе Daily Papers на HF cегодня. Модель для работы с электронными таблицами. Основным достижением стал энкодер, который помогает эффективно скармливать LLM-ке таблицу в сжатом виде. С помощью такого энкодера можно обрабатывать большие таблицы, а перформанс при этом на 25,6 % выше стандарта GPT4.

➡️ MUSCLE. Топ-4 в Daily Papers. Вы замечали, что когда обновляются LLM, они могут начинать отвечать бредово на вопросы, с которыми легко справлялась предыдущая версия? Это потому что разработчики фокусируются на общем перформансе, а не на совместимости.

Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.

➡️ Arena Learning. Что-то на GANском. Модель X (послабее, та, которую мы хотим затюнить) конкурирует в ответах с какой-нибудь SOTA, а третья модель (тоже какая-нибудь сильная) выступает в роли судьи и выбирает победителя. Каждый такой "диалог" – это данные для RL для обучения модели X, то есть предложенная схема это ничто иное как замена дорогого и долгого RLHF.

Обновляем статейный бэклог 🕺
Please open Telegram to view this post
VIEW IN TELEGRAM
30👍84❤‍🔥1🔥1🗿1
Грязный секрет scikit learn заключается в том, что на самом деле predict_proba возвращает НЕ вероятности

Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.

Спойлер: если собираетесь участвовать в нашем свежем ML-соревновании, то для вас пост особенно полезен. Читайте полное описание задачи и регистрируйтесь вот тут.
🤯64👍24🔥93🤔3
Ну количество пальцев нужное. А в чем собственно проблема?
😁107💅137👍31
Media is too big
VIEW IN TELEGRAM
Вышел Claude Engineer 2.0 – теперь с агентами

Еще один программист из коробки к вашим услугам: система на основе Claude 3.5 может редактировать файлы, исполнять код (и на основе этого редактировать динамически), дебажить проект. За каждое действие, что интересно, отвечает отдельный агент.

Ну и вишенка на торте: проект опенсорсный. Код лежит здесь.
👍47🔥134😁1🤗1
В Google научились классифицировать сгенерированный контент?

В эфире теория заговора. Известный SEO Juan González Villa обнаружил в недавно слитых доках Google нечто, похожее на оценку «сгенерированности» сайта. Она называется racterScores, помечено, что это AGC (Artificially Generated Content) classification score.

Но почему racterScores? Оказывается, это название предшественника ChatGPT, разработанного в 1980-х годах компанией IBM. Инженеры Google – большие любители пасхалок.

Скор находится в модуле, который отвечает за метки сайтов.
👍31🔥116
Media is too big
VIEW IN TELEGRAM
Чуть не пропустили: на прошлой неделе Anthropic выпустили инструмент для автоматизации промптинга

Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено, в основном, на разработчиков, чтобы тестировать промпты без API.

Промпт-инженеры, как там дела?
😁4111🔥10👍1