Please open Telegram to view this post
VIEW IN TELEGRAM
🤯75🔥19❤4🏆3
Data Secrets
На видео любитель запускает Llama3 8B на домашнем кластере, состоящем из iPhone 15 Pro Max, iPad Pro, MacBook Pro, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal. Весь код тут, включая код для iOS, так что можно повторить 😏
Кстати про llama3: там TogetherAI выпустили классный кодовый туториал по файнтюнингу
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
🔥47👍12❤5😁5🗿1
С – смелость
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤯38👍9😁4❤1
В далеком 2019 году чемпион мира по Go Ли Седоль проиграл алгоритму AlphaGo. Прошло 5 лет, и теперь Ли читает лекции об опасностях ИИ
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
😁99👍18❤10 3👀2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤7🔥5⚡3🦄1
Microsoft и Apple в последние дни в статейном ударе. Подборка свежих интересных папир от них:
➡️ SpreadsheetLLM. Первое место в разделе Daily Papers на HF cегодня. Модель для работы с электронными таблицами. Основным достижением стал энкодер, который помогает эффективно скармливать LLM-ке таблицу в сжатом виде. С помощью такого энкодера можно обрабатывать большие таблицы, а перформанс при этом на 25,6 % выше стандарта GPT4.
➡️ MUSCLE. Топ-4 в Daily Papers. Вы замечали, что когда обновляются LLM, они могут начинать отвечать бредово на вопросы, с которыми легко справлялась предыдущая версия? Это потому что разработчики фокусируются на общем перформансе, а не на совместимости.
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
➡️ Arena Learning. Что-то на GANском. Модель X (послабее, та, которую мы хотим затюнить) конкурирует в ответах с какой-нибудь SOTA, а третья модель (тоже какая-нибудь сильная) выступает в роли судьи и выбирает победителя. Каждый такой "диалог" – это данные для RL для обучения модели X, то есть предложенная схема это ничто иное как замена дорогого и долгого RLHF.
Обновляем статейный бэклог🕺
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
Обновляем статейный бэклог
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍8 4❤🔥1🔥1🗿1
Грязный секрет scikit learn заключается в том, что на самом деле predict_proba возвращает НЕ вероятности
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:если собираетесь участвовать в нашем свежем ML-соревновании, то для вас пост особенно полезен. Читайте полное описание задачи и регистрируйтесь вот тут .
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:
🤯64👍24🔥9❤3🤔3
Media is too big
VIEW IN TELEGRAM
Вышел Claude Engineer 2.0 – теперь с агентами
Еще один программист из коробки к вашим услугам: система на основе Claude 3.5 может редактировать файлы, исполнять код (и на основе этого редактировать динамически), дебажить проект. За каждое действие, что интересно, отвечает отдельный агент.
Ну и вишенка на торте: проект опенсорсный. Код лежит здесь.
Еще один программист из коробки к вашим услугам: система на основе Claude 3.5 может редактировать файлы, исполнять код (и на основе этого редактировать динамически), дебажить проект. За каждое действие, что интересно, отвечает отдельный агент.
Ну и вишенка на торте: проект опенсорсный. Код лежит здесь.
👍47🔥13❤4😁1🤗1
В Google научились классифицировать сгенерированный контент?
В эфире теория заговора. Известный SEO Juan González Villa обнаружил в недавно слитых доках Google нечто, похожее на оценку «сгенерированности» сайта. Она называется racterScores, помечено, что это AGC (Artificially Generated Content) classification score.
Но почему racterScores? Оказывается, это название предшественника ChatGPT, разработанного в 1980-х годах компанией IBM. Инженеры Google – большие любители пасхалок.
Скор находится в модуле, который отвечает за метки сайтов.
В эфире теория заговора. Известный SEO Juan González Villa обнаружил в недавно слитых доках Google нечто, похожее на оценку «сгенерированности» сайта. Она называется racterScores, помечено, что это AGC (Artificially Generated Content) classification score.
Но почему racterScores? Оказывается, это название предшественника ChatGPT, разработанного в 1980-х годах компанией IBM. Инженеры Google – большие любители пасхалок.
Скор находится в модуле, который отвечает за метки сайтов.
👍31🔥11❤6
Media is too big
VIEW IN TELEGRAM
Чуть не пропустили: на прошлой неделе Anthropic выпустили инструмент для автоматизации промптинга
Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено, в основном, на разработчиков, чтобы тестировать промпты без API.
Промпт-инженеры, как там дела?
Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено, в основном, на разработчиков, чтобы тестировать промпты без API.
Промпт-инженеры, как там дела?
😁41❤11🔥10👍1
Data Secrets
Чуть не пропустили: на прошлой неделе Anthropic выпустили инструмент для автоматизации промптинга Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено…
На месте Anthropic мы бы остерегались
😁63 8👍7
Как ускорять нейросети?
Один из главных трендов в DL сейчас – локализация и ускорение нейросетевых моделей. Только посмотрите: одна за одной разработки от Meta, Google, Apple и так далее.
Как ни крути, нам с вами отставать нельзя: умение ускорять и облегчать модели уже становится ключевым навыком ML-инженеров. Самое время углубляться в тему.
Наши друзья из DeepSchool как раз поймали волну и в четверг вечером проводят открытую лекцию-погружение в ускорение сетей.
⚙️ Прямо при вас запрунят, квантанут и затюнят с дистилляцией живую модель
⚙️ Подробно объяснят каждый метод
⚙️ Покажут и научат бороть все подводные камни
⚙️ Расскажут, почему различается результат на разных вычислителях
⚙️ Введут в курс проблем и вызовов в ускорении LLM
И, наконец, покажут программу своего будущего курса по ускорению нейросетей! А кроме прочего, прямо после регистрации вы получите от ребят крутой туториал по использованию TensorRT и OpenVino.
Ну вы поняли: идти надо точно. Лектор – СТО стартапа enot.ai, Саша Гончаренко. Регистрация тут. Не пропустите 18 июля в 18:00 МСК!
Один из главных трендов в DL сейчас – локализация и ускорение нейросетевых моделей. Только посмотрите: одна за одной разработки от Meta, Google, Apple и так далее.
Как ни крути, нам с вами отставать нельзя: умение ускорять и облегчать модели уже становится ключевым навыком ML-инженеров. Самое время углубляться в тему.
Наши друзья из DeepSchool как раз поймали волну и в четверг вечером проводят открытую лекцию-погружение в ускорение сетей.
И, наконец, покажут программу своего будущего курса по ускорению нейросетей! А кроме прочего, прямо после регистрации вы получите от ребят крутой туториал по использованию TensorRT и OpenVino.
Ну вы поняли: идти надо точно. Лектор – СТО стартапа enot.ai, Саша Гончаренко. Регистрация тут. Не пропустите 18 июля в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17😁5❤3🙈3⚡2🔥1
Data Secrets
Как побеждать в ML-соревнованиях
Да просто нормально чистить и обрабатывать данные, не пренебрегать фича инжинирингом, проводить адекватную валидацию и уметь пользоваться стекингом и блендингом.
Хотите подробнее? Тогда читайте нашу новую статью, которую мы выпустили в честь запуска нашей платформы Data Secrets | Хакатоны.
В статье вы найдете:
➡️ 5 веских причин участвовать в ML-соревнованиях
➡️ 3 секрета хорошего решения
➡️ 7 сервисов, где можно бесплатно пользоваться GPU
➡️ 5 отборных ресурсов для грокинга хакатонов
➡️ … и кучу мемов 😉
Читать тут: https://datasecrets.ru/hackathons/dashboard/materials
И кстати, на нашей платформе уже запущено первое соревнование. Не пропусти!
Да просто нормально чистить и обрабатывать данные, не пренебрегать фича инжинирингом, проводить адекватную валидацию и уметь пользоваться стекингом и блендингом.
Хотите подробнее? Тогда читайте нашу новую статью, которую мы выпустили в честь запуска нашей платформы Data Secrets | Хакатоны.
В статье вы найдете:
Читать тут: https://datasecrets.ru/hackathons/dashboard/materials
И кстати, на нашей платформе уже запущено первое соревнование. Не пропусти!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤36🤯14🔥4 4
Eureka Labs будет школой нового типа, в которой обучение будет проходить с помощью ИИ. Нe все будет завязано на сетях: человек все еще будет разрабатывать основные материалы курсов, но масштабировать, адаптировать и вести по ним ученика будет ИИ.
Первым курсом станет LLM101n (мы о нем уже рассказывали). Все материалы будут доступны онлайн, но также будут онлайн и офлайн потоки.
«Если мы добьемся успеха, любому будет легко научиться чему-либо, и мы расширим образование как по охвату (большее количество учеников), так и по объему (любой человек изучает сколь угодно большое количество предметов).»
Лендинг | GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69🔥17 12😍5❤4🤓4🍌2😁1