Грязный секрет scikit learn заключается в том, что на самом деле predict_proba возвращает НЕ вероятности
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:если собираетесь участвовать в нашем свежем ML-соревновании, то для вас пост особенно полезен. Читайте полное описание задачи и регистрируйтесь вот тут .
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:
🤯64👍24🔥9❤3🤔3
Media is too big
VIEW IN TELEGRAM
Вышел Claude Engineer 2.0 – теперь с агентами
Еще один программист из коробки к вашим услугам: система на основе Claude 3.5 может редактировать файлы, исполнять код (и на основе этого редактировать динамически), дебажить проект. За каждое действие, что интересно, отвечает отдельный агент.
Ну и вишенка на торте: проект опенсорсный. Код лежит здесь.
Еще один программист из коробки к вашим услугам: система на основе Claude 3.5 может редактировать файлы, исполнять код (и на основе этого редактировать динамически), дебажить проект. За каждое действие, что интересно, отвечает отдельный агент.
Ну и вишенка на торте: проект опенсорсный. Код лежит здесь.
👍47🔥13❤4😁1🤗1
В Google научились классифицировать сгенерированный контент?
В эфире теория заговора. Известный SEO Juan González Villa обнаружил в недавно слитых доках Google нечто, похожее на оценку «сгенерированности» сайта. Она называется racterScores, помечено, что это AGC (Artificially Generated Content) classification score.
Но почему racterScores? Оказывается, это название предшественника ChatGPT, разработанного в 1980-х годах компанией IBM. Инженеры Google – большие любители пасхалок.
Скор находится в модуле, который отвечает за метки сайтов.
В эфире теория заговора. Известный SEO Juan González Villa обнаружил в недавно слитых доках Google нечто, похожее на оценку «сгенерированности» сайта. Она называется racterScores, помечено, что это AGC (Artificially Generated Content) classification score.
Но почему racterScores? Оказывается, это название предшественника ChatGPT, разработанного в 1980-х годах компанией IBM. Инженеры Google – большие любители пасхалок.
Скор находится в модуле, который отвечает за метки сайтов.
👍31🔥11❤6
Media is too big
VIEW IN TELEGRAM
Чуть не пропустили: на прошлой неделе Anthropic выпустили инструмент для автоматизации промптинга
Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено, в основном, на разработчиков, чтобы тестировать промпты без API.
Промпт-инженеры, как там дела?
Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено, в основном, на разработчиков, чтобы тестировать промпты без API.
Промпт-инженеры, как там дела?
😁41❤11🔥10👍1
Data Secrets
Чуть не пропустили: на прошлой неделе Anthropic выпустили инструмент для автоматизации промптинга Это новая функция Anthropic Console. В песочнице можно сравнивать промпты, автоматически улучшать их с помощью Claude 3.5 и генерировать тестовые кейсы. Направлено…
На месте Anthropic мы бы остерегались
😁63 8👍7
Как ускорять нейросети?
Один из главных трендов в DL сейчас – локализация и ускорение нейросетевых моделей. Только посмотрите: одна за одной разработки от Meta, Google, Apple и так далее.
Как ни крути, нам с вами отставать нельзя: умение ускорять и облегчать модели уже становится ключевым навыком ML-инженеров. Самое время углубляться в тему.
Наши друзья из DeepSchool как раз поймали волну и в четверг вечером проводят открытую лекцию-погружение в ускорение сетей.
⚙️ Прямо при вас запрунят, квантанут и затюнят с дистилляцией живую модель
⚙️ Подробно объяснят каждый метод
⚙️ Покажут и научат бороть все подводные камни
⚙️ Расскажут, почему различается результат на разных вычислителях
⚙️ Введут в курс проблем и вызовов в ускорении LLM
И, наконец, покажут программу своего будущего курса по ускорению нейросетей! А кроме прочего, прямо после регистрации вы получите от ребят крутой туториал по использованию TensorRT и OpenVino.
Ну вы поняли: идти надо точно. Лектор – СТО стартапа enot.ai, Саша Гончаренко. Регистрация тут. Не пропустите 18 июля в 18:00 МСК!
Один из главных трендов в DL сейчас – локализация и ускорение нейросетевых моделей. Только посмотрите: одна за одной разработки от Meta, Google, Apple и так далее.
Как ни крути, нам с вами отставать нельзя: умение ускорять и облегчать модели уже становится ключевым навыком ML-инженеров. Самое время углубляться в тему.
Наши друзья из DeepSchool как раз поймали волну и в четверг вечером проводят открытую лекцию-погружение в ускорение сетей.
И, наконец, покажут программу своего будущего курса по ускорению нейросетей! А кроме прочего, прямо после регистрации вы получите от ребят крутой туториал по использованию TensorRT и OpenVino.
Ну вы поняли: идти надо точно. Лектор – СТО стартапа enot.ai, Саша Гончаренко. Регистрация тут. Не пропустите 18 июля в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17😁5❤3🙈3⚡2🔥1
Data Secrets
Как побеждать в ML-соревнованиях
Да просто нормально чистить и обрабатывать данные, не пренебрегать фича инжинирингом, проводить адекватную валидацию и уметь пользоваться стекингом и блендингом.
Хотите подробнее? Тогда читайте нашу новую статью, которую мы выпустили в честь запуска нашей платформы Data Secrets | Хакатоны.
В статье вы найдете:
➡️ 5 веских причин участвовать в ML-соревнованиях
➡️ 3 секрета хорошего решения
➡️ 7 сервисов, где можно бесплатно пользоваться GPU
➡️ 5 отборных ресурсов для грокинга хакатонов
➡️ … и кучу мемов 😉
Читать тут: https://datasecrets.ru/hackathons/dashboard/materials
И кстати, на нашей платформе уже запущено первое соревнование. Не пропусти!
Да просто нормально чистить и обрабатывать данные, не пренебрегать фича инжинирингом, проводить адекватную валидацию и уметь пользоваться стекингом и блендингом.
Хотите подробнее? Тогда читайте нашу новую статью, которую мы выпустили в честь запуска нашей платформы Data Secrets | Хакатоны.
В статье вы найдете:
Читать тут: https://datasecrets.ru/hackathons/dashboard/materials
И кстати, на нашей платформе уже запущено первое соревнование. Не пропусти!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤36🤯14🔥4 4
Eureka Labs будет школой нового типа, в которой обучение будет проходить с помощью ИИ. Нe все будет завязано на сетях: человек все еще будет разрабатывать основные материалы курсов, но масштабировать, адаптировать и вести по ним ученика будет ИИ.
Первым курсом станет LLM101n (мы о нем уже рассказывали). Все материалы будут доступны онлайн, но также будут онлайн и офлайн потоки.
«Если мы добьемся успеха, любому будет легко научиться чему-либо, и мы расширим образование как по охвату (большее количество учеников), так и по объему (любой человек изучает сколь угодно большое количество предметов).»
Лендинг | GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69🔥17 12😍5❤4🤓4🍌2😁1
Media is too big
VIEW IN TELEGRAM
Оно вырвалось наружу 😨
… хорошо, что это просто вчерашнее шоу на сфере в Лас-Вегасе
… хорошо, что это просто вчерашнее шоу на сфере в Лас-Вегасе
Please open Telegram to view this post
VIEW IN TELEGRAM
❤58🔥33🤨8👨💻3🦄1
Data Secrets
Оно вырвалось наружу 😨 … хорошо, что это просто вчерашнее шоу на сфере в Лас-Вегасе
Кстати, недавно Nvidia приоткрыла завесу тайны того, как работает эта сфера
Оказалось, что там задействованы те еще мощи: 150 NVIDIA RTX A6000 для вывода изображения в 16к + DPU NVIDIA BlueField и ConnectX-6 Dx в связке с Rivermax и DOCA Firefly для сетевого подключения.
А еще есть тестовая копия. Она в четыре раза меньше и именно на ней Sphere Studios испытавают свои творения прежде, чем пускать их на большую сферу.
Оказалось, что там задействованы те еще мощи: 150 NVIDIA RTX A6000 для вывода изображения в 16к + DPU NVIDIA BlueField и ConnectX-6 Dx в связке с Rivermax и DOCA Firefly для сетевого подключения.
А еще есть тестовая копия. Она в четыре раза меньше и именно на ней Sphere Studios испытавают свои творения прежде, чем пускать их на большую сферу.
🔥54❤6
Заточены модельки под математику и программирование.
Говорят, результаты можно еще улучшить за счет более долгого инференса. То есть если в качестве метода выбора ответа среди экспертов модели (это MoE) взять не обычный majority voting, а сильную reward модель, то результаты на MATH сразу скачут на 6 п.п.
Ну и самое приятное: веса больше не на торентах, а на HF. Ссылки: Mathstral, Codestral.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥8❤5🎉4
Как сделать SOTA RAG?
Самые продвинутые RAG сегодня уже умеют:
▪️ Обрабатывать мультимодальные документы и выдавать мультимодальные ответы;
▪️ Распределять нагрузку по разным моделям в зависимости от сложности инпута. Это называется LLM routing;
▪️ Работать мультиязычно. Это значит, что запрос может быть на одном языке, документы на втором, а выходы на третьем;
▪️ Повышать качество ответов с помощью пост-проверок;
▪️ Ну и конечно дообучаться на фидбеке с продакшена.
Из недавнего можно обратить внимание на хорошую работу от Google под названием Speculative RAG. Вышла буквально несколько дней назад. Там у них подход такой:
Берем несколько маленьких дистиллированных моделей, которые параллельно генерят нам драфты (каждая из отдельного подмножества документов). Затем за один проход по этим черновикам более крупная модель собирает саммари.
Получается своеобразный Mixture of Experts или мультиагентный подход. Преимуществ получается несколько. Во-первых, так как контекст на каждую маленькую модельку уменьшается, то и информации теряется меньше. Во-вторых, никакой документ не будет проигнорирован из-за его положения в контексте + мы как бы генерируем разные точки зрения. Ну и в-третьих, это просто быстрее.
Точность относительно других систем выше на 13%, а задержка меньше в половину. Короче, Google как всегда молодцы, а статья мастрид.
Самые продвинутые RAG сегодня уже умеют:
Из недавнего можно обратить внимание на хорошую работу от Google под названием Speculative RAG. Вышла буквально несколько дней назад. Там у них подход такой:
Берем несколько маленьких дистиллированных моделей, которые параллельно генерят нам драфты (каждая из отдельного подмножества документов). Затем за один проход по этим черновикам более крупная модель собирает саммари.
Получается своеобразный Mixture of Experts или мультиагентный подход. Преимуществ получается несколько. Во-первых, так как контекст на каждую маленькую модельку уменьшается, то и информации теряется меньше. Во-вторых, никакой документ не будет проигнорирован из-за его положения в контексте + мы как бы генерируем разные точки зрения. Ну и в-третьих, это просто быстрее.
Точность относительно других систем выше на 13%, а задержка меньше в половину. Короче, Google как всегда молодцы, а статья мастрид.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥47👍16❤6🤔1
Проблема: по мере оптимизации моделей те начинают отвечать правильнее, но вылезает другая неприятность. Понимать их рассуждения становится сложнее. Другими словами, выходы становятся менее "разборчивыми". Особенно это нехорошо для всякой математики или других точных областей знаний.
Исследователи из OpenAI заметили это и предложили интересное решение в виде своеобразной ролевой игры. У нас есть два игрока: «prover», который генерирует решение, и «verifier», проверяющий его.
Суть вот в чем: prover – это сильная рабочая модель, а verifier – слабая маленькая моделька (видимо олицетворяющая человека
Вообще, статья достаточно приятная и легко читается. Вот здесь краткий блогпост, а вот тут папира полностью.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44❤10🔥10😁4
Хм, кажется, у новой Mamba Codestral что-то не так с контекстом
В своем твиттере ресерчер показал результаты домашнего теста модельки. Задача была прочитать код и ответить по нему на простой вопрос (source).
Начиная с 1к контекста модель начала сдуваться (на графике сравнение с прошлой версией, не mamba).
А Mistral в блоге писали, что протестили до 256к токенов…
В своем твиттере ресерчер показал результаты домашнего теста модельки. Задача была прочитать код и ответить по нему на простой вопрос (source).
Начиная с 1к контекста модель начала сдуваться (на графике сравнение с прошлой версией, не mamba).
А Mistral в блоге писали, что протестили до 256к токенов…
🤔32🔥6👍5
Вот это новости, которые мы заслужили
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥121👍11❤5👌2
Каким-то образом пресса умудрилась выпустить новости о релизе новой модели от OpenAI без каких-либо официальных подтверждений от самой компании. По всеобщим догадкам получилось это случайно, из-за обычной невнимательности с часовыми поясами.
Говорят, что выйдет легкая и быстрая младшая сестра gpt-4o, которая заменит gpt-3.5-turbo. gpt-4o-mini поначалу будет только текстовой, но мультимодальность однажды тоже завезут.
Не верить таким крупным издательствам повода нет, да и на арене на днях была замечена некая upcoming-gpt-mini. В стиле OpenAI это скорее всего и был тест gpt-4o-mini. Так что с нетерпением ждем новостей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27👍6🔥6😁5👏4
Иии... вышла gpt-4o-mini !
Вот официальный анонс. Основное:
▪️ Модель дешевая: цена составляет 15 центов за миллион входных токенов и 60 центов за миллион выходных токенов. Это на 60% дешевле GPT-3.5 Turbo. Все благодаря токенизатору и легковесности.
▪️ Обучена на данных до октября 2023, имеет контекст 128к токенов и поддерживает выходы до 16к токенов.
▪️ Прирост относительно GPT-3.5 Turbo особенно хорошо виден на MGSM, MATH и HumanEval, то есть на математике и программировании.
▪️ Среди других моделей уступает только старшему братику GPT-4o.
▪️ Пользователи Free, Plus и Team уже могут пользоваться GPT-4o mini вместо GPT-3.5. API уже поддерживает текст и vision. В чат мультимодальность тоже завезут, но когда – непонятно.
Ну, погнали пробовать?
Вот официальный анонс. Основное:
Ну, погнали пробовать?
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉57🔥14👍10❤2😁1🤨1🆒1