Там DeepSeek в честь недели опенсорса объявили, что будут 5 дней выкладывать репозитории с кодом их проектов
Кажется, OpenAI уже пора отдать им название
«Мы поделимся нашим небольшим, но честным прогрессом с полной прозрачностью. Это будут скромные строительные блоки нашего онлайн-сервиса, которые были задокументированы, развернуты и испытаны в реальных условиях»
Кажется, OpenAI уже пора отдать им название
👍234🔥95😁41❤8💯7👌3
“Ъ” и Центральный университет выпустили совместный проект “Директора и люди”, посвященный стратегиям крупного бизнеса и участию выпускников вузов в реализации этих стратегий. Его первым гостем стал глава Т-Банка Станислав Близнюк.
Разобрали на цитаты основное:
Разобрали на цитаты основное:
У нас три ценности - клиенты, сотрудники и акционеры, причем именно в таком порядке.
Любой бизнес имеет шанс на рост, только если он вкладывается в науку
Работодатель должен выступать заказчиком университета. Сегодня это не совсем так, и работодатель часто считает, что кадры можно найти в капусте. Но нет, нельзя. Их надо взращивать, и это то, что мы делаем в ЦУ. Поэтому наши выпускники "золотые".
У нас есть понимание того, что какая-то доля набора в Т-Банк должна быть в виде джунов. Очень важная задача – брать кого-то молодого, необтесанного, но умного и перспективного.
Капитал школьника – напористость и любопытство. Первый, второй, третий, четвертый курс - это тот самый уникальный момент, когда нужно реализовывать этот капитал, который будет тебя потом кормить.
👍36🍌13🔥11❤6🤯5🙈3😁2🌭1👀1
Anthropic на своей новой презентации показали интересный график
Это employee retention rate, то есть процент сотрудников, которые остались в стартапе спустя год, два, три и тд с момента найма.
У Anthropic эта метрика достаточно высокая, даже самая высокая среди всего ИИ-теха. OpenAI проваливается куда-то вниз, и, внезапно, у Perplexity тоже дела с этим не очень.
Это employee retention rate, то есть процент сотрудников, которые остались в стартапе спустя год, два, три и тд с момента найма.
У Anthropic эта метрика достаточно высокая, даже самая высокая среди всего ИИ-теха. OpenAI проваливается куда-то вниз, и, внезапно, у Perplexity тоже дела с этим не очень.
😁103🤔36👍17❤5
Всплыло, что Илон Маск тихо построил еще один огромный датацентр стоимостью 700 миллионов долларов
Он расположен в Атланте, построен в сотрудничестве с X, и насчитывает 12000 GPU. Это не так много по сравнению с другим суперкомпьютером Маска, в котором 200к чипов, но все равно масштабно. Официальное назначение пока не раскрывается.
Он расположен в Атланте, построен в сотрудничестве с X, и насчитывает 12000 GPU. Это не так много по сравнению с другим суперкомпьютером Маска, в котором 200к чипов, но все равно масштабно. Официальное назначение пока не раскрывается.
👍102😁36🔥19❤9🤯5🌚2🍌2
OpenAI поделились текущей статистикой
🟦 Сейчас еженедельно они обслуживают 400 миллионов юзеров. Еще в декабре было 300 миллионов, кстати.
🟦 Сейчас у стартапа 2+ миллиона корпоративных клиентов: это в два раза больше, чем пол года назад.
🟦 Трафик в API тоже удвоился за последние 6 месяцев. Причем для недавно вышедшей o3-mini с момента запуска рост составил x5.
Самое интересное, что DeepSeek, возможно, не только не помешал росту OpenAI, но и ускорил его. Дело в том, что появление такого конкурента разгоняет внимание к ИИ и привлекает новую аудиторию, как бы провоцируя ее изучать рынок.
Самое интересное, что DeepSeek, возможно, не только не помешал росту OpenAI, но и ускорил его. Дело в том, что появление такого конкурента разгоняет внимание к ИИ и привлекает новую аудиторию, как бы провоцируя ее изучать рынок.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍124🔥33🎉21🤔16❤4
Аналитическая ИИ-лаборатория EpochAI опубликовала свои прогнозы на 2025:
⭐ К концу года FrontierMath будет решен на 75%. На данный момент это самый сложный мат.бенчмарк. Текущие модели (включая o3-mini) решают его на <10%, а o3, судя по анонсам, будет решать примерно на 25.
⭐ SWE Bench Verified будет решен на 90% (сейчас это <40).
⭐ Доход OpenAI составит примерно 12 миллиардов долларов. Это почти в 3.5 раза больше, чем в 2024.
⭐ Модели будут пока становиться больше, и можно ожидать повышение цен на API в 2-3 раза.
⭐ В целом прогресс за 2025 можно будет сравнить с прогрессом, который мы до этого наблюдали в течение двух лет, то есть с момента выхода GPT-4.
Отчет
Отчет
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤19🌭10⚡6🙈1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁264❤36🤔33🤯17🔥10👍9🌚7
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics опять радуют видео новинки. На этот раз показали миленького робо-байкера 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤73😍43👍32🔥13⚡5😁4
OpenAI начали удалять некоторые китайские и корейские аккаунты
Не какие попало, конечно, а только те, которые они подозревают в использовании технологии с целью мошенничества.
Якобы одни злоумышленники использовали ChatGPT, чтобы писать фейковые статьи «порочащие США» на испанском, другие, чтобы пилить сотни резюме и фиктивно получать работу в американских компаниях, а третьи, чтобы генерировать оскорбительные комментарии в Твиттере.
Версия правительства США: Азия использует ИИ, чтобы подорвать репутацию и безопасность Америки🍿
Новость
Не какие попало, конечно, а только те, которые они подозревают в использовании технологии с целью мошенничества.
Якобы одни злоумышленники использовали ChatGPT, чтобы писать фейковые статьи «порочащие США» на испанском, другие, чтобы пилить сотни резюме и фиктивно получать работу в американских компаниях, а третьи, чтобы генерировать оскорбительные комментарии в Твиттере.
Версия правительства США: Азия использует ИИ, чтобы подорвать репутацию и безопасность Америки
Новость
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔90😁63👍24🤯18👻13🗿9❤7🌭5🤪4👌2☃1
This media is not supported in your browser
VIEW IN TELEGRAM
Ребята встроили в свой многомиллионный раздел с датасетами Data Studio. Теперь из нужной таблицы можно прямо на платформе извлечь то, что нужно, не скачивая ее полностью. Результат вернется в виде CSV, или им можно поделиться ссылкой.
Ну и самое приятное: писать SQL-запрос самому не обязательно. Достаточно описать все на естественном языке, а код за вас напишет DeepSeek V3.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥200👍46🤩17🤗12❤8🏆3
Китайская лаборатория MoonshotAI показала оптимизатор Muon, который оказался в два раза эффективнее AdamW
Сам оптимизатор не новый, он вышел еще в декабре и придумал его Келлер Джордан. У него Muon (основанный, кстати, на ортогонализации матриц) показал крутые результаты, но только на игрушечных задачах. Заветный✨ скейлинг✨ не был продемонстрирован.
В Moonshot показали, как завести Muon для больших моделей. Как оказалось, требуется всего ничего: добавить weight decay и внимательно настроить обновление в зависимости от размера матрицы весов. Хотя, надо сказать, что последнее не совсем очевидно: для этого надо было заметить, что RMS метода не равно единице и вывести для него верную формулу.
С таким набором Muon работает из коробки и даже не требует настройки гиперпараметров. В статье его проверили на модельке 3В/16В MoE, и он обошел AdamW на производительности в два раза.
Код опенсорснули тут, так что уже можно тестировать имплементацию
Сам оптимизатор не новый, он вышел еще в декабре и придумал его Келлер Джордан. У него Muon (основанный, кстати, на ортогонализации матриц) показал крутые результаты, но только на игрушечных задачах. Заветный
В Moonshot показали, как завести Muon для больших моделей. Как оказалось, требуется всего ничего: добавить weight decay и внимательно настроить обновление в зависимости от размера матрицы весов. Хотя, надо сказать, что последнее не совсем очевидно: для этого надо было заметить, что RMS метода не равно единице и вывести для него верную формулу.
С таким набором Muon работает из коробки и даже не требует настройки гиперпараметров. В статье его проверили на модельке 3В/16В MoE, и он обошел AdamW на производительности в два раза.
Код опенсорснули тут, так что уже можно тестировать имплементацию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136🔥38❤22😐8❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic выпустит новую модель сегодня?
Довольно необычного вида предсказание на этот счет дал сегодня в твиттере Jimmy Apples. Этот аккаунт принадлежит инсайдеру. Он довольно редко пишет подобные предикты, но они часто оказываются правдой.
На этот раз он выложил вот такой видоизмененный клип на песню Karma Police, в котором от машины убегает Альтман, и подписал его «Реванш. Завтра».
Верим?
Довольно необычного вида предсказание на этот счет дал сегодня в твиттере Jimmy Apples. Этот аккаунт принадлежит инсайдеру. Он довольно редко пишет подобные предикты, но они часто оказываются правдой.
На этот раз он выложил вот такой видоизмененный клип на песню Karma Police, в котором от машины убегает Альтман, и подписал его «Реванш. Завтра».
Верим?
😁81👍18🔥18❤2
Data Secrets
Там DeepSeek в честь недели опенсорса объявили, что будут 5 дней выкладывать репозитории с кодом их проектов «Мы поделимся нашим небольшим, но честным прогрессом с полной прозрачностью. Это будут скромные строительные блоки нашего онлайн-сервиса, которые…
Первый день опенсорса от DeepSeek
В конце прошлой недели ребята пообещали, что с 24 по 28 февраля выложат в открытый доступ пять репозиториев из их внутренней экосистемы.
Сегодня показали проект FlashMLA – оптимизированные GPU-ядра, которые крутятся в проде систем DeepSeek.
MLA – это multi latent attention, метод, позволяющий сокращать потребление памяти за счет сжатия матриц ключей и значений в трансформерах. Метод активно используется в моделях DeepSeek и в целом очень перспективный, но готовых оптимизаций для него пока не так много. Так что FlashMLA это готовое решение для бодрого инференса.
Проект поддерживает bfloat16, поэтому тут и скорость, и точность. Код годится для всей серии Hopper, то есть для H100, H800 и тд.
github.com/deepseek-ai/FlashMLA
В конце прошлой недели ребята пообещали, что с 24 по 28 февраля выложат в открытый доступ пять репозиториев из их внутренней экосистемы.
Сегодня показали проект FlashMLA – оптимизированные GPU-ядра, которые крутятся в проде систем DeepSeek.
MLA – это multi latent attention, метод, позволяющий сокращать потребление памяти за счет сжатия матриц ключей и значений в трансформерах. Метод активно используется в моделях DeepSeek и в целом очень перспективный, но готовых оптимизаций для него пока не так много. Так что FlashMLA это готовое решение для бодрого инференса.
Проект поддерживает bfloat16, поэтому тут и скорость, и точность. Код годится для всей серии Hopper, то есть для H100, H800 и тд.
github.com/deepseek-ai/FlashMLA
🏆100👍39❤16🔥10💘1
На ML-собеседованиях все чаще спрашивают про применение LLM в реальных бизнес-проектах
Почему? Потому что компаниям нужны не просто те, кто знают, как моделька работает, а те, кто может эти знания положить на практику, решить задачу и принести компании пользу.
К сожалению, материалов по этой теме пока немного, а те, которые есть, теряются за огромным потоком (ИИ)нформации. Так что сегодня отдельно обращаем ваше внимание на вот этот вебинар про применение LLM в e-commerce: его проводят наши друзья из известной школы ШВМ.
На вебинаре разберут успешные и неудачные кейсы применения LLM, расскажут, какие модели реально работают и приносят бизнесу пользу, а также объяснят, какие важные задачи и почему пока не решены. Спикеры – огонь:
🟦 Артем Бочкарев – Head of Data Science в AliExpress (ну кто может лучше разбираться в ML в e-commerce?)
🟦 Александр Лыков – к.ф.-м.н., академический руководитель Школы Высшей Математики
Такое точно не пропускаем. Регистрируйтесь здесь, встретимся 27 февраля в 19:00.
Почему? Потому что компаниям нужны не просто те, кто знают, как моделька работает, а те, кто может эти знания положить на практику, решить задачу и принести компании пользу.
К сожалению, материалов по этой теме пока немного, а те, которые есть, теряются за огромным потоком (ИИ)нформации. Так что сегодня отдельно обращаем ваше внимание на вот этот вебинар про применение LLM в e-commerce: его проводят наши друзья из известной школы ШВМ.
На вебинаре разберут успешные и неудачные кейсы применения LLM, расскажут, какие модели реально работают и приносят бизнесу пользу, а также объяснят, какие важные задачи и почему пока не решены. Спикеры – огонь:
Такое точно не пропускаем. Регистрируйтесь здесь, встретимся 27 февраля в 19:00.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27👍17🦄7🤯2😁1👌1
Data Secrets
arXiv -> alphaXiv Такие пет-проекты мы любим: студенты Стэнфорда создали alphaXiv, открытый дискуссионный форум для статей arXiv. Достаточно просто изменить в URL-адресе arXiv на alphaXiv и вы сможете задавать вопросы и писать комментарии непосредственно…
This media is not supported in your browser
VIEW IN TELEGRAM
Помните, мы рассказывали про AlphaXiv?
Это проект Стэнфорда: аналог всем известного arxiv, но с возможность писать комментарии и обсуждать вопросы поверх любой статьи.
Так вот, проект живет и, оказывается, с недавнего времени туда завезли буквально Cursor для рисерчеров. В любой статье можно выделить кусочек текста и попросить модель (там крутится Gemini 2 Flash) объяснить его или ответить на какой-то вопрос.
Киллер-фича: через @ можно в своем вопросе сослаться на другую статью. Тогда она загрузится в контекст модели и можно будет, например, попросить ассистента сравнить результаты, бенчмарки, подходы и тд.
С таким читать статьи гораздо приятнее, сами попробуйте: alphaxiv.org/
Это проект Стэнфорда: аналог всем известного arxiv, но с возможность писать комментарии и обсуждать вопросы поверх любой статьи.
Так вот, проект живет и, оказывается, с недавнего времени туда завезли буквально Cursor для рисерчеров. В любой статье можно выделить кусочек текста и попросить модель (там крутится Gemini 2 Flash) объяснить его или ответить на какой-то вопрос.
Киллер-фича: через @ можно в своем вопросе сослаться на другую статью. Тогда она загрузится в контекст модели и можно будет, например, попросить ассистента сравнить результаты, бенчмарки, подходы и тд.
С таким читать статьи гораздо приятнее, сами попробуйте: alphaxiv.org/
🤯142🔥77👍29❤10🍾3
Между тем наконец вышел тех.отчет по Qwen2.5-VL
Сама модель вышла в конце января, и по бенчмаркам она соответствует таким моделям, как GPT-4o, Claude 3.5 Sonnet и DeepSeek v3. Особенно ее прокачали в понимании картинок, диаграмм и документов, и в вышедшем тех.отчете есть некоторые ответы на вопрос "как".
Итак, сама модель стоит на трех китах: LLM, визуальный энкодер и MLP-модуль для слияния.
🟦 С LLM ничего особенного, просто Qwen2.5, в которой RoPE эмбеддинги заменили на мультимодальный вариант MRoPE (Multimodal Rotary Position Embedding).
🟦 В качестве визуального энкодера крутят ViT. Тут две интересных детали. Во-первых, картинки не ресайзят: вместо этого энкодер работает с «нативным», то есть динамическим разрешением, и количество токенов на выходе зависит от исходного размера.
Во-вторых, сюда добавили Window Attention, и это помогает снизить сложность операций относительно ванильного селф-аттеншена, который используется традиционно. Кстати, при работе с видео кадры дополнительно группируются по два. В точности потерь почти нет, зато какое значительное облегчение по ресурсам.
🟦 MLP-модуль вставили для того, чтобы привести размерность визуальных признаков к размерности текстовых эмбеддингов. Тут работают два обычных линейных слоя.
И, конечно, исследователи сильно потрудились над данными. Датасет для претрейна огромный (4 триллиона токенов), и в нем и OCR, и межмодальные данные, и документ-парсинг, и локализация, и видео, и даже агентские сценарии (типа работы с интерфейсами компьютеров).
Само обучение били на три этапа: визуальное предобучение энкодера, полное мультимодальное предобучение и отдельно длинно-контекстное (благодаря как раз этому этапу у модели такое хорошее понимание документов). После шел файнтюнинг и DPO.
Статья полностью тут. Кстати, на днях обещают завести в Qwen 2.5 ризонинг.
Сама модель вышла в конце января, и по бенчмаркам она соответствует таким моделям, как GPT-4o, Claude 3.5 Sonnet и DeepSeek v3. Особенно ее прокачали в понимании картинок, диаграмм и документов, и в вышедшем тех.отчете есть некоторые ответы на вопрос "как".
Итак, сама модель стоит на трех китах: LLM, визуальный энкодер и MLP-модуль для слияния.
Во-вторых, сюда добавили Window Attention, и это помогает снизить сложность операций относительно ванильного селф-аттеншена, который используется традиционно. Кстати, при работе с видео кадры дополнительно группируются по два. В точности потерь почти нет, зато какое значительное облегчение по ресурсам.
И, конечно, исследователи сильно потрудились над данными. Датасет для претрейна огромный (4 триллиона токенов), и в нем и OCR, и межмодальные данные, и документ-парсинг, и локализация, и видео, и даже агентские сценарии (типа работы с интерфейсами компьютеров).
Само обучение били на три этапа: визуальное предобучение энкодера, полное мультимодальное предобучение и отдельно длинно-контекстное (благодаря как раз этому этапу у модели такое хорошее понимание документов). После шел файнтюнинг и DPO.
Статья полностью тут. Кстати, на днях обещают завести в Qwen 2.5 ризонинг.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍32🔥26