❗️Microsoft создала ИИ-ускоритель для запуска ИИ от OpenAI в облаке Azure, который должен быть намного дешевле, чем графические процессоры NVIDIA
Microsoft ожидает, что MAIA 100 будет менее мощным, чем NVIDIA H100, из-за меньшего объема HBM памяти, но при этом значительно более экономичным в плане затрат. Это важно в современном мире, где ограничения по энергопотреблению играют существенную роль.
https://tttttt.me/alwebbci/2497
Технические характеристики:
- Изготовлен по 5-нм техпроцессу TSMC
- 64 ГБ памяти HBM2E
- Большой кэш L1/L2 объемом 500 МБ
- Пропускная способность сети 12x 400 Гбит/с
- TDP 700 Вт (500 Вт при выводе в производстве)
Архитектура:
- 16 кластеров в каждом SoC
- Каждый кластер состоит из 4 тайлов
- Поддержка различных типов данных, включая 9-битные и 6-битные вычисления
Сетевое взаимодействие:
- Использует Ethernet-based interconnect
- Собственный RoCE-подобный протокол
Программное обеспечение:
- Maia SDK для разработки
- Поддержка программирования через Triton или Maia API
- Совместимость с моделями PyTorch
Инструменты:
- maia-smi (аналог nvidia-smi)
- Различные инструменты для оптимизации и мониторинга
Microsoft ожидает, что MAIA 100 будет менее мощным, чем NVIDIA H100, из-за меньшего объема HBM памяти, но при этом значительно более экономичным в плане затрат. Это важно в современном мире, где ограничения по энергопотреблению играют существенную роль.
https://tttttt.me/alwebbci/2497
Технические характеристики:
- Изготовлен по 5-нм техпроцессу TSMC
- 64 ГБ памяти HBM2E
- Большой кэш L1/L2 объемом 500 МБ
- Пропускная способность сети 12x 400 Гбит/с
- TDP 700 Вт (500 Вт при выводе в производстве)
Архитектура:
- 16 кластеров в каждом SoC
- Каждый кластер состоит из 4 тайлов
- Поддержка различных типов данных, включая 9-битные и 6-битные вычисления
Сетевое взаимодействие:
- Использует Ethernet-based interconnect
- Собственный RoCE-подобный протокол
Программное обеспечение:
- Maia SDK для разработки
- Поддержка программирования через Triton или Maia API
- Совместимость с моделями PyTorch
Инструменты:
- maia-smi (аналог nvidia-smi)
- Различные инструменты для оптимизации и мониторинга
Telegram
All about AI, Web 3.0, BCI
Microsoft details the MAIA 100, a custom #AI accelerator specifically for Azure running #OpenAI models - aiming to be a lot less expensive than #NVIDIA GPUs.
Ст.исследователь #NVIDIA: #DeepSeek доказал, что ИИ инфраструктура и базовые ИИ-модели станут товаром
Джим Фан,NVIDIA, говорит: «Нравится вам это или нет,
будущее ИИ - это его демократизация, каждый пользователь интернета сможет запускать продвинутые модели даже на слабых устройствах.
Это исторический тренд, против которого бессмысленно бороться».
О прорыве #DeepSeek:
1. #DeepSeek показала лучшие результаты в нескольких независимых тестах.
2. Особенно важно, что они достигли этого с гораздо меньшими вычислительными ресурсами.
#DeepSeek доказывает, что можно получить тот же уровень интеллекта при затратах в 10 раз меньше. Это означает, что с текущими вычислительными мощностями можно создать в 10 раз более мощный ИИ. Временная шкала развития ИИ сжимается.
Предложение Фана на 2025 год:
1. Прекратить распространение мифов об AGI/ASI
2. Прекратить нагнетание страха
3. Сосредоточиться на написании кода
4. Максимально поддерживать open source
5. Ускорение - единственный путь вперед
Все это сходится с нашим предыдущим постом.
Джим Фан,NVIDIA, говорит: «Нравится вам это или нет,
будущее ИИ - это его демократизация, каждый пользователь интернета сможет запускать продвинутые модели даже на слабых устройствах.
Это исторический тренд, против которого бессмысленно бороться».
О прорыве #DeepSeek:
1. #DeepSeek показала лучшие результаты в нескольких независимых тестах.
2. Особенно важно, что они достигли этого с гораздо меньшими вычислительными ресурсами.
#DeepSeek доказывает, что можно получить тот же уровень интеллекта при затратах в 10 раз меньше. Это означает, что с текущими вычислительными мощностями можно создать в 10 раз более мощный ИИ. Временная шкала развития ИИ сжимается.
Предложение Фана на 2025 год:
1. Прекратить распространение мифов об AGI/ASI
2. Прекратить нагнетание страха
3. Сосредоточиться на написании кода
4. Максимально поддерживать open source
5. Ускорение - единственный путь вперед
Все это сходится с нашим предыдущим постом.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Китайцы сделали 2 прорыва в ИИ-модели #DeepSeek-R1
Как пишут сами авторы, их текущие модели размером 7-70 млрд параметров даже близко не достигли своего максимума эффективности — и это без необходимости в новых данных для обучения.
"Мы даже близко не достигли…
Как пишут сами авторы, их текущие модели размером 7-70 млрд параметров даже близко не достигли своего максимума эффективности — и это без необходимости в новых данных для обучения.
"Мы даже близко не достигли…
Кому выгодно лидерство #DeepSeek? Какой ИТ-гигант помог ему и зачем?
В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.
Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.
Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.
Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.
Вот, на что мы обращаем внимание:
1. 2023: Первые намеки
Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.
В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.
2. 2024: Подготовка почвы.
ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI
Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал - открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?
- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет
Карты раскрываются (январь 2025).
DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей
Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.
На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.
Гениальная стратегия Meta:
1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.
Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.
*Запрещенная организация в России.
В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.
Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.
Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.
Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.
Вот, на что мы обращаем внимание:
1. 2023: Первые намеки
Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.
В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.
2. 2024: Подготовка почвы.
ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI
Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал - открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?
- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет
Карты раскрываются (январь 2025).
DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей
Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.
На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.
Гениальная стратегия Meta:
1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.
Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.
*Запрещенная организация в России.