Baidu ERNIE 5.0: новая версия в топе лидерборда
Baidu выкатила ERNIE-5.0-Preview и заняла #2 в LMArena. (на 1м месте 3 модели, 2е место делят 4 модели)
Модель содержит 2.4 триллиона параметров, работает с текстом, изображениями, аудио и видео.
Заточена под мультимодальность, логику, память и креативное письмо.
Параллельно анонсировали свои чипы Kunlun M100 (инференс, начало 2026) и M300 (тренировка и инференс сверхбольших моделей, начало 2027).
Попробовать можно тут:
https://ernie.baidu.com/
#ERNIE #Baidu #Kunlun #Китай
———
@tsingular
Baidu выкатила ERNIE-5.0-Preview и заняла #2 в LMArena. (на 1м месте 3 модели, 2е место делят 4 модели)
Модель содержит 2.4 триллиона параметров, работает с текстом, изображениями, аудио и видео.
Заточена под мультимодальность, логику, память и креативное письмо.
Параллельно анонсировали свои чипы Kunlun M100 (инференс, начало 2026) и M300 (тренировка и инференс сверхбольших моделей, начало 2027).
Попробовать можно тут:
https://ernie.baidu.com/
#ERNIE #Baidu #Kunlun #Китай
———
@tsingular
🔥8❤1
This media is not supported in your browser
VIEW IN TELEGRAM
UBTECH Walker S2
У китайских товарищей заказов уже под на $100 млн на этот год
Не спотыкаются.
- звук затвора.
- сегодня мы куда?
- ну не на завод же. бгг
#UBTECH #Walker #Китай
------
@tsingular
У китайских товарищей заказов уже под на $100 млн на этот год
Не спотыкаются.
- звук затвора.
- сегодня мы куда?
- ну не на завод же. бгг
#UBTECH #Walker #Китай
------
@tsingular
🔥20😁8👍6🍾1😈1
Forwarded from Data Secrets
ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
from google.colab import ai, и затем можете: – Просмотреть все доступные вам модели:ai.list_models()Сгенерировать что-нибудь:
–response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)
– Или стримить ответ:stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')
2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта. Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15✍4😁2
Forwarded from Data Secrets
Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию😍
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент🤠
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡8 7❤2✍2🔥2 2
В MIT научили LLM самостоятельно формулировать и запоминать новые знания
Исследователи из MIT создали метод SEAL, который позволяет языковым моделям постоянно обновлять свои веса и усваивать новую информацию.
Как у студента со шпаргалками: LLM генерирует несколько вариантов синтетических данных из входящего запроса, тестирует каждый и выбирает лучший через reinforcement learning. Потом запоминает его, обновляя внутренние параметры.
Цифры:
- +15% точность на вопросах-ответах
- +50% на задачах обучения навыкам
- маленькая модель обогнала GPT-4.1 (46.3% точность)
Модель сама выбирает скорость обучения и стратегию оптимизации. Проблема одна — catastrophic forgetting: усваивая новое, забывает старое.
Пока что работает в исследовательских условиях, но потенциал для самообучающихся агентов очевиден.
paper
Студент, который сам себе делает шпаргалки и сам решает, как их учить. Осталось научить не забывать экзамены прошлого семестра.
#SEAL #MIT #SelfAdapting #саморазвитие #эволюция
------
@tsingular
Исследователи из MIT создали метод SEAL, который позволяет языковым моделям постоянно обновлять свои веса и усваивать новую информацию.
Как у студента со шпаргалками: LLM генерирует несколько вариантов синтетических данных из входящего запроса, тестирует каждый и выбирает лучший через reinforcement learning. Потом запоминает его, обновляя внутренние параметры.
Цифры:
- +15% точность на вопросах-ответах
- +50% на задачах обучения навыкам
- маленькая модель обогнала GPT-4.1 (46.3% точность)
Модель сама выбирает скорость обучения и стратегию оптимизации. Проблема одна — catastrophic forgetting: усваивая новое, забывает старое.
Limitations
While SEAL enables lasting adaptation through self-generated weight updates, our continual learning experiment reveals that repeated self-edits can lead to catastrophic forgetting—performance on earlier tasks degrades as new updates are applied.
Пока что работает в исследовательских условиях, но потенциал для самообучающихся агентов очевиден.
paper
Студент, который сам себе делает шпаргалки и сам решает, как их учить. Осталось научить не забывать экзамены прошлого семестра.
#SEAL #MIT #SelfAdapting #саморазвитие #эволюция
------
@tsingular
⚡3🤯3😁2❤🔥1✍1👍1🤗1
Алгоритм определит успех вашей карьеры
Университет Пенсильвании обучил модель определять черты личности и прогнозы на карьеру по фотографиям из профилей LinkedIn выпускников MBA.
Прогнозирование успеха: Исследование показало, что личностные качества, определенные ИИ ("Photo Big 5"), способны предсказывать ряд ключевых карьерных показателей:
- Рейтинг бизнес-школы: Определенные черты личности коррелируют с вероятностью поступления в более престижные учебные заведения. Например, добросовестность положительно связана с рейтингом школы, а экстраверсия — отрицательно.
- Заработная плата: Личностные качества оказывают значительное влияние на начальную зарплату и ее рост. Для мужчин разница в зарплате между теми, кто находится в верхнем и нижнем квинтиле по "желательным" чертам, составляет 4,3%, что сопоставимо с расовым разрывом в оплате труда. Для женщин этот показатель еще выше — 4,7%.
- Должностной рост и текучесть кадров: Такие черты, как добросовестность и доброжелательность, снижают текучесть кадров, в то время как экстраверсия и нейротизм ее увеличивают.
Дополнительная ценность: "Photo Big 5" имеет лишь слабую корреляцию с традиционными когнитивными показателями (GPA, результаты тестов). Это означает, что ИИ-анализ личностных качеств дает дополнительную информацию, которую нельзя получить из академической успеваемости, и обладает самостоятельной прогностической силой.
Стабильность метода: Точность оценок личностных качеств остается высокой даже при сравнении фотографий из выпускных альбомов MBA и более поздних снимков из LinkedIn, сделанных в среднем на 8 лет позже.
Фраза "мордой не вышел" заиграла новыми красками.
Измерение черепа переизобрели, короче.
#FacialRecognition #Hiring
———
@tsingular
Университет Пенсильвании обучил модель определять черты личности и прогнозы на карьеру по фотографиям из профилей LinkedIn выпускников MBA.
Прогнозирование успеха: Исследование показало, что личностные качества, определенные ИИ ("Photo Big 5"), способны предсказывать ряд ключевых карьерных показателей:
- Рейтинг бизнес-школы: Определенные черты личности коррелируют с вероятностью поступления в более престижные учебные заведения. Например, добросовестность положительно связана с рейтингом школы, а экстраверсия — отрицательно.
- Заработная плата: Личностные качества оказывают значительное влияние на начальную зарплату и ее рост. Для мужчин разница в зарплате между теми, кто находится в верхнем и нижнем квинтиле по "желательным" чертам, составляет 4,3%, что сопоставимо с расовым разрывом в оплате труда. Для женщин этот показатель еще выше — 4,7%.
- Должностной рост и текучесть кадров: Такие черты, как добросовестность и доброжелательность, снижают текучесть кадров, в то время как экстраверсия и нейротизм ее увеличивают.
Дополнительная ценность: "Photo Big 5" имеет лишь слабую корреляцию с традиционными когнитивными показателями (GPA, результаты тестов). Это означает, что ИИ-анализ личностных качеств дает дополнительную информацию, которую нельзя получить из академической успеваемости, и обладает самостоятельной прогностической силой.
Стабильность метода: Точность оценок личностных качеств остается высокой даже при сравнении фотографий из выпускных альбомов MBA и более поздних снимков из LinkedIn, сделанных в среднем на 8 лет позже.
Фраза "мордой не вышел" заиграла новыми красками.
Измерение черепа переизобрели, короче.
#FacialRecognition #Hiring
———
@tsingular
😁13🔥6⚡5❤2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Android Dreams: сценарий роботизации к 2045 году
Исследователь из Tesla Optimus описал путь к полной автономии роботов.
По его прогнозу, к 2030 первые работы заменят людей в простых задачах вроде сортировки посылок обучившись на данных с экзоскелетов, телеоператоров и видео.
Гуманоиды станут универсальными после 2029, когда модели обучат на интернет-видео и дадут им адаптивную долгосрочную память.
Этапы развития робототехники:
- Рассвет (2023-2025): Первые успехи в телеуправлении роботами для выполнения узких задач, таких как сортировка посылок и складывание одежды.
- Вертикализация (2026-2030): Компании, подобные "Waytek", успешно коммерциализируют роботов для конкретных отраслей, используя модель "Роботы как услуга" (RaaS). Китай начинает доминировать в производстве дешевого оборудования.
- Эпоха Гуманоидов (2027-2032): Прорыв в обучении роботов на основе видеозаписей действий человека позволяет создавать более универсальных человекоподобных роботов. США пытаются догнать Китай в производстве ключевых компонентов, таких как приводы.
- Эпоха AGI (2031-2045): Решение проблемы долгосрочной памяти и предварительного обучения на видеоданных приводит к созданию Воплощенного Общего Искусственного Интеллекта (EGI). Роботы-гуманоиды начинают массово заменять людей в различных сферах, включая обслуживание, строительство и здравоохранение.
- Эпоха Сверхинтеллекта (2045+): Роботы становятся неотъемлемой частью общества, что приводит к фундаментальным изменениям в экономике, культуре и самом понятии человеческого существования. Возникают новые идеологии и образы жизни.
- Геополитическая конкуренция: Противостояние между США и Китаем станет центральным фактором в гонке за доминирование в области робототехники. Преимущество Китая заключается в его производственных мощностях и государственной поддержке, в то время как США лидируют в разработке программного обеспечения для ИИ.
- Социально-экономические последствия: Автоматизация приведет к массовой безработице и росту социального неравенства. Это вызовет общественные движения, требующие введения безусловного базового дохода (ББД) и высоких налогов для компаний, использующих роботов.
- Технологические прорывы: Ключевыми технологиями, которые обеспечат прорыв, станут обучение на основе видео (learning from human video), модели мира (world models), позволяющие симулировать реальность для обучения ИИ, и решение проблемы долгосрочной памяти у ИИ.
- Философские вопросы: Статья завершается размышлениями о будущем человечества в эпоху сверхинтеллекта, затрагивая вопросы смысла жизни, возможности слияния человека с машиной и колонизации космоса.
Читаем, изучаем тут:
https://android-dreams.ai/
Термины EGI/ESI записываем в отдельный блокнотик
#роботы #Tesla #future #AGI #ASI #сингулярность
------
@tsingular
Исследователь из Tesla Optimus описал путь к полной автономии роботов.
По его прогнозу, к 2030 первые работы заменят людей в простых задачах вроде сортировки посылок обучившись на данных с экзоскелетов, телеоператоров и видео.
Гуманоиды станут универсальными после 2029, когда модели обучат на интернет-видео и дадут им адаптивную долгосрочную память.
Этапы развития робототехники:
- Рассвет (2023-2025): Первые успехи в телеуправлении роботами для выполнения узких задач, таких как сортировка посылок и складывание одежды.
- Вертикализация (2026-2030): Компании, подобные "Waytek", успешно коммерциализируют роботов для конкретных отраслей, используя модель "Роботы как услуга" (RaaS). Китай начинает доминировать в производстве дешевого оборудования.
- Эпоха Гуманоидов (2027-2032): Прорыв в обучении роботов на основе видеозаписей действий человека позволяет создавать более универсальных человекоподобных роботов. США пытаются догнать Китай в производстве ключевых компонентов, таких как приводы.
- Эпоха AGI (2031-2045): Решение проблемы долгосрочной памяти и предварительного обучения на видеоданных приводит к созданию Воплощенного Общего Искусственного Интеллекта (EGI). Роботы-гуманоиды начинают массово заменять людей в различных сферах, включая обслуживание, строительство и здравоохранение.
- Эпоха Сверхинтеллекта (2045+): Роботы становятся неотъемлемой частью общества, что приводит к фундаментальным изменениям в экономике, культуре и самом понятии человеческого существования. Возникают новые идеологии и образы жизни.
- Геополитическая конкуренция: Противостояние между США и Китаем станет центральным фактором в гонке за доминирование в области робототехники. Преимущество Китая заключается в его производственных мощностях и государственной поддержке, в то время как США лидируют в разработке программного обеспечения для ИИ.
- Социально-экономические последствия: Автоматизация приведет к массовой безработице и росту социального неравенства. Это вызовет общественные движения, требующие введения безусловного базового дохода (ББД) и высоких налогов для компаний, использующих роботов.
- Технологические прорывы: Ключевыми технологиями, которые обеспечат прорыв, станут обучение на основе видео (learning from human video), модели мира (world models), позволяющие симулировать реальность для обучения ИИ, и решение проблемы долгосрочной памяти у ИИ.
- Философские вопросы: Статья завершается размышлениями о будущем человечества в эпоху сверхинтеллекта, затрагивая вопросы смысла жизни, возможности слияния человека с машиной и колонизации космоса.
Читаем, изучаем тут:
https://android-dreams.ai/
Термины EGI/ESI записываем в отдельный блокнотик
#роботы #Tesla #future #AGI #ASI #сингулярность
------
@tsingular
👍9⚡3🔥3🤔2🤨2❤1😭1
MCP Shark: Wireshark для MCP
Наткнулся на интересный инструмент MCP Shark - создан для мониторинга коммуникаций между IDE и серверами по Model Context Protocol.
Работает как прокси, - перехватывает весь трафик и отображает его в веб-интерфейсе.
Возможности:
- Захват всех запросов и ответов в реальном времени
- Фильтрация и группировка по сессиям и серверам
- Логирование в SQLite
- Автоопределение конфигов IDE с резервным копированием
Если пилите свои MCP, - может пригодится.
Опять же интересный сценарий завернуть логи с шарка обратно в агента-разработчика для отладки тех же MCP.
#MCP #Wireshark #dev
———
@tsingular
Наткнулся на интересный инструмент MCP Shark - создан для мониторинга коммуникаций между IDE и серверами по Model Context Protocol.
Работает как прокси, - перехватывает весь трафик и отображает его в веб-интерфейсе.
Возможности:
- Захват всех запросов и ответов в реальном времени
- Фильтрация и группировка по сессиям и серверам
- Логирование в SQLite
- Автоопределение конфигов IDE с резервным копированием
Если пилите свои MCP, - может пригодится.
Опять же интересный сценарий завернуть логи с шарка обратно в агента-разработчика для отладки тех же MCP.
#MCP #Wireshark #dev
———
@tsingular
✍4🆒3❤1⚡1👍1
Media is too big
VIEW IN TELEGRAM
WAN-2.5-Preview: Избранные демки из анонса
Alibaba запустили WAN-2.5-preview, - новую модель для генерации видеороликов со звуком по текстовым запросам.
Модель невероятно точно ведёт звук и картинку.
Обратите внимание на ролик с шариком от пинг-понга.
Акробатика не рассыпается, несколько персонажей в кадре тоже на ведут себя естественно и звук не прыгает с персонажа к персонажу.
Ждем оупенсорс.
#Alibaba #Wan
———
@tsingular
Alibaba запустили WAN-2.5-preview, - новую модель для генерации видеороликов со звуком по текстовым запросам.
Модель невероятно точно ведёт звук и картинку.
Обратите внимание на ролик с шариком от пинг-понга.
Акробатика не рассыпается, несколько персонажей в кадре тоже на ведут себя естественно и звук не прыгает с персонажа к персонажу.
Ждем оупенсорс.
#Alibaba #Wan
———
@tsingular
🔥6⚡2👍1
MADD: российская мультиагентная система для поиска лекарств
Российская сборная команда ITMO и Sber AI Lab представила MADD — мультиагентную систему, которая автоматом собирает пайплайн для виртуального скрининга молекул.
Вводишь запрос на естественном языке (например, "ингибиторы GSK-3beta с низкой проницаемостью через гематоэнцефалический барьер"), система тянет данные из ChEMBL, тренирует модели, генерирует кандидатов и возвращает лучшие.
Показала превосходство над ChemAgent и LlasMol на семи кейсах — от болезни Альцгеймера до ингибиторов тромбоксана.
GitHub
Paper
Изобретение новых лекарств ускорилось
#MADD #DrugDiscovery #ChEMBL #ITMO #SberAILab
———
@tsingular
Российская сборная команда ITMO и Sber AI Lab представила MADD — мультиагентную систему, которая автоматом собирает пайплайн для виртуального скрининга молекул.
Вводишь запрос на естественном языке (например, "ингибиторы GSK-3beta с низкой проницаемостью через гематоэнцефалический барьер"), система тянет данные из ChEMBL, тренирует модели, генерирует кандидатов и возвращает лучшие.
Показала превосходство над ChemAgent и LlasMol на семи кейсах — от болезни Альцгеймера до ингибиторов тромбоксана.
GitHub
Paper
Изобретение новых лекарств ускорилось
#MADD #DrugDiscovery #ChEMBL #ITMO #SberAILab
———
@tsingular
👍13🔥5👏2
Memgraph GraphRAG: граф-база для ИИ-приложений
Наткнулся на графовую opensource базу под ИИ RAGи - Memgraph позиционирует себя как основу для GraphRAG-приложений с миллионами узлов и расчётами в реальном времени.
Новая функция векторного поиска объединяет семантическую близость с графовым обходом. Алгоритмы Community Detection (Louvain, Leiden), PageRank и траверсы помогают ИИ отвечать на основе структурированных связей.
GraphChat переводит вопросы на естественном языке в Cypher-запросы и возвращает ответ. Есть интеграция с LangChain и LlamaIndex.
Reasoning Graph автоматически выбирает метод поиска — векторный, графовый или многоступенчатый — анализируя запрос и структуру данных.
Векторный поиск выигрывает на простых запросах (F1 ~72%), а графовый — на сложных (F1 ~67%).
Как альтернатива Neo4J.
#Memgraph #GraphRAG #Cypher
———
@tsingular
Наткнулся на графовую opensource базу под ИИ RAGи - Memgraph позиционирует себя как основу для GraphRAG-приложений с миллионами узлов и расчётами в реальном времени.
Новая функция векторного поиска объединяет семантическую близость с графовым обходом. Алгоритмы Community Detection (Louvain, Leiden), PageRank и траверсы помогают ИИ отвечать на основе структурированных связей.
GraphChat переводит вопросы на естественном языке в Cypher-запросы и возвращает ответ. Есть интеграция с LangChain и LlamaIndex.
Reasoning Graph автоматически выбирает метод поиска — векторный, графовый или многоступенчатый — анализируя запрос и структуру данных.
Векторный поиск выигрывает на простых запросах (F1 ~72%), а графовый — на сложных (F1 ~67%).
Как альтернатива Neo4J.
#Memgraph #GraphRAG #Cypher
———
@tsingular
2👍8❤2✍1🆒1
Forwarded from Силиконовый Мешок
This media is not supported in your browser
VIEW IN TELEGRAM
Офигенная визуализация работы нейросетей, можно наглядно посмотреть, как входные данные проходят через слои, как активируются нейроны и как формируется предсказание.
Я уже хотел сам что-то подобное навайбкодить, чтобы детям (и взрослым) объяснять на пальцах, как все работает. А тут наткнулся на готовое решение. Ссылка на GitHub и на сайт с веб-версией.
Я уже хотел сам что-то подобное навайбкодить, чтобы детям (и взрослым) объяснять на пальцах, как все работает. А тут наткнулся на готовое решение. Ссылка на GitHub и на сайт с веб-версией.
🔥25🤯5👍3 3❤🔥2❤2🤩1🆒1 1
Загнал Манус в телегу :)
удобно, в принципе.
из полезного - сделал инструментик - delayTimer - ИИшка сама ставит процесс на паузу пока Манус шуршит
#Manus #dev
———
@tsingular
удобно, в принципе.
из полезного - сделал инструментик - delayTimer - ИИшка сама ставит процесс на паузу пока Манус шуршит
#Manus #dev
———
@tsingular
🔥9👍6⚡4🤔2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Реальная запись или нейрорендер, как думаете?
Пишут, что компания MindOn загрузила в Unitree G1 свой софт и они резко поумнели и вытворяют вот это все в соло без телеоператора-индуса.
Врут, наверное...
#MindOn #Unitree
------
@tsingular
Пишут, что компания MindOn загрузила в Unitree G1 свой софт и они резко поумнели и вытворяют вот это все в соло без телеоператора-индуса.
Врут, наверное...
#MindOn #Unitree
------
@tsingular
Media is too big
VIEW IN TELEGRAM
Вот конкретно этот момент если кто пропустил,- рекомендую.
Мороз по коже, как впервые Звездные Войны 1й эпизод момент высадки роботов дроидов на Наубу смотришь.
Ну и особенно забавно, что продвигается это все под заголовком, - роботы для заводов.
#UBTECH #Walker #роботы
------
@tsingular
Мороз по коже, как впервые Звездные Войны 1й эпизод момент высадки роботов дроидов на Наубу смотришь.
Ну и особенно забавно, что продвигается это все под заголовком, - роботы для заводов.
#UBTECH #Walker #роботы
------
@tsingular
🔥62 43💯8👾5🤣2❤1
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, если вы не запускали нейронки дома, то наверное не знаете что они мило урчат когда их запускаешь – причем на Apple Mac M-серии тоже, это называется:
Вот тут детальнее
ASMR для тех-нердов звучит так💻
Coil whine - слышимый писк/жужжание, которое возникает из‑за микровибраций дросселей (катушек индуктивности) и иногда керамических конденсаторов в цепях питания GPU. Во время инференса LLM нагрузка на графический процессор пульсирует (батчи, токены, синхронизации), что модулирует токи в многофазном преобразователе (VRM) и «переносит» часть высокочастотной коммутации в слышимый диапазон. Явление безвредно для железа, но может быть заметно на слух; снижать можно сглаживанием нагрузки, ограничением мощности/частот и акустической развязкой.
Вот тут детальнее
ASMR для тех-нердов звучит так
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍13❤3🔥3😁2❤🔥1
Forwarded from КПД
На этой неделе ребята из команды YandexGPT совместно c ШАДом (Школа анализа данных) провели интенсив по работе с LLM, где были затронуты вопросы обучения, инференса, и коммуникаций.
Материал довольно подробный и интересный, но требует определенной базы для вхождения.
В общем, рекомендую к просмотру всем интересующимся и желающим освежить знания.
Лекция 1: https://youtube.com/live/JMUWSdSD1Uk
Лекция 2: https://youtube.com/live/IAeAKcdMtsw
Лекция 3: https://youtube.com/live/BYiFv5PoMBw
Лекция 3.1: https://youtube.com/live/-52RgKQENl0
Лекция 4: https://youtube.com/live/VXI41kyQTPs
Лекция 5: https://youtube.com/live/AHMJICS2JQ0
Лекция 5.1: https://www.youtube.com/live/3v43mnx31OQ
Материал довольно подробный и интересный, но требует определенной базы для вхождения.
В общем, рекомендую к просмотру всем интересующимся и желающим освежить знания.
Лекция 1: https://youtube.com/live/JMUWSdSD1Uk
Лекция 2: https://youtube.com/live/IAeAKcdMtsw
Лекция 3: https://youtube.com/live/BYiFv5PoMBw
Лекция 3.1: https://youtube.com/live/-52RgKQENl0
Лекция 4: https://youtube.com/live/VXI41kyQTPs
Лекция 5: https://youtube.com/live/AHMJICS2JQ0
Лекция 5.1: https://www.youtube.com/live/3v43mnx31OQ
YouTube
LLM Scaling Week 2025 | Лекция 1. Арифметика глубокого обучения
Спикер: Михаил Хрущев, руководитель группы претрейна YandexGPT.
На лекции поговорим про эффективное обучение больших DL-моделей. Мы ответим на вопросы:
- Что мешает загрузить GPU в кластере на 100%?
- Как устроена логистика данных внутри GPU, хоста и кластера?…
На лекции поговорим про эффективное обучение больших DL-моделей. Мы ответим на вопросы:
- Что мешает загрузить GPU в кластере на 100%?
- Как устроена логистика данных внутри GPU, хоста и кластера?…
👍8🔥6⚡5❤4
Промпт:
Как выйдет 2я нанобанана надо будет сравнить :)
#нанобанана #юмор
———
@tsingular
перерисуй монстров так, как если бы они были обычными людьми без экипировки, кого просто можно встретить в офисе или на улице.
максимально сохрани похожесть
Как выйдет 2я нанобанана надо будет сравнить :)
#нанобанана #юмор
———
@tsingular
😁18⚡10🔥5