Media is too big
VIEW IN TELEGRAM
ИИ вебинар a la дичь
Если вдруг вас накроет когда-нибудь синдром самозванца, - посмотрите этот ролик.
Такие тоже продаются :)
Товарищи переизобрели Гербалайф, если кто помнит этот MLM трэш.
Полная версия на Youtube
Спасибо @Sprut_AI за настроение :)
#дичь #вебинары #юмор #MLM
———
@tsingular
Если вдруг вас накроет когда-нибудь синдром самозванца, - посмотрите этот ролик.
Такие тоже продаются :)
Товарищи переизобрели Гербалайф, если кто помнит этот MLM трэш.
Полная версия на Youtube
Спасибо @Sprut_AI за настроение :)
#дичь #вебинары #юмор #MLM
———
@tsingular
exo: релиз 1.0 рвёт шаблоны
Проект exo, о котором за эти пол-года уже все успели забыть, выпустил версию 1.0 и она наконец-то работает так, как и было задумано, - чем больше устройств в сети,- тем выше скорость инференса.
Раньше обработка велась последовательно и это приводило к тому, что чем больше машин в цепочке, тем ниже была итоговая скорость.
Теперь же модели режутся послойно, на каждую отгружается свой набор слоев и в итоге, - чем больше машин в кластере, тем выше скоростью. Шардинг рулит.
Один момент, - для MoE это работает не так эффективно, - прирост скорости около 15%, но зато для dense моделей, - прирост в разы, - в 3 раза на кластере из 4х машин.
Если кто не слышал про exo раньше, - этот фреймворк позволяет автоматически находить устройства в сети, делит модель на части по доступной памяти каждого гаджета и запускает через OpenAI-совместимый API.
Еще одна новая фишка, - поддержка RDMA через Thunderbolt 5, - это позволяет снизить задержки с 300 до 50 микросекунд.
Очень годный обзор с примерами на Youtube по запуску всего что можно на 4х M3 Ultra 512Gb
#exo #RDMA #Thunderbolt
———
@tsingular
Проект exo, о котором за эти пол-года уже все успели забыть, выпустил версию 1.0 и она наконец-то работает так, как и было задумано, - чем больше устройств в сети,- тем выше скорость инференса.
Раньше обработка велась последовательно и это приводило к тому, что чем больше машин в цепочке, тем ниже была итоговая скорость.
Теперь же модели режутся послойно, на каждую отгружается свой набор слоев и в итоге, - чем больше машин в кластере, тем выше скоростью. Шардинг рулит.
Один момент, - для MoE это работает не так эффективно, - прирост скорости около 15%, но зато для dense моделей, - прирост в разы, - в 3 раза на кластере из 4х машин.
Если кто не слышал про exo раньше, - этот фреймворк позволяет автоматически находить устройства в сети, делит модель на части по доступной памяти каждого гаджета и запускает через OpenAI-совместимый API.
Еще одна новая фишка, - поддержка RDMA через Thunderbolt 5, - это позволяет снизить задержки с 300 до 50 микросекунд.
Очень годный обзор с примерами на Youtube по запуску всего что можно на 4х M3 Ultra 512Gb
#exo #RDMA #Thunderbolt
———
@tsingular
🔥11🎉2🏆2❤1
Роботакси Waymo заблокировали дороги после блэкаута в Сан-Франциско
В пятницу 130 тысяч человек в Сан-Франциско остались без света из-за пожара на подстанции. Вместе со светом пропали светофоры и сотовая связь.
Waymo полностью приостановила сервис — машины встали посреди перекрёстков и блокировали движение часами.
Проблема в архитектуре: без светофоров автопилот не может подтвердить состояние перекрёстка и просто стопорится.
Плюс сотовая сеть упала до 6 Мбит/с, операторы не могли дистанционно управлять застрявшими тачками.
Вместо манёвра «припаркуйся на обочине» сработал протокол «замри где стоишь».
Технически это минимальное условие риска, но на практике,- пробка.
Получается, что полностью автономные машины работают только пока работает всё остальное. Без электричества они не просто перестают работать сами, но еще и вызывают проблемы у окружающих.
- "Ваша империя разрушения и тьмы рушится из-за одной вишенки"
Пятый Элемент
UPD: сервис восстановили
#Waymo #Robotaxi #Blackout
———
@tsingular
В пятницу 130 тысяч человек в Сан-Франциско остались без света из-за пожара на подстанции. Вместе со светом пропали светофоры и сотовая связь.
Waymo полностью приостановила сервис — машины встали посреди перекрёстков и блокировали движение часами.
Проблема в архитектуре: без светофоров автопилот не может подтвердить состояние перекрёстка и просто стопорится.
Плюс сотовая сеть упала до 6 Мбит/с, операторы не могли дистанционно управлять застрявшими тачками.
Вместо манёвра «припаркуйся на обочине» сработал протокол «замри где стоишь».
Технически это минимальное условие риска, но на практике,- пробка.
Получается, что полностью автономные машины работают только пока работает всё остальное. Без электричества они не просто перестают работать сами, но еще и вызывают проблемы у окружающих.
- "Ваша империя разрушения и тьмы рушится из-за одной вишенки"
Пятый Элемент
UPD: сервис восстановили
#Waymo #Robotaxi #Blackout
———
@tsingular
💯71😁15 12❤9👍4👾3⚡1🤯1
Nvidia съест весь NAND после DRAM
Nvidia договорилась с SK Hynix и Kioxia о разработке «ИИ-накопителей» с 100 млн IOPS к 2027 году.
Проблема в том, что GPU упираются в объём HBM-памяти, а серверная DRAM стала слишком дорогой из-за ИИ-бума.
Решение нашли в новой технологии - High Bandwidth Flash на базе SSD, но с дикой скоростью.
Нюанс: такие накопители работают на блоках по 512 байт вместо стандартных 4 КБ.
Для 100 млн IOPS через PCIe 7.0 нужны сотни флэш-чипов в одном корпусе — физически это граница возможного.
Хуже другое: если ИИ-дата-центры начнут жрать NAND так же, как сожрали DRAM, цены на обычные SSD взлетят.
Потребительский рынок накопителей рискует повторить судьбу оперативки — стать заложником ИИ-гонки.
Прототип SK Hynix обещают к концу 2026-го.
Сначала видеокарты не купить, потом память, теперь вот и SSD станут золотыми.
ИИ отбирает электричество, воду на охлаждение и компьютерные компоненты один за другим.
Интересно в какой момент придётся дёрнуть стоп-кран?
#Nvidia #NAND #SKHynix
———
@tsingular
Nvidia договорилась с SK Hynix и Kioxia о разработке «ИИ-накопителей» с 100 млн IOPS к 2027 году.
Проблема в том, что GPU упираются в объём HBM-памяти, а серверная DRAM стала слишком дорогой из-за ИИ-бума.
Решение нашли в новой технологии - High Bandwidth Flash на базе SSD, но с дикой скоростью.
Нюанс: такие накопители работают на блоках по 512 байт вместо стандартных 4 КБ.
Для 100 млн IOPS через PCIe 7.0 нужны сотни флэш-чипов в одном корпусе — физически это граница возможного.
Хуже другое: если ИИ-дата-центры начнут жрать NAND так же, как сожрали DRAM, цены на обычные SSD взлетят.
Потребительский рынок накопителей рискует повторить судьбу оперативки — стать заложником ИИ-гонки.
Прототип SK Hynix обещают к концу 2026-го.
Сначала видеокарты не купить, потом память, теперь вот и SSD станут золотыми.
ИИ отбирает электричество, воду на охлаждение и компьютерные компоненты один за другим.
Интересно в какой момент придётся дёрнуть стоп-кран?
#Nvidia #NAND #SKHynix
———
@tsingular
⚡13😁6❤3👍1
AWS обещает миллиарды агентов в каждой компании
На конференции Re:Invent глава AWS Мэтт Гарман нарисовал картину будущего с миллиардами автономных агентов в каждой организации.
Так же показали новые чипы Trainium 3 (4.4x производительность, 362 FP8 PFLOPs на сервер) и модели Nova - от Lite до Omni.
Trainium 3 жрёт киловатт на чип, требует жидкостное охлаждение.
Масштабирование до миллиардов агентов на каждую компанию упрется в энергию, охлаждение и пропускную способность.
Интересно как будут решать?!
Ну и отдельно интересно как для миллиардов агентов в корпорации построить целеполагание, тестирование, контроль доступа и безопасность.
Надо менять парадигму,- от ИИ ассистентов к рою.
#AWS #Trainium #NovaAct
———
@tsingular
На конференции Re:Invent глава AWS Мэтт Гарман нарисовал картину будущего с миллиардами автономных агентов в каждой организации.
Так же показали новые чипы Trainium 3 (4.4x производительность, 362 FP8 PFLOPs на сервер) и модели Nova - от Lite до Omni.
Trainium 3 жрёт киловатт на чип, требует жидкостное охлаждение.
Масштабирование до миллиардов агентов на каждую компанию упрется в энергию, охлаждение и пропускную способность.
Интересно как будут решать?!
Ну и отдельно интересно как для миллиардов агентов в корпорации построить целеполагание, тестирование, контроль доступа и безопасность.
Надо менять парадигму,- от ИИ ассистентов к рою.
#AWS #Trainium #NovaAct
———
@tsingular
🤔7🔥4❤3⚡1✍1
Хорошо подмечено
Я бы еще добавил, - голосовые генераторы не имели столько эмоциональных оттенков и музыку можно было использовать разве что для приколов.
В этом году и голос и музыка "прошли тест Тьюринга"
А, и ClaudeCode еще не существовал, кстати, как и OpenAI Codex :)
Так что да, - даже если в 2026м прогресс в ИИ будет линейным, а не экспоненциальным (каким он на самом деле должен быть с учётом закона ускоряющейся отдачи), - нас ждёт удивительный год.
#futurology
———
@tsingular
1 декабря прошлого года не было ни одной хорошей модели Gemini (у нас был уровень 1,5), ни одной модели для обработки изображений, которая бы правильно обрабатывала текст, ни одной хорошей модели для видео, не было Deepseek R1, o1 только что выпустила функцию вывода результатов во время тестирования, FrontierMath показала 2%, а не 41%, никто не достиг 10% в HLE... Просто чтобы вы могли планировать на 2026 год.
Я бы еще добавил, - голосовые генераторы не имели столько эмоциональных оттенков и музыку можно было использовать разве что для приколов.
В этом году и голос и музыка "прошли тест Тьюринга"
А, и ClaudeCode еще не существовал, кстати, как и OpenAI Codex :)
Так что да, - даже если в 2026м прогресс в ИИ будет линейным, а не экспоненциальным (каким он на самом деле должен быть с учётом закона ускоряющейся отдачи), - нас ждёт удивительный год.
#futurology
———
@tsingular
✍21🤔8🔥4❤2⚡1🏆1🍾1
PackEat: крупнейший датасет для умных касс из России
Яндекс, Сколтех и ГУАП выпустили PackEat — открытый набор из 100 тысяч снимков фруктов и овощей для обучения систем компьютерного зрения в ритейле.
Датасет покрывает 34 вида и 65 сортов продуктов, снятых в реальных магазинах разных городов с пакетами, перекрытиями и фоновым шумом.
9 тысяч изображений размечены попредметно с указанием количества и общего веса упаковки.
Точность нейросетей, обученных на этих данных, может достигать 92%, что должно помочь ритейлерам сократить убытки от ручной идентификации весового товара.
Статья с описанием датасета опубликована в Scientific Data,
сам датасет - на Zenodo,
код и примеры моделей - на Kaggle
#PackEat #Retail #ComputerVision
———
@tsingular
Яндекс, Сколтех и ГУАП выпустили PackEat — открытый набор из 100 тысяч снимков фруктов и овощей для обучения систем компьютерного зрения в ритейле.
Датасет покрывает 34 вида и 65 сортов продуктов, снятых в реальных магазинах разных городов с пакетами, перекрытиями и фоновым шумом.
9 тысяч изображений размечены попредметно с указанием количества и общего веса упаковки.
Точность нейросетей, обученных на этих данных, может достигать 92%, что должно помочь ритейлерам сократить убытки от ручной идентификации весового товара.
Статья с описанием датасета опубликована в Scientific Data,
сам датасет - на Zenodo,
код и примеры моделей - на Kaggle
#PackEat #Retail #ComputerVision
———
@tsingular
🔥11👏3❤1⚡1✍1
GPU-кредиты: как видеокарты превратились в ипотечные бумаги
Nvidia обвиняют в схематозе: её чипы теперь не просто товар, а залог для кредитов на миллиарды.
Nvidia вложила деньги в 70+ компаний сферы ИИ, включая необлака вроде CoreWeave.
Те берут кредиты под залог GPU, покупают еще больше чипов Nvidia — $1 инвестиций превращается в $5 закупок.
Ловушка в том, что из-за ускоряющегося прогресса GPU устаревают слишком быстро.
Кредит брали по старой цене под условие, что карты спишутся за 6 лет, а в реальности уже через 3 года они теряют актуальность.
Хуанг прямо говорит: когда выйдет Blackwell, Hopper никому не нужны.
CoreWeave, как пример:
История CoreWeave — квинтэссенция бизнес-модели, которую критики называют «circular financing». IPO компании 28 марта 2025 года стало первым тревожным сигналом: ожидаемый диапазон $47-55 за акцию сжался до итоговых $40, размещение собрало лишь $1,5 млрд вместо планируемых $2,7 млрд.
Ключевой деталью стало то, что Nvidia разместила якорный заказ на $250 млн по минимальной цене размещения.
Структура взаимоотношений Nvidia и CoreWeave выглядит таким образом, что Nvidia инвестирует в CoreWeave (владея ~7% акций на ~$1,6 млрд), а CoreWeave использует привлечённые средства для покупки GPU у Nvidia (минимум 250 000 чипов на ~$7,5 млрд).
Одновременно Nvidia выступает гарантом последней инстанции через backstop agreement на $6,3 млрд до апреля 2032 года — если CoreWeave не сможет продать облачные мощности сторонним клиентам, Nvidia обязуется их выкупить
И таких сделок NVidia за последние годы провела много.
G42, ByteDance, Colossus xAI, Mistral, Stargate, Oracle, - везде строительство датацентров с GPU идет по похожей схеме.
Похожим образом накачивался спрос на Интернет в начале 2000х и закончилось это крахом доткомов:
2000: Cisco = 70-80% сетевого рынка. "Трафик удваивается каждые 100 дней!" P/E = 175. Потом минус 80%.
25 лет ушло чтобы вернуться на тот же уровень. (при этом Интернет, таки вырос, надо заметить :) )
А сегодня:
2025: Nvidia = 90% AI-чипов. "Спрос на AI безграничен!" P/E = 42.
Улыбаемся и машем, короче.
Хочется верить, что в этот раз история пойдёт другим путём.
Ещё роботов надувать даже не начали толком :)
#Nvidia #CoreWeave #Cisco #AIdotcom
———
@tsingular
Nvidia обвиняют в схематозе: её чипы теперь не просто товар, а залог для кредитов на миллиарды.
Nvidia вложила деньги в 70+ компаний сферы ИИ, включая необлака вроде CoreWeave.
Те берут кредиты под залог GPU, покупают еще больше чипов Nvidia — $1 инвестиций превращается в $5 закупок.
Ловушка в том, что из-за ускоряющегося прогресса GPU устаревают слишком быстро.
Кредит брали по старой цене под условие, что карты спишутся за 6 лет, а в реальности уже через 3 года они теряют актуальность.
Хуанг прямо говорит: когда выйдет Blackwell, Hopper никому не нужны.
CoreWeave, как пример:
История CoreWeave — квинтэссенция бизнес-модели, которую критики называют «circular financing». IPO компании 28 марта 2025 года стало первым тревожным сигналом: ожидаемый диапазон $47-55 за акцию сжался до итоговых $40, размещение собрало лишь $1,5 млрд вместо планируемых $2,7 млрд.
Ключевой деталью стало то, что Nvidia разместила якорный заказ на $250 млн по минимальной цене размещения.
Структура взаимоотношений Nvidia и CoreWeave выглядит таким образом, что Nvidia инвестирует в CoreWeave (владея ~7% акций на ~$1,6 млрд), а CoreWeave использует привлечённые средства для покупки GPU у Nvidia (минимум 250 000 чипов на ~$7,5 млрд).
Одновременно Nvidia выступает гарантом последней инстанции через backstop agreement на $6,3 млрд до апреля 2032 года — если CoreWeave не сможет продать облачные мощности сторонним клиентам, Nvidia обязуется их выкупить
И таких сделок NVidia за последние годы провела много.
G42, ByteDance, Colossus xAI, Mistral, Stargate, Oracle, - везде строительство датацентров с GPU идет по похожей схеме.
Похожим образом накачивался спрос на Интернет в начале 2000х и закончилось это крахом доткомов:
2000: Cisco = 70-80% сетевого рынка. "Трафик удваивается каждые 100 дней!" P/E = 175. Потом минус 80%.
25 лет ушло чтобы вернуться на тот же уровень. (при этом Интернет, таки вырос, надо заметить :) )
А сегодня:
2025: Nvidia = 90% AI-чипов. "Спрос на AI безграничен!" P/E = 42.
Улыбаемся и машем, короче.
Хочется верить, что в этот раз история пойдёт другим путём.
Ещё роботов надувать даже не начали толком :)
#Nvidia #CoreWeave #Cisco #AIdotcom
———
@tsingular
👍9😁8🔥4❤1
GLM обновили до версии 4.7
Команда Z.ai выкатила GLM-4.7 — MoE модель на 358B, заточенную под агентное кодирование и рассуждения.
Рост метрик: 73.8% на SWE-bench (+5.8% к предыдущей версии), 66.7% на SWE-bench Multilingual (+12.9%), 41% на Terminal Bench 2.0 (+16.5%).
Гораздо лучше пишет код, дизайн веб страниц и презентаций.
Точнее управляется с инструментами, в том числе, как оператор браузера.
За счёт улучшенного режима рассуждений выбивает 42.8% в HLE!
Ключевая фишка — Preserved Thinking: модель сохраняет все блоки рассуждений между запросами, не теряя контекст в длинных диалогах.
Работает через vLLM и SGLang.
Полный размер 700Gb+
Так же доступна по API и напрямую на платформе:
https://chat.z.ai/
Короче, если у вас есть 750 Гигов на GPU,- сможете получить практически аналог GPT 5.2 или Gemini 3 Pro или Opus 4.5 у себя дома.
Или 380 если в 8битной нарезке.
#GLM #ZAI #Китай
------
@tsingular
Команда Z.ai выкатила GLM-4.7 — MoE модель на 358B, заточенную под агентное кодирование и рассуждения.
Рост метрик: 73.8% на SWE-bench (+5.8% к предыдущей версии), 66.7% на SWE-bench Multilingual (+12.9%), 41% на Terminal Bench 2.0 (+16.5%).
Гораздо лучше пишет код, дизайн веб страниц и презентаций.
Точнее управляется с инструментами, в том числе, как оператор браузера.
За счёт улучшенного режима рассуждений выбивает 42.8% в HLE!
Ключевая фишка — Preserved Thinking: модель сохраняет все блоки рассуждений между запросами, не теряя контекст в длинных диалогах.
Работает через vLLM и SGLang.
Полный размер 700Gb+
Так же доступна по API и напрямую на платформе:
https://chat.z.ai/
Короче, если у вас есть 750 Гигов на GPU,- сможете получить практически аналог GPT 5.2 или Gemini 3 Pro или Opus 4.5 у себя дома.
Или 380 если в 8битной нарезке.
#GLM #ZAI #Китай
------
@tsingular
✍8🔥5❤2🎉2
Media is too big
VIEW IN TELEGRAM
Залипательно :)
Так и мелкая ручная сборка рискует работу потерять.
Пока на этапе раннего прототипа
#роботы #руки #моторика
------
@tsingular
Так и мелкая ручная сборка рискует работу потерять.
Пока на этапе раннего прототипа
#роботы #руки #моторика
------
@tsingular
👍17🔥11❤3😁3
Cursor покупает Graphite
Cursor объявил о поглощении платформы ревью кода Graphite, которой пользуются сотни тысяч разработчиков.
Планируют объединить написание кода и его проверку в один инструмент. Обещают тесную интеграцию между локальной разработкой и пулл-реквестами, умное ревью, которое учится на обеих системах.
Graphite продолжит работать независимо с той же командой.
С написанием кода как-будто разобрались, теперь будут прокачивать ревью и слияние изменений.
#Cursor #Graphite #CodeReview
Cursor объявил о поглощении платформы ревью кода Graphite, которой пользуются сотни тысяч разработчиков.
Планируют объединить написание кода и его проверку в один инструмент. Обещают тесную интеграцию между локальной разработкой и пулл-реквестами, умное ревью, которое учится на обеих системах.
Graphite продолжит работать независимо с той же командой.
С написанием кода как-будто разобрались, теперь будут прокачивать ревью и слияние изменений.
#Cursor #Graphite #CodeReview
🔥16⚡6👍3❤2
Google покупает Intersect за $4.75 млрд
Гугл купил разработчика дата-центров и энергетики Intersect за $4.75 млрд.
Intersect уже занимался стройкой для Гугла и принесёт дополнительно несколько гигаватт мощностей плюс проекты дата-центров.
Часть техасских и калифорнийских площадок отделят в отдельную компанию для других клиентов.
Основной фокус - разгон инфраструктуры для ИИ в Хаскелле, Техас, куда вливают $40 млрд до 2027 года.
Первый объект, - Quantum, должен заработать уже в 2026-м году.
Проблема: очередь на подключение к сети ERCOT выросла с 56 до 205 ГВт за год, 70% заявок - дата-центры.
Сроки подключения растянулись до 5-7 лет.
Покупка позволит строить датацентры вне очереди плюс развивать собственную генерацию и подключение к мощностям.
#Google #Intersect #Energy
———
@tsingular
Гугл купил разработчика дата-центров и энергетики Intersect за $4.75 млрд.
Intersect уже занимался стройкой для Гугла и принесёт дополнительно несколько гигаватт мощностей плюс проекты дата-центров.
Часть техасских и калифорнийских площадок отделят в отдельную компанию для других клиентов.
Основной фокус - разгон инфраструктуры для ИИ в Хаскелле, Техас, куда вливают $40 млрд до 2027 года.
Первый объект, - Quantum, должен заработать уже в 2026-м году.
Проблема: очередь на подключение к сети ERCOT выросла с 56 до 205 ГВт за год, 70% заявок - дата-центры.
Сроки подключения растянулись до 5-7 лет.
Покупка позволит строить датацентры вне очереди плюс развивать собственную генерацию и подключение к мощностям.
#Google #Intersect #Energy
———
@tsingular
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за аниматоров!
Тут вот прям просится выражение "из говна и палок", но палки в данном случае довольно замысловатые:
Time-to-Move (TTM)
Wan 2.2 Video Model
SAM 3 (Meta)
Qwen Image Edit
ComfyUI
Wan Animate
AI Toolkit (LoRA Training)
Есть подробный туториал о том, как это было сделано.
A я вот подумал, что хорошо бы пропустить через это дело большинство страшных кукольных мультфильмов из моего детства.
А то бывало ждёшь целый день, когда по телевизору в 16.00 покажут мультики.
И думаешь: если рисованные - то отлично. Если кукольные - то отстой.
https://youtu.be/pUb58eAZ3pc?si=5eRjIqG_ocn_pfA5
@cgevent
Тут вот прям просится выражение "из говна и палок", но палки в данном случае довольно замысловатые:
Time-to-Move (TTM)
Wan 2.2 Video Model
SAM 3 (Meta)
Qwen Image Edit
ComfyUI
Wan Animate
AI Toolkit (LoRA Training)
Есть подробный туториал о том, как это было сделано.
A я вот подумал, что хорошо бы пропустить через это дело большинство страшных кукольных мультфильмов из моего детства.
А то бывало ждёшь целый день, когда по телевизору в 16.00 покажут мультики.
И думаешь: если рисованные - то отлично. Если кукольные - то отстой.
https://youtu.be/pUb58eAZ3pc?si=5eRjIqG_ocn_pfA5
@cgevent
👍31🤣18🔥8🤯4❤2🤝1
Завтра в 10 утра бесплатный вебинар «Готовые регламенты и шаблоны для проектов ИИ»
Обещают рассказать как с помощью искусственного интеллекта актуализировать учебные программы, создавать практические курсы по ИИ для студентов, молодых ученых и исследователей, а также как использовать ИИ при проведении исследований и создании технологических продуктов
На вебинаре представят Библиотеку по ИИ в которой много документов полезных и разработчикам и внедренцам: ГОСТы, политики, регламенты, ТЗ, дорожные карты, отчеты,- более 150 структурированных документов.
Детали и регистрация тут
#вебинары #полезное #обучение
———
@tsingular
Обещают рассказать как с помощью искусственного интеллекта актуализировать учебные программы, создавать практические курсы по ИИ для студентов, молодых ученых и исследователей, а также как использовать ИИ при проведении исследований и создании технологических продуктов
На вебинаре представят Библиотеку по ИИ в которой много документов полезных и разработчикам и внедренцам: ГОСТы, политики, регламенты, ТЗ, дорожные карты, отчеты,- более 150 структурированных документов.
Детали и регистрация тут
#вебинары #полезное #обучение
———
@tsingular
✍4👍2⚡1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁32😢8💯8❤6🔥2✍1🍓1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🗣 Новая линейка Qwen3-TTS: VoiceDesign и VoiceClone
Qwen представили новое поколение TTS-моделей, которые выводят управление голосом и voice cloning на новый уровень. Быстрее, выразительнее и гибче, чем раньше.
VoiceDesign-VD-Flash
Модель для полного конструирования голоса с нуля.
Что умеет:
- полный контроль речи через обычные текстовые инструкции
- управление тоном, ритмом, эмоциями и персоной
- никаких готовых голосов - ты создаешь уникальную вокальную идентичность
- превосходит GPT-4o-mini-tts и Gemini-2.5-pro в role-play бенчмарках
Подходит для:
- игровых персонажей
- виртуальных ассистентов
- сторителлинга и диалогов
- AI-персонажей с характером
VoiceClone-VC-Flash
Фокус на быстрое и качественное клонирование голоса.
Ключевые возможности:
- клонирование любого голоса всего по 3 секундам аудио
- генерация речи на 10 языках (китайский, английский, японский, испанский и другие)
- на 15% ниже WER по сравнению с ElevenLabs и GPT-4o-Audio в мультиязычных тестах
- контекстно-зависимая интонация и ритм для более естественного звучания
https://x.com/Alibaba_Qwen/status/2003445076257656880
Попробовать:
• Qwen Chat: http://chat.qwen.ai
• Блог: https://qwen.ai/blog?id=qwen3-tts-vc-voicedesign
• VoiceDesign:
http://hf.co/spaces/Qwen/Qwen3-TTS-Voice-Design
http://modelscope.cn/studios/Qwen/Qwen3-TTS-Voice-Design
• VoiceClone:
http://hf.co/spaces/Qwen/Qwen-TTS-Clone-Demo
http://modelscope.cn/studios/Qwen/Qwen-TTS-Clone-Demo
@ai_machinelearning_big_data
#AI #TTS #voicecloning
Qwen представили новое поколение TTS-моделей, которые выводят управление голосом и voice cloning на новый уровень. Быстрее, выразительнее и гибче, чем раньше.
VoiceDesign-VD-Flash
Модель для полного конструирования голоса с нуля.
Что умеет:
- полный контроль речи через обычные текстовые инструкции
- управление тоном, ритмом, эмоциями и персоной
- никаких готовых голосов - ты создаешь уникальную вокальную идентичность
- превосходит GPT-4o-mini-tts и Gemini-2.5-pro в role-play бенчмарках
Подходит для:
- игровых персонажей
- виртуальных ассистентов
- сторителлинга и диалогов
- AI-персонажей с характером
VoiceClone-VC-Flash
Фокус на быстрое и качественное клонирование голоса.
Ключевые возможности:
- клонирование любого голоса всего по 3 секундам аудио
- генерация речи на 10 языках (китайский, английский, японский, испанский и другие)
- на 15% ниже WER по сравнению с ElevenLabs и GPT-4o-Audio в мультиязычных тестах
- контекстно-зависимая интонация и ритм для более естественного звучания
https://x.com/Alibaba_Qwen/status/2003445076257656880
Попробовать:
• Qwen Chat: http://chat.qwen.ai
• Блог: https://qwen.ai/blog?id=qwen3-tts-vc-voicedesign
• VoiceDesign:
http://hf.co/spaces/Qwen/Qwen3-TTS-Voice-Design
http://modelscope.cn/studios/Qwen/Qwen3-TTS-Voice-Design
• VoiceClone:
http://hf.co/spaces/Qwen/Qwen-TTS-Clone-Demo
http://modelscope.cn/studios/Qwen/Qwen-TTS-Clone-Demo
@ai_machinelearning_big_data
#AI #TTS #voicecloning
1❤🔥9🔥5👍2⚡1
Perplexity отключает Pro купленные через серые схемы
Perplexity начал массово блокировать подписки Pro у тех, кто активировал их через посредников за 100-200 рублей вместо официальных 1790₽/месяц.
Сервис проверяет соответствие аккаунтов промоакциям для абонентов Airtel в Индии и владельцев Samsung в США. С 21 декабря ввели даже верификацию картой - дополнительный сигнал для отсева нелегитимных активаций.
Отключение происходит мгновенно, без предварительных проверок. Апелляция требует чек на покупку Samsung плюс видео из Galaxy Store - через полгода после активации это нереально для большинства.
Как и было предсказано, что это какой-то скам.
Скупой платит дважды.
#Perplexity #Samsung #Airtel
———
@tsingular
Perplexity начал массово блокировать подписки Pro у тех, кто активировал их через посредников за 100-200 рублей вместо официальных 1790₽/месяц.
Сервис проверяет соответствие аккаунтов промоакциям для абонентов Airtel в Индии и владельцев Samsung в США. С 21 декабря ввели даже верификацию картой - дополнительный сигнал для отсева нелегитимных активаций.
Отключение происходит мгновенно, без предварительных проверок. Апелляция требует чек на покупку Samsung плюс видео из Galaxy Store - через полгода после активации это нереально для большинства.
Как и было предсказано, что это какой-то скам.
Скупой платит дважды.
#Perplexity #Samsung #Airtel
———
@tsingular
😁8❤1⚡1
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
Qwen-Image-Edit-2511: теперь и у Qwen есть своя Nano Banana
Умеет всё то же, что и аналоги от Google, OpenAI и Flux. Клёво, что Qwen тоже не отстаёт от гонки, причём их релиз вышел под лицензией Apache 2.0. Это обновление старой Qwen Image Edit, версии Qwen Image вдохновлённой Flux Kontext.
Главная фишка релиза — возможности популярных LoRA (например, для улучшения освещения или смены ракурса), интегрированы здесь прямо в базовую модель. Отдельно так же дообучили на полезные для реального дизайна фичи, такие как генерация изометрических проекций и замена материала. С этим в целом и банан явно справляется, но квен все-таки локальная и главное открытая моделька.
Модель с первого дня поддерживается LightX2V, с ускорением в 1.4 раза. А в комбинации с дистилляцией и FP8 обещают ускорение до 42-х раз.
Результаты нужно смотреть на практике, но сам факт появления сильного опенсорс-конкурента — это отлично.
Демо Hugging Face
Демо Qwen Chat
Пейпер
Обнимающее лицо
Гитхаб
@ai_newz
Умеет всё то же, что и аналоги от Google, OpenAI и Flux. Клёво, что Qwen тоже не отстаёт от гонки, причём их релиз вышел под лицензией Apache 2.0. Это обновление старой Qwen Image Edit, версии Qwen Image вдохновлённой Flux Kontext.
Главная фишка релиза — возможности популярных LoRA (например, для улучшения освещения или смены ракурса), интегрированы здесь прямо в базовую модель. Отдельно так же дообучили на полезные для реального дизайна фичи, такие как генерация изометрических проекций и замена материала. С этим в целом и банан явно справляется, но квен все-таки локальная и главное открытая моделька.
Модель с первого дня поддерживается LightX2V, с ускорением в 1.4 раза. А в комбинации с дистилляцией и FP8 обещают ускорение до 42-х раз.
Результаты нужно смотреть на практике, но сам факт появления сильного опенсорс-конкурента — это отлично.
Демо Hugging Face
Демо Qwen Chat
Пейпер
Обнимающее лицо
Гитхаб
@ai_newz
👍15✍2❤1🔥1