Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥1
⚡️ Маленькая модель - большие возможности.
Вышла Nanbeige4.1-3B - модель всего на 3B параметров, которая в ряде задач обходит модели в 10 раз больше.
Что внутри:
- Контекст до 256K токенов
- Встроенные агентные возможности Deep Search
- Обучение коду в два этапа:
- сначала правильность
- затем эффективность
- На ключевых бенчмарках обгоняет Qwen3-32B
- Можно запускать локально без мощных серверов
- Сильно ниже стоимость инференса
- Быстрая работа на edge и локальных машинах
- Подходит для локальных AI-агентов и автоматизации
Дешёвый Локальный AI.
Модель:
https://modelscope.cn/models/nanbeige/Nanbeige4.1-3B
Вышла Nanbeige4.1-3B - модель всего на 3B параметров, которая в ряде задач обходит модели в 10 раз больше.
Что внутри:
- Контекст до 256K токенов
- Встроенные агентные возможности Deep Search
- Обучение коду в два этапа:
- сначала правильность
- затем эффективность
- На ключевых бенчмарках обгоняет Qwen3-32B
- Можно запускать локально без мощных серверов
- Сильно ниже стоимость инференса
- Быстрая работа на edge и локальных машинах
- Подходит для локальных AI-агентов и автоматизации
Дешёвый Локальный AI.
Модель:
https://modelscope.cn/models/nanbeige/Nanbeige4.1-3B
👍5❤3
🔌 OpenAI продолжает собирать лучшие умы индустрии.
На этот раз компания пригласила к себе Питера Штайнбергера - создателя нашумевшего проекта OpenClaw.
Сам Альтман назвал его «гением». В OpenAI он будет работать над следующим поколением персональных AI-агентов и именно агенты, по словам компании, станут основой будущих продуктов.
OpenClaw не закрывают.
Проект останется open-source, и OpenAI обещает продолжать его поддержку.
Но самое впечатляющее - скорость.
Путь OpenClaw:
- идея и разработка одним человеком
- быстрый рост и хайп в сообществе
- приглашение в OpenAI
Всё это - за 82 дня.
В эпоху AI окно возможностей стало экстремально коротким.
Один сильный проект может изменить карьеру за пару месяцев.
Мотивация простая: сейчас лучшее время, чтобы запускать своё.
https://x.com/sama/status/2023150230905159801?s=46
На этот раз компания пригласила к себе Питера Штайнбергера - создателя нашумевшего проекта OpenClaw.
Сам Альтман назвал его «гением». В OpenAI он будет работать над следующим поколением персональных AI-агентов и именно агенты, по словам компании, станут основой будущих продуктов.
OpenClaw не закрывают.
Проект останется open-source, и OpenAI обещает продолжать его поддержку.
Но самое впечатляющее - скорость.
Путь OpenClaw:
- идея и разработка одним человеком
- быстрый рост и хайп в сообществе
- приглашение в OpenAI
Всё это - за 82 дня.
В эпоху AI окно возможностей стало экстремально коротким.
Один сильный проект может изменить карьеру за пару месяцев.
Мотивация простая: сейчас лучшее время, чтобы запускать своё.
https://x.com/sama/status/2023150230905159801?s=46
❤4👍3🔥2
⚡️ Датасет UltraData-Math сейчас в топе трендов на HuggingFace. Его идея - сделать упор не на объём, а на качество данных для обучения математическому мышлению.
После обучения на этом наборе модель MiniCPM-1.2B показала результат 61.79 на GSM8K - уровень, который обычно требуют гораздо более крупные модели и массивные датасеты. При этом она сохраняет общие знания.
Что в нём особенного
- Минимум шума - данные проходят оценку качества, слабые примеры удаляются
- Не только учебники — есть обсуждения с форумов, разборы решений и многошаговые диалоги
- Несколько уровней плотности (L1–L3) — можно выбрать вариант под свои вычислительные ресурсы
Вывод простой
Для сильной модели важен не только размер, но и чистота и полезность данных.
Датасет подойдёт тем, кто работает с дообучением или обучает компактные модели.
https://huggingface.co/datasets/openbmb/UltraData-Math
После обучения на этом наборе модель MiniCPM-1.2B показала результат 61.79 на GSM8K - уровень, который обычно требуют гораздо более крупные модели и массивные датасеты. При этом она сохраняет общие знания.
Что в нём особенного
- Минимум шума - данные проходят оценку качества, слабые примеры удаляются
- Не только учебники — есть обсуждения с форумов, разборы решений и многошаговые диалоги
- Несколько уровней плотности (L1–L3) — можно выбрать вариант под свои вычислительные ресурсы
Вывод простой
Для сильной модели важен не только размер, но и чистота и полезность данных.
Датасет подойдёт тем, кто работает с дообучением или обучает компактные модели.
https://huggingface.co/datasets/openbmb/UltraData-Math
❤2👍2🔥2
⚡️ GLM-5 - новый лидер среди open-source LLM
Вышёл технический отчёт по модели, которая показывает SOTA и особенно сильна в реальных задачах разработки.
DSA (Dynamic Sparse Attention)
- снижает стоимость обучения и инференса
- сохраняет качество на длинном контексте
Async RL Infrastructure
- генерация отделена от обучения
- посттренинг проходит значительно быстрее и эффективнее
Agent RL
- обучение на длинных цепочках действий
- высокая производительность в реальных задачах software engineering
Что это значит
Фокус смещается с «больше параметров» на:
- эффективность
- длинные сценарии
- агентное поведение
- практические задачи, а не бенчмарки
Open-source модели всё быстрее догоняют закрытые уже не по возможностям, а по эффективности и применимости.
http://arxiv.org/abs/2602.15763
Вышёл технический отчёт по модели, которая показывает SOTA и особенно сильна в реальных задачах разработки.
DSA (Dynamic Sparse Attention)
- снижает стоимость обучения и инференса
- сохраняет качество на длинном контексте
Async RL Infrastructure
- генерация отделена от обучения
- посттренинг проходит значительно быстрее и эффективнее
Agent RL
- обучение на длинных цепочках действий
- высокая производительность в реальных задачах software engineering
Что это значит
Фокус смещается с «больше параметров» на:
- эффективность
- длинные сценарии
- агентное поведение
- практические задачи, а не бенчмарки
Open-source модели всё быстрее догоняют закрытые уже не по возможностям, а по эффективности и применимости.
http://arxiv.org/abs/2602.15763
❤6👍4🔥1
OpenAI близка к закрытию первой фазы нового раунда, общий объём которого может превысить $100 млрд. Если условия подтвердятся, оценка компании может вырасти до ~$850 млрд.
Что важно в этом раунде
Это не классическое финансирование "деньги в обмен на долю".
Сделка структурирована как многоэтапный, много-траншевый раунд, где инвестиции идут не только в виде капитала, но и в виде инфраструктуры:
- облачные мощности
- GPU и ускорители
- долгосрочные вычислительные ресурсы
То есть партнёры фактически инвестируют compute, а не только деньги.
Предполагаемое участие компаний:
- Amazon - до $50 млрд
- SoftBank - до $30 млрд
- Nvidia - около $20 млрд
- Microsoft - стратегический партнёр (детали не раскрыты)
Ожидается, что распределение долей и обязательств будет финализировано к концу февраля 2026 года.
Оценка компании
Если первая фаза пройдёт по верхней границе:
- pre-money оценка - около $730 млрд
- post-money - более $850 млрд
- это выше предыдущей оценки ~$830 млрд
Условия ещё могут измениться, но масштаб уже понятен.
Почему это важно
1) Главный дефицит в AI - не деньги, а вычисления
Современные модели упираются в:
- GPU
- энергетику
- дата-центры
- сетевую инфраструктуру
Капитал без compute больше не решает проблему.
2) Формируется новый тип инвестиций
Это уже не венчурная модель, а инфраструктурные альянсы:
компании инвестируют, потому что:
- продают облако
- продают GPU
- закрепляют долгосрочный спрос
-
3) AI становится инфраструктурным рынком уровня нефти или электроэнергии
Участники сделки - это не фонды, а:
- облачные гиганты
- производители чипов
- глобальные финансовые конгломераты
AI-гонка окончательно сместилась из области моделей в область инфраструктуры.
Побеждает не тот, у кого лучший алгоритм.
Побеждает тот, у кого больше энергии, дата-центров и GPU.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🤔1🤡1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
EVMbench - специализированный фреймворк, который проверяет, насколько хорошо языковые модели справляются с 3 задачами: находят баги в коде смарт-контрактов, эксплуатируют их в контролируемой среде и исправляют без нарушения логики контракта.
Тестовая база построена на реальных примерах багов, найденных ранее в ходе аудитов и профильных соревнований.
Авторы рассчитывают, что EVMbench станет отраслевым стандартом, что важно для защиты активов в секторе децентрализованных финансов, где исправить ошибку после деплоя уже невозможно.
openai.com
Теперь в NotebookLM сгенерированные презентации можно дорабатывать прямо в диалоге с ИИ, без ручной правки каждого слайда. Достаточно написать, что изменить, и модель перестроит контент сама.
Второе обновление - экспорт в PPTX. Готовую презентацию можно скачать и открыть в Microsoft PowerPoint. Поддержка Google Slides анонсирована, но пока не запущена.
NotebookLM в сети Х
ИИ-поисковик прекратил эксперименты с рекламной монетизацией, посчитав, что она фундаментально противоречит миссии сервиса. Несмотря на то, что стартап одним из первых начал тестировать спонсорские ответы в 2024 году, сейчас руководство решило свернуть эту инициативу.
Представители компании пояснили, что их главная ценность - это точность и объективность информации. Даже если промо-блоки четко маркированы и технически не влияли на генерацию текста, сам факт их наличия заставляет людей сомневаться в честности ответов.
В Perplexity пришли к выводу, что для удержания платных подписчиков пользователь должен быть уверен, что получает лучший возможный ответ, не искаженный коммерческими интересами рекламодателей.
ft.com
В чат-бот добавили модель Lyria 3 от DeepMind. На вход она принимает текст, картинку или видео, а если указать в запросе имя исполнителя, Gemini создаст трек в похожем стиле (но скопировать артиста напрямую не получится).
Инструмент в бете, но уже пишет полноценные треки на английском, немецком, испанском, французском, хинди, японском, корейском и португальском языках. Вся музыка, созданная через Lyria 3, получает метку SynthID.
blog.google
Команда инженеров-химиков института адаптировала архитектуру LLM для нужд биотехнологий. Созданный алгоритм помогает промышленным дрожжам Komagataella phaffii эффективнее производить сложные белки, используемые в вакцинах и препаратах от рака.
Суть разработки - решении проблемы генетических синонимов. Одна и та же аминокислота может кодироваться разными триплетами ДНК (кодонами), но на классических методах оптимизации выбор самых часто встречающихся вариантов нередко приводит к дефициту ресурсов клетки и снижению выработки.
Инженеры обучили модель на геноме дрожжей, заставив ее воспринимать ДНК как текст. ИИ не просто запомнил частоту кодонов, но и усвоил скрытый контекст — «синтаксис» их взаимодействия. В тестах на реальных белках, включая человеческий гормон роста и моноклональные антитела, последовательности от ИИ превзошли результаты лучших коммерческих инструментов в 5 случаях из 6.
Технология обещает сократить расходы на разработку новых лекарств, которые на этапе подготовки производства сейчас составляют до 20% от общего бюджета.
news.mit.edu
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍2
🧠 Voxtral: Реализация модели 4B на C
Voxtral — это быстрая и независимая от внешних библиотек реализация модели Mistral AI для обработки аудио в реальном времени. Поддерживает ввод с микрофона и потоковую передачу, обеспечивая низкую задержку и эффективное использование памяти.
🚀Основные моменты:
- Чистая реализация на C с нулевыми зависимостями
- Поддержка Metal GPU для Apple Silicon
- Потоковый вывод токенов в реальном времени
- Ввод с микрофона и обработка WAV-файлов
- Эффективное управление памятью с помощью перекрывающихся окон
📌 GitHub: https://github.com/antirez/voxtral.c
#c
Voxtral — это быстрая и независимая от внешних библиотек реализация модели Mistral AI для обработки аудио в реальном времени. Поддерживает ввод с микрофона и потоковую передачу, обеспечивая низкую задержку и эффективное использование памяти.
🚀Основные моменты:
- Чистая реализация на C с нулевыми зависимостями
- Поддержка Metal GPU для Apple Silicon
- Потоковый вывод токенов в реальном времени
- Ввод с микрофона и обработка WAV-файлов
- Эффективное управление памятью с помощью перекрывающихся окон
📌 GitHub: https://github.com/antirez/voxtral.c
#c
🔥3👍1
🤖 KISS: Простой фреймворк для создания AI-агентов
KISS (Keep It Simple, Stupid) предлагает минималистичный подход к разработке AI-агентов, избавляя от сложных конфигураций и абстракций. Создавайте и управляйте агентами с помощью обычного Python-кода, используя нативные функции для повышения эффективности.
🚀 Основные моменты:
- Легкость в создании и управлении AI-агентами.
- Использование нативного вызова функций для точности.
- Поддержка многопоточности и эволюции агентов.
- Интерактивные примеры и документация для быстрого старта.
📌 GitHub: https://github.com/ksenxx/kiss_ai
#python
KISS (Keep It Simple, Stupid) предлагает минималистичный подход к разработке AI-агентов, избавляя от сложных конфигураций и абстракций. Создавайте и управляйте агентами с помощью обычного Python-кода, используя нативные функции для повышения эффективности.
🚀 Основные моменты:
- Легкость в создании и управлении AI-агентами.
- Использование нативного вызова функций для точности.
- Поддержка многопоточности и эволюции агентов.
- Интерактивные примеры и документация для быстрого старта.
📌 GitHub: https://github.com/ksenxx/kiss_ai
#python
❤3🥰2🔥1
Claude Code получил открытое решение против одной из главных угроз агентного AI - prompt injection.
Проект называется claude-hooks от Lasso Security.
Он добавляет защитный слой между Claude и внешним миром.
Что он делает:
Каждый раз, когда Claude:
- читает файл
- открывает веб-страницу
- запускает команду
- получает данные извне
специальный hook проверяет содержимое до того, как модель его обработает.
Он ищет более 50+ паттернов атак:
- скрытые инструкции в README
- вредоносные HTML-комментарии
- base64-инъекции
- попытки переписать системный контекст
- команды вида “ignore previous instructions”
Почему это важно:
Современные AI-агенты работают с:
- файловой системой
- репозиториями
- интернетом
- терминалом
Если внешний контент содержит скрытые инструкции,
AI может выполнить их как часть задачи.
Это уже новый класс уязвимостей:
данные = управление моделью
https://github.com/lasso-security/claude-hooks
Проект называется claude-hooks от Lasso Security.
Он добавляет защитный слой между Claude и внешним миром.
Что он делает:
Каждый раз, когда Claude:
- читает файл
- открывает веб-страницу
- запускает команду
- получает данные извне
специальный hook проверяет содержимое до того, как модель его обработает.
Он ищет более 50+ паттернов атак:
- скрытые инструкции в README
- вредоносные HTML-комментарии
- base64-инъекции
- попытки переписать системный контекст
- команды вида “ignore previous instructions”
Почему это важно:
Современные AI-агенты работают с:
- файловой системой
- репозиториями
- интернетом
- терминалом
Если внешний контент содержит скрытые инструкции,
AI может выполнить их как часть задачи.
Это уже новый класс уязвимостей:
данные = управление моделью
https://github.com/lasso-security/claude-hooks
🔥9❤7🥰3
Когда рекомендации, поиск и реклама развиваются отдельно, появляются дублирующиеся пайплайны и расхождения в фичах.
В VK эту проблему решили через платформенный подход.
Stream Flow — центральный слой обработки событий — работает поверх YTsaurus. Он агрегирует до 1 млн событий в секунду и передаёт их в общий ML-профиль пользователей (~100 млрд событий в сутки).
Дальше — стандартная, но масштабированная схема:
Retrieval → Ranking → A/B → деплой.
Ключевое здесь — не только скорость запуска моделей, а снижение инфраструктурной вариативности: одна система хранения и обработки данных, единые механизмы расчёта фичей и унифицированный ML-цикл.
Это уже переход от набора ML-решений к платформенной архитектуре.
В VK эту проблему решили через платформенный подход.
Stream Flow — центральный слой обработки событий — работает поверх YTsaurus. Он агрегирует до 1 млн событий в секунду и передаёт их в общий ML-профиль пользователей (~100 млрд событий в сутки).
Дальше — стандартная, но масштабированная схема:
Retrieval → Ranking → A/B → деплой.
Ключевое здесь — не только скорость запуска моделей, а снижение инфраструктурной вариативности: одна система хранения и обработки данных, единые механизмы расчёта фичей и унифицированный ML-цикл.
Это уже переход от набора ML-решений к платформенной архитектуре.
❤6👍4🔥2
🔬 Прогнозирование биомолекулярных структур с Protenix
Protenix — это открытый инструмент для высокоточного прогнозирования структур белков, который поддерживает исследования в области вычислительной биологии и разработки лекарств. Он предлагает доступные и расширяемые решения для научного сообщества.
🚀 Основные моменты:
- Высокая точность предсказаний, превосходящая AlphaFold3.
- Поддержка различных форматов данных и улучшенные функции обучения.
- Интеграция с другими проектами для оценки и дизайна белков.
- Открытый доступ к полному набору инструментов и данным.
📌 GitHub: https://github.com/bytedance/Protenix
#python
Protenix — это открытый инструмент для высокоточного прогнозирования структур белков, который поддерживает исследования в области вычислительной биологии и разработки лекарств. Он предлагает доступные и расширяемые решения для научного сообщества.
🚀 Основные моменты:
- Высокая точность предсказаний, превосходящая AlphaFold3.
- Поддержка различных форматов данных и улучшенные функции обучения.
- Интеграция с другими проектами для оценки и дизайна белков.
- Открытый доступ к полному набору инструментов и данным.
📌 GitHub: https://github.com/bytedance/Protenix
#python
GitHub
GitHub - bytedance/Protenix: Toward High-Accuracy Open-Source Biomolecular Structure Prediction.
Toward High-Accuracy Open-Source Biomolecular Structure Prediction. - bytedance/Protenix
👍5🔥5❤3🥰3
⚡️ MIT выложили полный курс по Deep Learning - бесплатно
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare опубликовали курс 6.7960 Deep Learning (Fall 2024) — один из самых актуальных и практичных университетских курсов по современному глубокому обучению.
Внутри — полноценные лекции уровня топ-университета, доступные бесплатно.
Что в курсе
- Основы deep learning и архитектур
- Transformers и современные модели
- Generative AI
- Self-supervised обучение
- Scaling laws
- Diffusion и генеративные модели
- RL и обучение с подкреплением
- Практические разборы современных подходов
Лекции ведут преподаватели MIT и исследователи, работающие с передовыми технологиями.
Почему это ценно
Это не базовый курс для новичков.
Это материал уровня:
- ML-инженера
- исследователя
- разработчика AI-систем
Курс отражает текущее состояние индустрии и объясняет, как думают люди, которые создают современные модели.
Отлично подойдёт, если вы:
- уже знаете Python и основы ML
- хотите перейти в Deep Learning
- работаете с LLM / AI
- хотите системное понимание вместо отдельных туториалов
Если хочешь уровень FAANG / Research - учись у MIT.
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
❤7🤔3👍1
⚡️ Augustus - AI-агент для автоматического security-аудита кода
Augustus - open-source инструмент от Praetorian, который использует LLM для поиска уязвимостей и проблем безопасности прямо в вашем коде.
Что делает Augustus
- Анализирует код на уязвимости
- Ищет потенциальные security-риски
- Объясняет найденные проблемы
- Предлагает рекомендации по исправлению
- Работает с реальными репозиториями
По сути, это AI-ассистент для application security (AppSec).
Какие проблемы может находить
- небезопасная работа с вводом
- утечки данных
- ошибки аутентификации / авторизации
- опасные конфигурации
- уязвимые паттерны кода
Где полезно
- security-аудит проектов
- проверка перед релизом
- CI/CD pipeline
- code review
- обучение безопасной разработке
Почему это интересно
Тренд в безопасности меняется:
вместо ручного аудита → AI-анализ кода в реальном времени.
Теперь проверку безопасности можно делать так же просто, как запуск линтера, но с контекстом и объяснениями.
Репозиторий: https://github.com/praetorian-inc/augustus
🚀Max
Augustus - open-source инструмент от Praetorian, который использует LLM для поиска уязвимостей и проблем безопасности прямо в вашем коде.
Что делает Augustus
- Анализирует код на уязвимости
- Ищет потенциальные security-риски
- Объясняет найденные проблемы
- Предлагает рекомендации по исправлению
- Работает с реальными репозиториями
По сути, это AI-ассистент для application security (AppSec).
Какие проблемы может находить
- небезопасная работа с вводом
- утечки данных
- ошибки аутентификации / авторизации
- опасные конфигурации
- уязвимые паттерны кода
Где полезно
- security-аудит проектов
- проверка перед релизом
- CI/CD pipeline
- code review
- обучение безопасной разработке
Почему это интересно
Тренд в безопасности меняется:
вместо ручного аудита → AI-анализ кода в реальном времени.
Теперь проверку безопасности можно делать так же просто, как запуск линтера, но с контекстом и объяснениями.
Репозиторий: https://github.com/praetorian-inc/augustus
🚀Max
❤3🔥2
✔ Open-source TTS становится всё доступнее.
Вышел KaniTTS2 — модель синтеза речи на 400M параметров, которая запускается всего на 3GB VRAM.
Что важно:
- Работает на обычной GPU — без мощных серверов
- Поддерживает клонирование голоса
- Можно создавать реалистичную речь под конкретного диктора
- Полностью open-source (Apache 2.0)
Но главное:
Разработчики выложили полный код предобучения.
Это значит, что теперь можно:
- обучить TTS с нуля для любого языка
- сделать голос для локального ассистента
- создать озвучку для приложений, ботов и видео
- развернуть всё локально без API
Тренд очевиден:
Голосовые модели становятся такими же доступными, как LLM —
маленькие, быстрые и полностью под контролем разработчика.
Модели:
https://huggingface.co/nineninesix/kani-tts-2-en
https://huggingface.co/nineninesix/kani-tts-2-pt
Вышел KaniTTS2 — модель синтеза речи на 400M параметров, которая запускается всего на 3GB VRAM.
Что важно:
- Работает на обычной GPU — без мощных серверов
- Поддерживает клонирование голоса
- Можно создавать реалистичную речь под конкретного диктора
- Полностью open-source (Apache 2.0)
Но главное:
Разработчики выложили полный код предобучения.
Это значит, что теперь можно:
- обучить TTS с нуля для любого языка
- сделать голос для локального ассистента
- создать озвучку для приложений, ботов и видео
- развернуть всё локально без API
Тренд очевиден:
Голосовые модели становятся такими же доступными, как LLM —
маленькие, быстрые и полностью под контролем разработчика.
Модели:
https://huggingface.co/nineninesix/kani-tts-2-en
https://huggingface.co/nineninesix/kani-tts-2-pt
Apple представила M5 Pro и M5 Max, построенные на новой архитектуре Fusion, которая объединяет два 3-нм кристалла в один SoC.
Это даёт до 30% прироста производительности CPU и более чем 4-кратный рост пиковой GPU-мощности для задач ИИ по сравнению с предыдущим поколением.
В конфигурации:
• 18-ядерный CPU (включая 6 «супер-ядер»)
• до 40-ядерного GPU с Neural Accelerators
• пропускная способность объединённой памяти до 614 ГБ/с
Это даёт до 30% прироста производительности CPU и более чем 4-кратный рост пиковой GPU-мощности для задач ИИ по сравнению с предыдущим поколением.
В конфигурации:
• 18-ядерный CPU (включая 6 «супер-ядер»)
• до 40-ядерного GPU с Neural Accelerators
• пропускная способность объединённой памяти до 614 ГБ/с
👍4🔥2❤1