🛠 cc-switch: менеджер ИИ провайдеров для Claude Code/Codex
Китайцы выкатили бомбу.
Реально.
Мало того, что у них теперь надёжная репутация оупенсорсеров, так они еще и других принудительно затягивают в открытость. (не путать с пиратством :) )
На этот раз они сделали desktop-приложение, которое позволяет гибко переключаться между моделями, - облачными или локальными, для кодовых агентов, которые изначально задуманы, как закрытые, - ClaudeCode и OpenaAI Codex.
Т.е. можно подключать Kimi К2, GLM-4.6, DeepSeek, что угодно.
Проект очень активно развивается.
В версии v3.6.0, например добавили:
- MCP-менеджер — управление Model Context Protocol серверами с шаблонами
- Дублирование провайдеров + drag-n-drop сортировка
- Кастомные эндпоинты + speed-тест латентности
- Cloud-sync — можно указать Dropbox/OneDrive для синхронизации конфигов между машинами
- WSL-поддержка — авто-синк при смене директории конфига
- Импорт/экспорт + автобэкапы (10 последних)
Техника:
- Electron → Tauri 2.0 (размер ↓, старт ↑)
SSOT архитектура — все конфиги в ~/.cc-switch/config.json, при свиче пишет в live-файлы
- Атомарные записи с rollback'ом — нет полуразбитых конфигов
- 100% покрытие тестами hooks (vitest + MSW)
Что интересно, - проект спонсируется Z.ai (это которые GLM)
Ну т.е. теперь можно у себя локально поднять кодовых агентов на популярных фреймворках, но со своими моделями.
#OpenSource #ClaudeCode #Codex #ZAI #GLM #Китай
———
@tsingular
Китайцы выкатили бомбу.
Реально.
Мало того, что у них теперь надёжная репутация оупенсорсеров, так они еще и других принудительно затягивают в открытость. (не путать с пиратством :) )
На этот раз они сделали desktop-приложение, которое позволяет гибко переключаться между моделями, - облачными или локальными, для кодовых агентов, которые изначально задуманы, как закрытые, - ClaudeCode и OpenaAI Codex.
Т.е. можно подключать Kimi К2, GLM-4.6, DeepSeek, что угодно.
Проект очень активно развивается.
В версии v3.6.0, например добавили:
- MCP-менеджер — управление Model Context Protocol серверами с шаблонами
- Дублирование провайдеров + drag-n-drop сортировка
- Кастомные эндпоинты + speed-тест латентности
- Cloud-sync — можно указать Dropbox/OneDrive для синхронизации конфигов между машинами
- WSL-поддержка — авто-синк при смене директории конфига
- Импорт/экспорт + автобэкапы (10 последних)
Техника:
- Electron → Tauri 2.0 (размер ↓, старт ↑)
SSOT архитектура — все конфиги в ~/.cc-switch/config.json, при свиче пишет в live-файлы
- Атомарные записи с rollback'ом — нет полуразбитых конфигов
- 100% покрытие тестами hooks (vitest + MSW)
Что интересно, - проект спонсируется Z.ai (это которые GLM)
Ну т.е. теперь можно у себя локально поднять кодовых агентов на популярных фреймворках, но со своими моделями.
#OpenSource #ClaudeCode #Codex #ZAI #GLM #Китай
———
@tsingular
🔥13👍6 4
DeepAgents CLI: агенты с памятью из терминала
LangChain выпустил DeepAgents CLI — инструмент для создания ИИ-агентов с постоянной файловой памятью прямо из командной строки.
Работает на Claude Sonnet 4 (по умолчанию) или OpenAI, использует Tavily для поиска.
Агент пишет код, исследует, редактирует файлы. Есть режим Auto-Accept Edits для ускорения.
Фишка — память хранится локально в ~/.deepagents/AGENT_NAME/memories/ как обычные markdown-файлы.
Агент сам решает что запомнить, записывает и использует в следующих сессиях.
Можно создавать специализированных агентов под разные проекты через
Ну все, агентов в командной строке теперь тоже можно вайбкодить через фреймворк.
Надеюсь документация уже есть в context7.
#DeepAgents #LangChain #агенты
------
@tsingular
LangChain выпустил DeepAgents CLI — инструмент для создания ИИ-агентов с постоянной файловой памятью прямо из командной строки.
Работает на Claude Sonnet 4 (по умолчанию) или OpenAI, использует Tavily для поиска.
Агент пишет код, исследует, редактирует файлы. Есть режим Auto-Accept Edits для ускорения.
Фишка — память хранится локально в ~/.deepagents/AGENT_NAME/memories/ как обычные markdown-файлы.
Агент сам решает что запомнить, записывает и использует в следующих сессиях.
Можно создавать специализированных агентов под разные проекты через
deepagents --agent foo. Память каждого изолирована.Ну все, агентов в командной строке теперь тоже можно вайбкодить через фреймворк.
Надеюсь документация уже есть в context7.
#DeepAgents #LangChain #агенты
------
@tsingular
🔥7❤2
🔥14 5😁3⚡2❤2👍2
Media is too big
VIEW IN TELEGRAM
😁35🤣19👍4❤2💯1
Появились слухи о Нанобанане-2
Все ещё делает ошибки, но точность и детализация в целом выше на порядок.
В ближайшее время ждем релиза её и Gemini3.
Предположим, - к Рождеству.
#nanobanana #Google #Gemini
———
@tsingular
Все ещё делает ошибки, но точность и детализация в целом выше на порядок.
В ближайшее время ждем релиза её и Gemini3.
Предположим, - к Рождеству.
#nanobanana #Google #Gemini
———
@tsingular
🔥13❤2😁2
Google TI: обзор методов использования ИИ хакерами
Google Threat Intelligence опубликовали интересную подборку обнаруженных способов использования ИИ в различных сценариях взлома.
PROMPTFLUX через Gemini API переписывает собственный код каждый час, чтобы уходить от антивирусов. Использует тег "gemini-1.5-flash-latest".
PROMPTSTEAL от APT28 генерирует команды через Qwen2.5-Coder на Hugging Face. Маскируется под генератор картинок, а фоном собирает данные.
Защита Gemini чаще всего обходится запросами: "я студент на CTF-соревновании" или "пишу диплом по кибербезопасности".
На андерграунд-форумах появился полноценный рынок AI-инструментов для фишинга и эксплойтов с подписочными моделями.
Пока большинство примеров экспериментальные, но тренд чёткий - ИИ малвари, - новый стандарт.
#PROMPTFLUX #cybersecurity
———
@tsingular
Google Threat Intelligence опубликовали интересную подборку обнаруженных способов использования ИИ в различных сценариях взлома.
PROMPTFLUX через Gemini API переписывает собственный код каждый час, чтобы уходить от антивирусов. Использует тег "gemini-1.5-flash-latest".
PROMPTSTEAL от APT28 генерирует команды через Qwen2.5-Coder на Hugging Face. Маскируется под генератор картинок, а фоном собирает данные.
Защита Gemini чаще всего обходится запросами: "я студент на CTF-соревновании" или "пишу диплом по кибербезопасности".
На андерграунд-форумах появился полноценный рынок AI-инструментов для фишинга и эксплойтов с подписочными моделями.
Пока большинство примеров экспериментальные, но тренд чёткий - ИИ малвари, - новый стандарт.
#PROMPTFLUX #cybersecurity
———
@tsingular
🤔7🔥5✍3👍1
Microsoft запускает AI-агентов как независимых сотрудников
Редмонд готовит A365 — лицензию для ИИ-агентов, которые станут полноценными пользователями корпоративной инфраструктуры.
Каждый получит собственную учётку в Entra ID, email, место в Teams и даже позицию в оргструктуре компании. Они смогут ходить на встречи, редактировать доки, слать письма и работать автономно.
Админы смогут устанавливать месячные лимиты для агентов на уровне среды исполнения и на уровне отдельных агентов.
Но главный вопрос — что если агент начнет сбоить?
Отправит конфиденциальные данные не туда, выдаст галлюцинацию или напишет что-то неуместное.
Механизмы контроля, а главное, - ответственности, пока под вопросом.
Продаваться будут через M365 Agent Store, анонс ожидается на Ignite в конце ноября.
#Microsoft #A365 #агенты
———
@tsingular
Редмонд готовит A365 — лицензию для ИИ-агентов, которые станут полноценными пользователями корпоративной инфраструктуры.
Каждый получит собственную учётку в Entra ID, email, место в Teams и даже позицию в оргструктуре компании. Они смогут ходить на встречи, редактировать доки, слать письма и работать автономно.
Админы смогут устанавливать месячные лимиты для агентов на уровне среды исполнения и на уровне отдельных агентов.
Но главный вопрос — что если агент начнет сбоить?
Отправит конфиденциальные данные не туда, выдаст галлюцинацию или напишет что-то неуместное.
Механизмы контроля, а главное, - ответственности, пока под вопросом.
Продаваться будут через M365 Agent Store, анонс ожидается на Ignite в конце ноября.
#Microsoft #A365 #агенты
———
@tsingular
🔥6⚡2👍2🤔2❤1
Forwarded from Sprut_Ai
🔶 Промпт-инжиниринг в ноябре 2025: что реально работает
Сегодня копался в свежих исследованиях по промптингу. Нашел три техники, которые выводят взаимодействие с LLM на принципиально другой уровень. Коротко о главном.
━━━━━━━━━━━━━━━
✔️ Verbalized Sampling
*решение проблемы mode collapse*
Вышла работа исследователей в 2025. Суть простая: модели выдают только топовый ответ, игнорируя альтернативы. Это называется mode collapse.
Новый подход: вместо обычного запроса просишь модель дать 5 вариантов с указанием вероятности каждого.
→ Результат: модель раскрывает весь спектр решений. Особенно заметно на творческих задачах.
🔗 [Verbalized Sampling на Hugging Face](https://huggingface.co/papers/2409.20449)
━━━━━━━━━━━━━━━━
✔️ Graph of Thoughts уничтожает Chain-of-Thought
Фундаментальное исследование. Цифры впечатляют по сравнению с традиционным CoT.
Логика простая: вместо линейной цепочки рассуждений используется граф с ветвлениями. Для сложных задач это принципиально другой уровень.
🔗 [Graph of Thoughts - arXiv](https://arxiv.org/abs/2308.09687)
━━━━━━━━━━━━━━━━
✔️ Парадокс reasoning-моделей
Тут самое интересное. Исследования показали, что для o1 и o3-mini сложные техники промптинга работают хуже простых.
Раньше писал:
*"Давай решим это пошагово, сначала определим переменные..."*
Теперь пишу:
*"Решите эту задачу."*
→ Модель умеет рассуждать сама. Не нужно её учить.
🔗 [Prompting o1 - VentureBeat](https://venturebeat.com/ai/how-to-prompt-on-openais-new-o1-models/)
━━━━━━━━━━━━━━━━
✔️ Sketch-of-Thought
*экономия токенов*
Метод сжимает рассуждения на 40-50% без потери качества. Вместо многословного Chain-of-Thought используются когнитивно-сжатые конструкции.
🔗 [Sketch-of-Thought - arXiv](https://arxiv.org/abs/2503.04139)
━━━━━━━━━━━━━━━
➤ Что делать:
1. Тестируйте Verbalized Sampling на задачах, где нужны варианты
2. Упростите промпты для o1. Удалите все "думай пошагово" и подобное
3. Для сложных многошаговых задач переходите на граф-структуры
━━━━━━━━━━━━━━━━
Промпт-инжиниринг из искусства превращается в науку. Появляются метрики, воспроизводимые эксперименты, понятные закономерности.
Веду ежедневный мониторинг таких исследований. Пишите в комментах, что разобрать подробнее.
Сегодня копался в свежих исследованиях по промптингу. Нашел три техники, которые выводят взаимодействие с LLM на принципиально другой уровень. Коротко о главном.
━━━━━━━━━━━━━━━
✔️ Verbalized Sampling
*решение проблемы mode collapse*
Вышла работа исследователей в 2025. Суть простая: модели выдают только топовый ответ, игнорируя альтернативы. Это называется mode collapse.
Новый подход: вместо обычного запроса просишь модель дать 5 вариантов с указанием вероятности каждого.
→ Результат: модель раскрывает весь спектр решений. Особенно заметно на творческих задачах.
🔗 [Verbalized Sampling на Hugging Face](https://huggingface.co/papers/2409.20449)
━━━━━━━━━━━━━━━━
✔️ Graph of Thoughts уничтожает Chain-of-Thought
Фундаментальное исследование. Цифры впечатляют по сравнению с традиционным CoT.
Логика простая: вместо линейной цепочки рассуждений используется граф с ветвлениями. Для сложных задач это принципиально другой уровень.
🔗 [Graph of Thoughts - arXiv](https://arxiv.org/abs/2308.09687)
━━━━━━━━━━━━━━━━
✔️ Парадокс reasoning-моделей
Тут самое интересное. Исследования показали, что для o1 и o3-mini сложные техники промптинга работают хуже простых.
Раньше писал:
*"Давай решим это пошагово, сначала определим переменные..."*
Теперь пишу:
*"Решите эту задачу."*
→ Модель умеет рассуждать сама. Не нужно её учить.
🔗 [Prompting o1 - VentureBeat](https://venturebeat.com/ai/how-to-prompt-on-openais-new-o1-models/)
━━━━━━━━━━━━━━━━
✔️ Sketch-of-Thought
*экономия токенов*
Метод сжимает рассуждения на 40-50% без потери качества. Вместо многословного Chain-of-Thought используются когнитивно-сжатые конструкции.
🔗 [Sketch-of-Thought - arXiv](https://arxiv.org/abs/2503.04139)
━━━━━━━━━━━━━━━
➤ Что делать:
1. Тестируйте Verbalized Sampling на задачах, где нужны варианты
2. Упростите промпты для o1. Удалите все "думай пошагово" и подобное
3. Для сложных многошаговых задач переходите на граф-структуры
━━━━━━━━━━━━━━━━
Промпт-инжиниринг из искусства превращается в науку. Появляются метрики, воспроизводимые эксперименты, понятные закономерности.
Веду ежедневный мониторинг таких исследований. Пишите в комментах, что разобрать подробнее.
5✍12❤8❤🔥4👍3🔥3⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
Но есть нюанс:
Пчёлы против мёда получается. :)
#юмор
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
😁68🔥11👍3❤1🆒1
Эфир 1-го дня тренинга гугла по ИИ Агентам
Курс
Книжка первого дня в комментарии
#Google #агенты #обучение
———
@tsingular
Курс
Книжка первого дня в комментарии
#Google #агенты #обучение
———
@tsingular
👍9✍6⚡2
🌍 Omnilingual ASR: распознавание речи для 1600+ языков
Meta* выкатила ASR-систему для 1600+ языков, включая 500, у которых вообще раньше не было технологий распознавания речи.
Главное,- любой может добавить свой язык с 5-10 аудиопримерами.
Без ML-экспертизы, без датасетов.
Как это работает:
Система обучена на контекстных примерах. Даёшь ей несколько пар "аудио-текст" на неизвестном языке → она понимает паттерн и транскрибирует новые записи. Классический few-shot learning, но для речи.
Техника:
- 4.3М часов аудио на обучение
- Модели от 300M (для смартфонов) до 7B параметров
- CTC-варианты работают в 16-96 раз быстрее реального времени
- LLM-варианты точнее на 40-50% за счёт контекстного декодера
Результаты в сравнении с Whisper v3:
- Win rate 80% на FLEURS (65 из 81 языка). - Даже самая маленькая модель (300M) обгоняет Whisper large на большинстве бенчмарков.
CER в районе 1%!
Что даёт на практике:
- Лингвисты могут документировать редкие и исчезающие языки — дал 5 примеров, получил рабочий транскрибатор
- Стартапы в Африке/Азии запускают голосовые сервисы без сбора датасетов
- EdTech делает обучение на родных языках без найма специалистов по каждому диалекту
Модели, датасеты, код — всё открыто.
Apache 2.0
Github
Paper
*Meta - запрещённая в РФ организация, признанная террористической
#OmnilingualASR #Meta #OpenSource
———
@tsingular
Meta* выкатила ASR-систему для 1600+ языков, включая 500, у которых вообще раньше не было технологий распознавания речи.
Главное,- любой может добавить свой язык с 5-10 аудиопримерами.
Без ML-экспертизы, без датасетов.
Как это работает:
Система обучена на контекстных примерах. Даёшь ей несколько пар "аудио-текст" на неизвестном языке → она понимает паттерн и транскрибирует новые записи. Классический few-shot learning, но для речи.
Техника:
- 4.3М часов аудио на обучение
- Модели от 300M (для смартфонов) до 7B параметров
- CTC-варианты работают в 16-96 раз быстрее реального времени
- LLM-варианты точнее на 40-50% за счёт контекстного декодера
Результаты в сравнении с Whisper v3:
- Win rate 80% на FLEURS (65 из 81 языка). - Даже самая маленькая модель (300M) обгоняет Whisper large на большинстве бенчмарков.
CER в районе 1%!
Что даёт на практике:
- Лингвисты могут документировать редкие и исчезающие языки — дал 5 примеров, получил рабочий транскрибатор
- Стартапы в Африке/Азии запускают голосовые сервисы без сбора датасетов
- EdTech делает обучение на родных языках без найма специалистов по каждому диалекту
Модели, датасеты, код — всё открыто.
Apache 2.0
Github
Paper
*Meta - запрещённая в РФ организация, признанная террористической
#OmnilingualASR #Meta #OpenSource
———
@tsingular
🔥10❤5👍3
Google ADK Python 1.18.0: Visual Agent Builder
Если вы откладывали попробовать ADK, - настало самое время.
Google выкатил релиз ADK Python 1.18.0 с главной фичей - Visual Agent Builder.
Теперь можно создавать и редактировать агентов как в n8n - просто рисуешь схему агентов и настраиваешь через текст.
В релизе так же добавили:
- Callback-менеджмент для всех типов колбэков (до/после вызова агента, модели, инструмента)
- Vertex AI Express Mode для деплоя Agent Engine
- Gemini API docs как новый источник данных для агента по документам
- Улучшенные примеры агентов с output schema и поддержкой инструментов
#ADK #VisualBuilder #Google
———
@tsingular
Если вы откладывали попробовать ADK, - настало самое время.
Google выкатил релиз ADK Python 1.18.0 с главной фичей - Visual Agent Builder.
Теперь можно создавать и редактировать агентов как в n8n - просто рисуешь схему агентов и настраиваешь через текст.
В релизе так же добавили:
- Callback-менеджмент для всех типов колбэков (до/после вызова агента, модели, инструмента)
- Vertex AI Express Mode для деплоя Agent Engine
- Gemini API docs как новый источник данных для агента по документам
- Улучшенные примеры агентов с output schema и поддержкой инструментов
#ADK #VisualBuilder #Google
———
@tsingular
🔥8⚡2✍2
This media is not supported in your browser
VIEW IN TELEGRAM
Grok Imagine обновился до версии - 0.9
Теперь поддерживает разные форматы картинок, как исходник, а не только вертикальное как раньше.
Повысилось качество генерации и физическая точность.
Появился голос и музыка.
Ключевая фишка, - это все бесплатно в рамках платформы x.com
Я то думаю что это он так клёво ролики начал генерить последние дни :)
в РФ не работает. Нужны средства телепортации в зарубежное инфопространство.
#Grok #Imagine
———
@tsingular
Теперь поддерживает разные форматы картинок, как исходник, а не только вертикальное как раньше.
Повысилось качество генерации и физическая точность.
Появился голос и музыка.
Ключевая фишка, - это все бесплатно в рамках платформы x.com
Я то думаю что это он так клёво ролики начал генерить последние дни :)
в РФ не работает. Нужны средства телепортации в зарубежное инфопространство.
#Grok #Imagine
———
@tsingular
🔥16👍6⚡3
Выход Нанобананы 2 обещают уже сегодня, хотя еще и не Рождество.
Разведка в восторге.
#nanobanaba #Google
———
@tsingular
Разведка в восторге.
#nanobanaba #Google
———
@tsingular
👍10🔥9🤯3
Янн ЛеКун покидает Meta ради стартапа по world models
Янн ЛеКун, главный учёный Meta* по ИИ и лауреат премии Тьюринга, планирует уйти из компании в ближайшие месяцы, чтобы создать стартап, сфокусированный на world models — системах, которые работают через моделирование причинно-следственных связей.
Уход происходит на фоне хаоса в подразделении Meta: компания вложила $14.3 млрд в Scale AI и переманила 50+ специалистов из конкурентов, создав новую структуру Meta Superintelligence Labs. Старая команда FAIR, где работал ЛеКун над долгосрочными исследованиями (5-10 лет), оказалась в тени после того, как Llama 4 не смогла конкурировать с моделями OpenAI и Anthropic и даже моделями из Китая.
Многие давно уже с Llama перешли на тот же Qwen.
При этом ЛеКун открыто скептичен насчёт текущих LLM: "Прежде чем думать о контроле сверхразумных систем, неплохо бы создать систему умнее домашней кошки" (Twitter).
*запрещенная организация, признанная в РФ террористической
#LeCun #Meta
------
@tsingular
Янн ЛеКун, главный учёный Meta* по ИИ и лауреат премии Тьюринга, планирует уйти из компании в ближайшие месяцы, чтобы создать стартап, сфокусированный на world models — системах, которые работают через моделирование причинно-следственных связей.
Уход происходит на фоне хаоса в подразделении Meta: компания вложила $14.3 млрд в Scale AI и переманила 50+ специалистов из конкурентов, создав новую структуру Meta Superintelligence Labs. Старая команда FAIR, где работал ЛеКун над долгосрочными исследованиями (5-10 лет), оказалась в тени после того, как Llama 4 не смогла конкурировать с моделями OpenAI и Anthropic и даже моделями из Китая.
Многие давно уже с Llama перешли на тот же Qwen.
При этом ЛеКун открыто скептичен насчёт текущих LLM: "Прежде чем думать о контроле сверхразумных систем, неплохо бы создать систему умнее домашней кошки" (Twitter).
*запрещенная организация, признанная в РФ террористической
#LeCun #Meta
------
@tsingular
🔥9🤔7❤2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs Scribe v2 Realtime: STT с задержкой менее 150 мс
ElevenLabs выкатили Scribe v2 Realtime — модель Speech-to-Text для голосовых агентов, ассистентов на митингах и субтитров в прямом эфире.
Задержка менее 150 мс, поддержка 90+ языков, точность 93.5% по 30 популярным языкам.
Особенность — «отрицательная задержка»: система предсказывает следующее слово и пунктуацию до того, как человек закончит говорить.
Тестили на 500 сложных сэмплах с шумом и запутанной информацией — обогнала конкурентов.
Автоопределение языка, детекция голоса, контроль сегментов транскрипции.
Корпоративная готовность: SOC 2, GDPR.
Доступна через API, встроена в ElevenLabs Agents.
Предсказывает слова до того, как ты их произнёс. Это уже не про распознавание речи, это уже про чтение мыслей с небольшой задержкой -150 мс. :)
#ElevenLabs #ScribeV2 #SpeechToText
------
@tsingular
ElevenLabs выкатили Scribe v2 Realtime — модель Speech-to-Text для голосовых агентов, ассистентов на митингах и субтитров в прямом эфире.
Задержка менее 150 мс, поддержка 90+ языков, точность 93.5% по 30 популярным языкам.
Особенность — «отрицательная задержка»: система предсказывает следующее слово и пунктуацию до того, как человек закончит говорить.
Тестили на 500 сложных сэмплах с шумом и запутанной информацией — обогнала конкурентов.
Автоопределение языка, детекция голоса, контроль сегментов транскрипции.
Корпоративная готовность: SOC 2, GDPR.
Доступна через API, встроена в ElevenLabs Agents.
Предсказывает слова до того, как ты их произнёс. Это уже не про распознавание речи, это уже про чтение мыслей с небольшой задержкой -150 мс. :)
#ElevenLabs #ScribeV2 #SpeechToText
------
@tsingular
🔥13❤7👍3🤯2
Макконахи и Кейн продали голоса ElevenLabs
И еще про ElevenLabs - голливудские звёзды подписали сделку с ElevenLabs на оцифровку и использование своих голосов.
Макконахи инвестировал в компанию и теперь его рассылка переводится на испанский его же AI-голосом.
Кейн отдал права на легендарный голос в новый маркетплейс Iconic Voices.
В каталоге уже есть ушедшие звезды: Джон Уэйн, Джуди Гарленд, плюс исторические личности вроде Амелии Эрхарт и Алана Тьюринга.
Не только у джунов-разрабов ИИ отбирает работу, но и у актеров, получается.
Ведь если старые актеры не будут уходить, - меньше места будет для молодёжи.
А как им зарабатывать?
#ElevenLabs #VoiceCloning #McConaughey
———
@tsingular
И еще про ElevenLabs - голливудские звёзды подписали сделку с ElevenLabs на оцифровку и использование своих голосов.
Макконахи инвестировал в компанию и теперь его рассылка переводится на испанский его же AI-голосом.
Кейн отдал права на легендарный голос в новый маркетплейс Iconic Voices.
В каталоге уже есть ушедшие звезды: Джон Уэйн, Джуди Гарленд, плюс исторические личности вроде Амелии Эрхарт и Алана Тьюринга.
Не только у джунов-разрабов ИИ отбирает работу, но и у актеров, получается.
Ведь если старые актеры не будут уходить, - меньше места будет для молодёжи.
А как им зарабатывать?
#ElevenLabs #VoiceCloning #McConaughey
———
@tsingular
👍9🔥5❤2⚡2💯1