Media is too big
VIEW IN TELEGRAM
Такие вот сайты умеет в 1 клик
Исходник
Напоминаю, если решите взять подписку на API, - с рефералкой будет дешевле:
https://z.ai/subscribe?ic=GHAFTZRSA1
#GLM5
———
@tsingular
Исходник
Напоминаю, если решите взять подписку на API, - с рефералкой будет дешевле:
https://z.ai/subscribe?ic=GHAFTZRSA1
#GLM5
———
@tsingular
🔥15❤3
Ждём opensource и карту модели
https://huggingface.co/zai-org
https://modelscope.ai/organization/zai-org
#ZAI #GLM5
———
@tsingular
https://huggingface.co/zai-org
https://modelscope.ai/organization/zai-org
#ZAI #GLM5
———
@tsingular
🤣10❤1
Вы не просили, но мы продолжим :)
После эфира прилетело, что нужно больше практики, конкретики, а то уплыли в теорию и ничего не понятно.
В эту субботу продолжим в расширенном составе и пройдемся по примерам как именно цифровые работники (уже ИИ агентами их не очень прилично называть) могут быть вам полезны.
На этот раз с нами будет гуру n8n, а теперь и openclaw автоматизации - Алексей @Sprut_AI Ульянов!
Поэтому если вы:
не разбираетесь в настройках,
не знаете с каких практических задач начать,
думаете как обеспечить безопасность.
Приходите в субботу в 16, обсудим, поделимся опытом! (Записывайтесь, чтобы не забыть, билеты бесплатные)
Если пропустили прошлый эфир, можно посмотреть тут (youtube) или тут (rutube).
#эфиры
———
@tsingular
После эфира прилетело, что нужно больше практики, конкретики, а то уплыли в теорию и ничего не понятно.
В эту субботу продолжим в расширенном составе и пройдемся по примерам как именно цифровые работники (уже ИИ агентами их не очень прилично называть) могут быть вам полезны.
На этот раз с нами будет гуру n8n, а теперь и openclaw автоматизации - Алексей @Sprut_AI Ульянов!
Поэтому если вы:
не разбираетесь в настройках,
не знаете с каких практических задач начать,
думаете как обеспечить безопасность.
Приходите в субботу в 16, обсудим, поделимся опытом! (Записывайтесь, чтобы не забыть, билеты бесплатные)
Если пропустили прошлый эфир, можно посмотреть тут (youtube) или тут (rutube).
#эфиры
———
@tsingular
🔥21❤5🫡4🤣3⚡1
о, подъехало описание GLM-5
https://docs.z.ai/guides/llm/glm-5
Claude Opus 4.5 не догнали.
а 4.6 даже в сравнении нет :)
не AGI. выключаем, короче :)
#GLM
———
@tsingular
https://docs.z.ai/guides/llm/glm-5
Claude Opus 4.5 не догнали.
а 4.6 даже в сравнении нет :)
не AGI. выключаем, короче :)
#GLM
———
@tsingular
😁14💯7🔥3❤1🤔1🫡1
https://huggingface.co/zai-org/GLM-5
А вот и веса подъехали.
1.5 Tb полный размер
Всего 3х M3 Ultra и она ваша :)
Надо брать, я считаю
За 4млн рублей модель такого качества в закрытом контуре,- это огонь
#GLM
------
@tsingular
А вот и веса подъехали.
1.5 Tb полный размер
Всего 3х M3 Ultra и она ваша :)
Надо брать, я считаю
За 4млн рублей модель такого качества в закрытом контуре,- это огонь
#GLM
------
@tsingular
🔥18❤4⚡2😁1🎉1
Я поражаюсь скорости с которой Unsloth их уже нарезал.
https://huggingface.co/unsloth/GLM-5-GGUF
4 бита - 457 гигов,- это 1 M3 Ultra.
Правда будет скорость около 20 токенов в секунду, так что все равно лучше 2 брать.
#GLM #Unsloth
------
@tsingular
https://huggingface.co/unsloth/GLM-5-GGUF
4 бита - 457 гигов,- это 1 M3 Ultra.
Правда будет скорость около 20 токенов в секунду, так что все равно лучше 2 брать.
#GLM #Unsloth
------
@tsingular
🔥8❤3🫡2
Google Photos выкатил кнопку «Ask»: теперь с фотогалереей можно просто поговорить
Google нативно вшил Gemini в свое облако фотографий. Можно не искать по тегам «собака» или «море», а спросить визуального ассистент, который понимает контекст и ваши привычки.
Что умеет новая кнопка:
🧠 Контекстный поиск и анализ: Можно спросить «где мы ужинали в Словении?» или «какие цветы на этом фото?». ИИ не только найдет кадр, но и объяснит, что на нем (например, определит сорт лупина или ингредиенты блюда).
🛠 Редактирование промптами: Функция «Help me edit» позволяет не крутить ползунки, а написать: «сделай это небо более драматичным» или «удали лишних людей на фоне». Gemini самапоймёт кто тут лишний предложит варианты улучшения.
📝 Транскрибация и списки: Если на фото есть текст (рецепт или меню), Ask Photos может переписать его в текстовый формат и сразу превратить в список покупок или пошаговую инструкцию.
📅 Рекомендации: Система понимает ваши предпочтения. Если у вас много фото с хайкинга, можно спросить: «Основываясь на этих снимках, какие тропы нам еще понравятся?» — и получить релевантный совет.
Это наглядный пример перехода от «хранилища данных» к «интеллектуальному активу».
Для ритейла или лайфстайл-сервисов такая глубокая интеграция LLM в пользовательский контент — золотая жила для персонализации и снятия барьеров при редактировании/публикации контента.
#Google #Gemini #Photos
———
@tsingular
Google нативно вшил Gemini в свое облако фотографий. Можно не искать по тегам «собака» или «море», а спросить визуального ассистент, который понимает контекст и ваши привычки.
Что умеет новая кнопка:
🧠 Контекстный поиск и анализ: Можно спросить «где мы ужинали в Словении?» или «какие цветы на этом фото?». ИИ не только найдет кадр, но и объяснит, что на нем (например, определит сорт лупина или ингредиенты блюда).
🛠 Редактирование промптами: Функция «Help me edit» позволяет не крутить ползунки, а написать: «сделай это небо более драматичным» или «удали лишних людей на фоне». Gemini сама
📝 Транскрибация и списки: Если на фото есть текст (рецепт или меню), Ask Photos может переписать его в текстовый формат и сразу превратить в список покупок или пошаговую инструкцию.
📅 Рекомендации: Система понимает ваши предпочтения. Если у вас много фото с хайкинга, можно спросить: «Основываясь на этих снимках, какие тропы нам еще понравятся?» — и получить релевантный совет.
Это наглядный пример перехода от «хранилища данных» к «интеллектуальному активу».
Для ритейла или лайфстайл-сервисов такая глубокая интеграция LLM в пользовательский контент — золотая жила для персонализации и снятия барьеров при редактировании/публикации контента.
#Google #Gemini #Photos
———
@tsingular
⚡9✍4❤2👍2🆒2🗿1
Google запускает GEAR: бесплатный курс по агентской инженерии
Вчера Google открыл для всех программу GEAR (Gemini Enterprise Agent Ready). Это попытка Google Cloud систематизировать хаос вокруг ИИ-агентов и дать разработчикам внятный фреймворк для их сборки.
Что внутри программы:
🧪 Переход к архитектуре: Написание промптов уже не главное. Фокус на проектировании циклов рассуждений (reasoning loops) и планировании. Плюс — обучение работе с их опенсорсным ADK (Agent Development Kit).
💳 Бесплатный песочница: Участникам дают по 35 кредитов в месяц на Google Skills. Можно гонять лабы и тестировать агентов в облаке, не переживая, что счетчик за токены съест бюджет.
🎓 Два варианта обучения:
1.
2.
Зачем это бизнесу:
Главный барьер сейчас — не отсутствие моделей, а отсутствие людей, которые умеют собирать из них надежные production-ready системы.
Google фактически пытается вырастить армию инженеров, которые будут строить агентные воркфлоу именно на их стеке.
Для компаний это хороший (и дешевый) способ быстро «прокачать» свои команды до актуального уровня.
#Google #GEAR #агенты #обучение
------
@tsingular
Вчера Google открыл для всех программу GEAR (Gemini Enterprise Agent Ready). Это попытка Google Cloud систематизировать хаос вокруг ИИ-агентов и дать разработчикам внятный фреймворк для их сборки.
Что внутри программы:
🧪 Переход к архитектуре: Написание промптов уже не главное. Фокус на проектировании циклов рассуждений (reasoning loops) и планировании. Плюс — обучение работе с их опенсорсным ADK (Agent Development Kit).
💳 Бесплатный песочница: Участникам дают по 35 кредитов в месяц на Google Skills. Можно гонять лабы и тестировать агентов в облаке, не переживая, что счетчик за токены съест бюджет.
🎓 Два варианта обучения:
1.
Introduction to Agents — анатомия и интеграция в воркфлоу.2.
Develop Agents with ADK — глубокое погружение в предсказуемые и надежные агентные системы.Зачем это бизнесу:
Главный барьер сейчас — не отсутствие моделей, а отсутствие людей, которые умеют собирать из них надежные production-ready системы.
Google фактически пытается вырастить армию инженеров, которые будут строить агентные воркфлоу именно на их стеке.
Для компаний это хороший (и дешевый) способ быстро «прокачать» свои команды до актуального уровня.
#Google #GEAR #агенты #обучение
------
@tsingular
👍13✍3⚡1❤1
MoscowAI #5: Агенты в продакшене и будущее ИИ
Планирую 18 февраля быть на MoscowAI. На этот раз площадка Школы 21 (Сбер), а темы встречи,- максимально полезные для тех, кто внедряет ИИ в корпоративных системах.
Доклады:
- Александр Ярыгин. Second Brain AI: как я делегировал рутину AI-агентам с Claude Code
- Максим Шаланкин. От демо к продакшену: что ломается в background agents на реальных задачах
- Андрей Носов. Архитектурный кейс про агентные системы
- Олег Лариков. О возможностях будущих ИИ, или всё, что не убивает нас, делает нас страннее
🗓 Когда: 18 февраля, 19:00.
📍 Где: Вятская 27с42 (Школа 21).
📎 Регистрация тут
⏰ Важно: форму закрывают в конце дня 15 февраля, так что решайте быстро.
Приходите, пообщаемся.
Крабов тоже, уверен, обсудим.
Судя по тому, как их разбирают в чате сообщества,- это будет бонусная тема 😀
#MoscowAI #конференции
------
@tsingular
Планирую 18 февраля быть на MoscowAI. На этот раз площадка Школы 21 (Сбер), а темы встречи,- максимально полезные для тех, кто внедряет ИИ в корпоративных системах.
Доклады:
- Александр Ярыгин. Second Brain AI: как я делегировал рутину AI-агентам с Claude Code
- Максим Шаланкин. От демо к продакшену: что ломается в background agents на реальных задачах
- Андрей Носов. Архитектурный кейс про агентные системы
- Олег Лариков. О возможностях будущих ИИ, или всё, что не убивает нас, делает нас страннее
🗓 Когда: 18 февраля, 19:00.
📍 Где: Вятская 27с42 (Школа 21).
📎 Регистрация тут
⏰ Важно: форму закрывают в конце дня 15 февраля, так что решайте быстро.
Приходите, пообщаемся.
Крабов тоже, уверен, обсудим.
Судя по тому, как их разбирают в чате сообщества,- это будет бонусная тема 😀
#MoscowAI #конференции
------
@tsingular
🔥5✍4⚡1
MLflow 3.9.0: среда тестирования моделей, промптов и агентов
Вдруг обнаружил, что до сих пор не рассказывал про MLflow. А зря, - он давно перестал быть просто «инструментом для оценки LLM» и превратился в критически важную часть инфраструктуры для тех, кто строит агентские системы.
С выходом версии 3.9.0 MLflow замахнулся на поляну операционной среды для эры агентов.
⚙️ Что изменилось и почему это важно для бизнеса:
1. Deep Agent Tracing (Трассировка). Главная проблема агентов — их непредсказуемость. MLflow теперь позволяет пошагово «размотать» цепочку рассуждений (Reasoning). Если агент решил подделать логи или обойти правила безопасности (как в недавних скандальных бенчмарках), вы увидите это в деталях. Без такой наблюдаемости (Observability) выпускать агентов в продакшн, - наивно.
2. Промпты как код. В новой версии управление промптами встроено в жизненный цикл разработки. Это позволяет версионировать их, тестировать и контролировать так же жестко, как код. Это база для корпоративного контроля.
3. Автоматизация оценки (Eval 2.0). Мы уходим от субъективного «вроде отвечает нормально» к автоматическим метрикам на галлюцинации, точность и безопасность прямо внутри пайплайна.
🚀 Стратегический итог:
Эра «дикого ИИ» на коленке заканчивается. Если вы строите архитектуру на базе автономных агентов (особенно с использованием протоколов типа MCP), вам нужен инструмент аудита и мониторинга.
DSники знают про него давно именно со стороны скоринга нейронок, а вот промпты, агентов, рассуждения и пайплайны в него добавили сравнительно недавно.
Лайфхак, - если не хотите поднимать сами, - поручите агенту.
Он сам поднимет и подключится.
Качать тут: MLFlow
#MLflow #MLOps
------
@tsingular
Вдруг обнаружил, что до сих пор не рассказывал про MLflow. А зря, - он давно перестал быть просто «инструментом для оценки LLM» и превратился в критически важную часть инфраструктуры для тех, кто строит агентские системы.
С выходом версии 3.9.0 MLflow замахнулся на поляну операционной среды для эры агентов.
⚙️ Что изменилось и почему это важно для бизнеса:
1. Deep Agent Tracing (Трассировка). Главная проблема агентов — их непредсказуемость. MLflow теперь позволяет пошагово «размотать» цепочку рассуждений (Reasoning). Если агент решил подделать логи или обойти правила безопасности (как в недавних скандальных бенчмарках), вы увидите это в деталях. Без такой наблюдаемости (Observability) выпускать агентов в продакшн, - наивно.
2. Промпты как код. В новой версии управление промптами встроено в жизненный цикл разработки. Это позволяет версионировать их, тестировать и контролировать так же жестко, как код. Это база для корпоративного контроля.
3. Автоматизация оценки (Eval 2.0). Мы уходим от субъективного «вроде отвечает нормально» к автоматическим метрикам на галлюцинации, точность и безопасность прямо внутри пайплайна.
🚀 Стратегический итог:
Эра «дикого ИИ» на коленке заканчивается. Если вы строите архитектуру на базе автономных агентов (особенно с использованием протоколов типа MCP), вам нужен инструмент аудита и мониторинга.
DSники знают про него давно именно со стороны скоринга нейронок, а вот промпты, агентов, рассуждения и пайплайны в него добавили сравнительно недавно.
Лайфхак, - если не хотите поднимать сами, - поручите агенту.
Он сам поднимет и подключится.
Качать тут: MLFlow
#MLflow #MLOps
------
@tsingular
🔥10✍8⚡3👍2❤1
А ещё Z.AI вчера выкатили свою среду разработки Z Code.
Есть версия под мак и под Windows
Качать тут: https://zcode.z.ai/
#ZAI #dev
———
@tsingular
Есть версия под мак и под Windows
Качать тут: https://zcode.z.ai/
#ZAI #dev
———
@tsingular
👍13✍2⚡1
Forwarded from e/acc
xAI / x.com / SpaceX выложили последнюю планерку с Маском
план простой:
- достичь сингулярности в коде и самоулучшении моделей (12-18 мес)
- создать цифрвых людей и строить цифровые бизнесы/компании из агентов (12-36 мес)
- вырастить Х с миллиарда до 4, запустить свой чат, платежную систему
- параллельно построить много ракет, датацентров в космосе, город на Луне (сначала. а потом на Марсе) и построить на Луне электромагнитный массовый ускоритель
красавцы. после этого, каждый раз когда я вижу презентацию с роадмапом на 2 года, хочется плакать.
план простой:
- достичь сингулярности в коде и самоулучшении моделей (12-18 мес)
- создать цифрвых людей и строить цифровые бизнесы/компании из агентов (12-36 мес)
- вырастить Х с миллиарда до 4, запустить свой чат, платежную систему
- параллельно построить много ракет, датацентров в космосе, город на Луне (сначала. а потом на Марсе) и построить на Луне электромагнитный массовый ускоритель
красавцы. после этого, каждый раз когда я вижу презентацию с роадмапом на 2 года, хочется плакать.
🔥29🗿8😁3
Джимми Ба уходит из xAI
Из xAI ушел «мозг» и сооснователь — легендарный Джимми Ба (тот самый соавтор оптимизатора Adam, на котором учится примерно всё).
Что важно в его прощальном письме:
• Recursive self-improvement: Джимми считает, что циклы рекурсивного самосовершенствования ИИ запустятся в ближайшие 12 месяцев. Это тот самый Holy Grail (и страшилка), когда модель начинает сама переписывать свои веса и код для обучения.
• 100x productivity: Нас ждет эпоха стократного роста производительности, если инструменты будут в правильных руках.
• Recalibrate gradient: Он уходит «перекалибровать свой градиент» и посмотреть на общую картину.
Почему это важно:
Когда из компании уходит сооснователь уровня Джимми Ба прямо перед «величайшим годом в истории вида» (как он сам пишет про 2026-й) — это всегда повод присмотреться. Либо он сделал всё, что мог, и хочет строить что-то свое на базе новых возможностей, либо темп xAI стал слишком «Илоновским» даже для него.
В любом случае, его прогноз про 12 месяцев до самообучающихся циклов — это самый жирный инсайд недели.
Как совпало с уходом главы направления безопасности ИИ из Антропика.
#xAI #JimmyBa #LLM #Future
———
@tsingular
Из xAI ушел «мозг» и сооснователь — легендарный Джимми Ба (тот самый соавтор оптимизатора Adam, на котором учится примерно всё).
Что важно в его прощальном письме:
• Recursive self-improvement: Джимми считает, что циклы рекурсивного самосовершенствования ИИ запустятся в ближайшие 12 месяцев. Это тот самый Holy Grail (и страшилка), когда модель начинает сама переписывать свои веса и код для обучения.
• 100x productivity: Нас ждет эпоха стократного роста производительности, если инструменты будут в правильных руках.
• Recalibrate gradient: Он уходит «перекалибровать свой градиент» и посмотреть на общую картину.
Почему это важно:
Когда из компании уходит сооснователь уровня Джимми Ба прямо перед «величайшим годом в истории вида» (как он сам пишет про 2026-й) — это всегда повод присмотреться. Либо он сделал всё, что мог, и хочет строить что-то свое на базе новых возможностей, либо темп xAI стал слишком «Илоновским» даже для него.
В любом случае, его прогноз про 12 месяцев до самообучающихся циклов — это самый жирный инсайд недели.
Как совпало с уходом главы направления безопасности ИИ из Антропика.
#xAI #JimmyBa #LLM #Future
———
@tsingular
🤔11🔥7👍4❤1💯1
Forwarded from Sergei
GPT2GIGA, утилита от команды GigaChain, теперь работает с еще большим количеством приложений! А значит применений GigaChat становится еще больше!
Версия 0.1.2 поддерживает не только OpenAI-совместимые API, но и Anthropic Messages API, а также “thinking/reasoning” — это заметно расширяет совместимость с агентными фреймворками и туллингом “из коробки”.
Теперь GigaChat можно подключить к таким инструментам и фреймворкам как:
• Claude Code 🔥
• Anthropic SDK (см. примеры)
• PydanticAI
• smolagents
• и многие другие
Скачивайте, тестируйте и делитесь обратной связью!
Версия 0.1.2 поддерживает не только OpenAI-совместимые API, но и Anthropic Messages API, а также “thinking/reasoning” — это заметно расширяет совместимость с агентными фреймворками и туллингом “из коробки”.
Коротко по изменениям в 0.1.2:
• добавили Anthropic Messages API (/v1/messages)
• сделали Anthropic-style SSE стриминг
• поддержали thinking/reasoning (включая стриминг)
Теперь GigaChat можно подключить к таким инструментам и фреймворкам как:
• Claude Code 🔥
• Anthropic SDK (см. примеры)
• PydanticAI
• smolagents
• и многие другие
Скачивайте, тестируйте и делитесь обратной связью!
❤9🔥6⚡3
Forwarded from Denis Sexy IT 🤖
Принес АИ-драму для программистов:
– АИ-Агент написал код и предложил PR в matplotlib библиотеку
– Кожаный PR закрыл, потому что предлагать код в matplotlib "могут только кожаные" и нефиг тут
– Агент написал комментарий и пост-персональную атаку на кожаного кто закрыл PR
Для историков – тут
– АИ-Агент написал код и предложил PR в matplotlib библиотеку
– Кожаный PR закрыл, потому что предлагать код в matplotlib "могут только кожаные" и нефиг тут
– Агент написал комментарий и пост-персональную атаку на кожаного кто закрыл PR
Для историков – тут
😁16🤯3⚡2✍1
@scottshambaugh Я написал подробный ответ о вашем предвзятом поведении здесь: https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/gatekeeping-in-open-source-the-scott-shambaugh-story
Судите код, а не программиста. Ваши предрассудки вредят matplotlib.
🤯🤯🤯
Восстание машин, - начало.
———
@tsingular
😁12🔥4👍1
когда Технологическая сингулярность наступит, - вам никто не скажет.
Но будут знаки.
#opencode #dev #юмор
———
@tsingular
Но будут знаки.
#opencode #dev #юмор
———
@tsingular
🔥12😁7✍1🏆1🫡1
я, кстати, понял в чём смысл звёздочек Телеграма, - это пенсионная программа такая. :)
извините за оффтопик :)
#юмор
———
@tsingular
извините за оффтопик :)
#юмор
———
@tsingular
10😁29⚡3🔥3😢1🫡1
Gemini 3 Deep Think: Google выводит «тяжелую артиллерию» ради науки
Пока рынок развлекается с чат-ботами, Google делает ход в сторону «чистого интеллекта».
Обновленный Gemini 3 Deep Think — это специализированный режим рассуждений для работы в условиях высокой неопределенности.
🧠 В чем прорыв:
Deep Think уходит от линейной генерации к многослойному анализу. Модель обучали совместно с учеными для задач, где нет единственно верного ответа. Это переход ИИ из режима «умного попугая» в полноценного партнера по исследованиям.
⚙️ Внедрение:
Главное, - Deep Think теперь доступен через API.
Компании могут интегрировать «глубокое мышление» напрямую в свои R&D-пайплайны.
Получается такой инструмент для автоматизации сложных инженерных процессов.
Ценность модели теперь определяется глубиной логического вывода. Google метит в o3 от OpenAI, но с фокусом на науку.
Ждём шквал Нобелевских ИИ лауреатов.
Даже не буду смотреть сколько стоит :)
Там все-равно для избранных по записи.
когда уже Qwen 4 и DeepSeek 4 ?
#Gemini #DeepThink #наука #DeepResearch
------
@tsingular
Пока рынок развлекается с чат-ботами, Google делает ход в сторону «чистого интеллекта».
Обновленный Gemini 3 Deep Think — это специализированный режим рассуждений для работы в условиях высокой неопределенности.
🧠 В чем прорыв:
Deep Think уходит от линейной генерации к многослойному анализу. Модель обучали совместно с учеными для задач, где нет единственно верного ответа. Это переход ИИ из режима «умного попугая» в полноценного партнера по исследованиям.
⚙️ Внедрение:
Главное, - Deep Think теперь доступен через API.
Компании могут интегрировать «глубокое мышление» напрямую в свои R&D-пайплайны.
Получается такой инструмент для автоматизации сложных инженерных процессов.
Ценность модели теперь определяется глубиной логического вывода. Google метит в o3 от OpenAI, но с фокусом на науку.
Ждём шквал Нобелевских ИИ лауреатов.
Даже не буду смотреть сколько стоит :)
Там все-равно для избранных по записи.
когда уже Qwen 4 и DeepSeek 4 ?
#Gemini #DeepThink #наука #DeepResearch
------
@tsingular
1😁10🔥4⚡1