Осталось 10 дней регистрации на Agents Week — интенсив по созданию ИИ-агентов от ШАДа
Пять вечеров с лекциями и возможностью задавать вопросы экспертам, много и ещё раз много практики. Всё будет проходить с 6 по 10 апреля. За одну рабочую неделю погрузитесь в проектирование, настройку и продакшен ИИ-агентов.
Четыре главных итога интенсива:
→ минус рутина
→ минус времени на рабочие и личные задачи
→ плюс возможностей и креативности
→ плюс вайб от нетворкинга
Скорее регистрируемся по этой ссылке. Заявки принимают до 9 апреля включительно
Пять вечеров с лекциями и возможностью задавать вопросы экспертам, много и ещё раз много практики. Всё будет проходить с 6 по 10 апреля. За одну рабочую неделю погрузитесь в проектирование, настройку и продакшен ИИ-агентов.
Четыре главных итога интенсива:
→ минус рутина
→ минус времени на рабочие и личные задачи
→ плюс возможностей и креативности
→ плюс вайб от нетворкинга
Скорее регистрируемся по этой ссылке. Заявки принимают до 9 апреля включительно
❤4🤣2👏1🤔1
Парень переписал Claude Code на Python за ночь - и взорвал GitHub
Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.
Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.
За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.
Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации
Сейчас он уже работает над версией на Rust.
История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты
https://github.com/instructkr/claw-code
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.
Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.
За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.
Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации
Сейчас он уже работает над версией на Rust.
История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты
https://github.com/instructkr/claw-code
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
🔥25👍16❤6🤣4
С тебя — желание работать над передовой генеративной языковой моделью.
С нас — классные условия и возможность попасть в Сбер за один день! 😉
4 апреля состоится One Day Offer* для NLP-специалистов, которые готовы изменить представление о возможностях ИИ и создать технологию будущего.
За последний год твоя будущая команда:
✔️ выпустила сильную русскоязычную модель GigaChat MAX уровня GPT-4
✔️открыла доступ к MoE-модели
А следующее достижение может быть уже с твоим участием. Регистрируйся по ссылке и будь готов к карьерному взлёту!
* One Day Offer — предложение о работе за один день.
* NLP-специалист — инженер по разработке больших языковых моделей
С нас — классные условия и возможность попасть в Сбер за один день! 😉
4 апреля состоится One Day Offer* для NLP-специалистов, которые готовы изменить представление о возможностях ИИ и создать технологию будущего.
За последний год твоя будущая команда:
✔️ выпустила сильную русскоязычную модель GigaChat MAX уровня GPT-4
✔️открыла доступ к MoE-модели
А следующее достижение может быть уже с твоим участием. Регистрируйся по ссылке и будь готов к карьерному взлёту!
* One Day Offer — предложение о работе за один день.
* NLP-специалист — инженер по разработке больших языковых моделей
👍6🤣4🔥2🥰2👨💻2👌1🥴1🤨1
⚡️ OpenAI УНИЧТОЖЕН - правительство Индии обвиняет компанию в незаконном использовании рабского труда индийских программистов.
По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.
История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.
Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.
Звучит как громкое расследование.
Источник: Reuters/openaiindias.com
По «утечке», до 40% всех запросов по программированию якобы обрабатывает не GPT-5.4 Codex, а реальные разработчики из Индии, работающие в закрытых центрах в Корапуте.
История получила продолжение после «закрытия» Sora, якобы сотни аниматоров вышли наружу и рассказали, как всё устроено на самом деле.
Вишенка на торте - к теме даже «подключили» Трампа: он якобы заявил, что с американскими программистами у ChatGPT был бы шанс снова стать великим.
Звучит как громкое расследование.
Источник: Reuters/openaiindias.com
🤣131🔥10🥴6❤1
⚡️ 10 полностью бесплатных курсов по ИИ актуальных на 2026 год:
Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
Meta: http://ai.meta.com/resources
NVIDIA: http://developer.nvidia.com/training
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
Meta: http://ai.meta.com/resources
NVIDIA: http://developer.nvidia.com/training
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
👍8❤7🔥3
Forwarded from Machinelearning
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
@ai_machinelearning_big_data
#Gemma
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
@ai_machinelearning_big_data
#Gemma
🔥8👍4❤3
⚡️ Карпати собрал второй мозг на LLM
Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.
Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.
Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.
В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.
Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.
Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.
https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.
Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.
Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.
В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.
Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.
Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.
https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
❤29🔥20🤣5🙉5👍4