Forwarded from Machinelearning
Agent Skills for Context Engineering - учим агентов «думать контекстом» 🤖🧠
Этот репозиторий показывает, как прокачать LLM-агентов так, чтобы они лучше понимали задачу, историю диалога и условия, а не просто генерировали ответы.
Чем полезен:
• навыки управления длинным контекстом
• аккуратное структурирование данных и инструкций
• шаблоны для поиска, фильтрации и принятия решений
• примеры реальных сценариев (чаты, задачи с памятью, интеграции)
Часто агенты теряют важные детали, путают шаги и «забывают» цель. Эта библиотека учит их держать контекст под контролем и действовать последовательнее.
▪Github: https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering
@ai_machinelearning_big_data
Этот репозиторий показывает, как прокачать LLM-агентов так, чтобы они лучше понимали задачу, историю диалога и условия, а не просто генерировали ответы.
Чем полезен:
• навыки управления длинным контекстом
• аккуратное структурирование данных и инструкций
• шаблоны для поиска, фильтрации и принятия решений
• примеры реальных сценариев (чаты, задачи с памятью, интеграции)
Часто агенты теряют важные детали, путают шаги и «забывают» цель. Эта библиотека учит их держать контекст под контролем и действовать последовательнее.
▪Github: https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering
@ai_machinelearning_big_data
👍6🔥4
🏆 Конкурс научных статей Data Fusion Awards 2026
Банк ВТБ и Институт ИИ МГУ ищут авторов работ, которые могут претендовать на звание научного прорыва года в ИИ, а также на главный приз — 1 000 000 рублей.
🤖 Какие темы подойдут:
— Математический аппарат ИИ
— Алгоритмы оптимизации
— Машинное обучение и глубокое обучение
— Нейроморфные вычисления
— Робототехника
— Объяснимый ИИ (Explainable AI)
— Другие смежные области, связанные с инновациями и развитием искусственного интеллекта
🙌 Кто может участвовать:
— Автор научной статьи, опубликованной в журналах или материалах конференций в 2025 году
— Заявитель, который имеет аффилиацию с российской организацией (и это упоминается в подаваемой работе)
— Участник, который является первым в списке авторов подаваемой статьи
Важно: должны быть выполнены все 3 условия!
Победителей будет трое, но для начала необходимо подать заявку. Регистрация доступна до 20 января 2026 года.
Банк ВТБ и Институт ИИ МГУ ищут авторов работ, которые могут претендовать на звание научного прорыва года в ИИ, а также на главный приз — 1 000 000 рублей.
🤖 Какие темы подойдут:
— Математический аппарат ИИ
— Алгоритмы оптимизации
— Машинное обучение и глубокое обучение
— Нейроморфные вычисления
— Робототехника
— Объяснимый ИИ (Explainable AI)
— Другие смежные области, связанные с инновациями и развитием искусственного интеллекта
🙌 Кто может участвовать:
— Автор научной статьи, опубликованной в журналах или материалах конференций в 2025 году
— Заявитель, который имеет аффилиацию с российской организацией (и это упоминается в подаваемой работе)
— Участник, который является первым в списке авторов подаваемой статьи
Важно: должны быть выполнены все 3 условия!
Победителей будет трое, но для начала необходимо подать заявку. Регистрация доступна до 20 января 2026 года.
❤4🤣3
📄 Превращайте тысячи PDF в данные, готовые для LLM - с Vision-First Agentic Document AI!
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
🤣6🔥3❤2
Компания ищет человека, который будет заранее продумывать и управлять рисками от быстро растущих возможностей ИИ.
Главная идея роли:
- понимать, где ИИ может пойти «не туда»
- предотвращать злоупотребления ИИ
- усиливать защиту кибербезопасности,
- закладывать правила для систем, которые умеют самоулучшаться
Это напряжённая и очень ответственная работа: мало примеров, много неизвестного - и высокий уровень влияния на решения.
По сути - задача проста по формулировке и сложна на практике: как развивать мощный ИИ и не дать ему причинить вред.
https://openai.com/careers/head-of-preparedness-san-francisco/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
⚡️ Neural Operator официально стал частью экосистемы PyTorch
PyTorch расширяет границы машинного обучения - в экосистему официально вошли Neural Operators.
Что это такое:
Neural Operators - это класс моделей, которые учатся не аппроксимировать данные, а аппроксимировать сами операторы. Проще говоря, они учатся решать целые классы задач, а не отдельные примеры.
Зачем это нужно:
- Решение дифференциальных уравнений
- Физическое моделирование
- Климат и погода
- CFD, материалы, биология
- Научные и инженерные симуляции
В отличие от обычных нейросетей:
- Neural Operators обобщаются на разные разрешения сетки
- Работают с непрерывными функциями
- Лучше подходят для задач, где данные описывают физические процессы
Что дает интеграция в PyTorch:
- Единый стандарт и API
- Совместимость с autograd, GPU и распределенным обучением
- Проще внедрять в реальные ML и scientific pipelines
- Меньше барьеров между research и production
PyTorch все больше становится не просто фреймворком для DL, а базовой платформой для научных вычислений и физически-осмысленного ИИ.
ML и scientific computing продолжают сближаться - и это один из самых сильных сигналов за последнее время.
Источник:
https://pytorch.org/blog/neuraloperatorjoins-the-pytorch-ecosystem/
PyTorch расширяет границы машинного обучения - в экосистему официально вошли Neural Operators.
Что это такое:
Neural Operators - это класс моделей, которые учатся не аппроксимировать данные, а аппроксимировать сами операторы. Проще говоря, они учатся решать целые классы задач, а не отдельные примеры.
Зачем это нужно:
- Решение дифференциальных уравнений
- Физическое моделирование
- Климат и погода
- CFD, материалы, биология
- Научные и инженерные симуляции
В отличие от обычных нейросетей:
- Neural Operators обобщаются на разные разрешения сетки
- Работают с непрерывными функциями
- Лучше подходят для задач, где данные описывают физические процессы
Что дает интеграция в PyTorch:
- Единый стандарт и API
- Совместимость с autograd, GPU и распределенным обучением
- Проще внедрять в реальные ML и scientific pipelines
- Меньше барьеров между research и production
PyTorch все больше становится не просто фреймворком для DL, а базовой платформой для научных вычислений и физически-осмысленного ИИ.
ML и scientific computing продолжают сближаться - и это один из самых сильных сигналов за последнее время.
Источник:
https://pytorch.org/blog/neuraloperatorjoins-the-pytorch-ecosystem/
❤20🔥8👍4
🎉 Yandex Cloud и Forbes совместно создали новогодний спецпроект-игру, вдохновленную классикой «Герои меча и магии», но с современным взглядом на работу с данными!
Вместо магии — PostgreSQL, ClickHouse, Trino, DataLens — все эти инструменты работают как артефакты в вашем распоряжении. Получайте их у хранителей, создавайте в кибер-кузнице и помогайте своим персонажам из сферы финтеха, ритейла и промышленности побеждать цель — победить хаос данных.
Проект — не только игра, но и демонстрация того, как Yandex Cloud помогает компаниям эффективно управлять данными. Играть можно на ПК и смартфонах.
Отличный вызов для всех CDO, аналитиков и дата-инженеров, кто хочет совместить полезное с ностальгическим!
👉 Поиграть и узнать больше
Вместо магии — PostgreSQL, ClickHouse, Trino, DataLens — все эти инструменты работают как артефакты в вашем распоряжении. Получайте их у хранителей, создавайте в кибер-кузнице и помогайте своим персонажам из сферы финтеха, ритейла и промышленности побеждать цель — победить хаос данных.
Проект — не только игра, но и демонстрация того, как Yandex Cloud помогает компаниям эффективно управлять данными. Играть можно на ПК и смартфонах.
Отличный вызов для всех CDO, аналитиков и дата-инженеров, кто хочет совместить полезное с ностальгическим!
👉 Поиграть и узнать больше
👍8❤3🔥3
Tesla стоит дороже, чем вся мировая автоиндустрия - вместе взятая 🚗⚡
Сегодня капитализация Tesla - примерно $1.62 трлн.
Вся глобальная автоиндустрия - около $1.33 трлн.
Иначе говоря, одна компания оценивается дороже, чем весь остальной рынок автомобилей.
Традиционные автопроизводители инвесторы воспринимают как зрелые промышленные бизнесы:
медленный рост, высокие капзатраты, жесткая конкуренция и ограниченные маржи.
С Tesla история другая.
Инвесторы платят за потенциал будущих направлений:
- автопилот и self-driving
- роботакси
- хранение и управление энергией
- робототехника
- новые высокомаржинальные сервисы
Фактически рынок считает, что :
> у Tesla - больше потенциала роста на каждую единицу будущего прогресса,
> чем у всей отрасли в целом.
И ещё один сигнал:
Tesla воспринимают как компанию,
которая способна превратить автомобиль в платформу -
где каждая новая функция (автономность, энергоинтеграция, эффективность производства)
повышает маржу и открывает новые источники дохода.
Это уже не просто автопроизводитель -
это ставка на то, что машины становятся программными продуктами на колёсах.
Сегодня капитализация Tesla - примерно $1.62 трлн.
Вся глобальная автоиндустрия - около $1.33 трлн.
Иначе говоря, одна компания оценивается дороже, чем весь остальной рынок автомобилей.
Традиционные автопроизводители инвесторы воспринимают как зрелые промышленные бизнесы:
медленный рост, высокие капзатраты, жесткая конкуренция и ограниченные маржи.
С Tesla история другая.
Инвесторы платят за потенциал будущих направлений:
- автопилот и self-driving
- роботакси
- хранение и управление энергией
- робототехника
- новые высокомаржинальные сервисы
Фактически рынок считает, что :
> у Tesla - больше потенциала роста на каждую единицу будущего прогресса,
> чем у всей отрасли в целом.
И ещё один сигнал:
Tesla воспринимают как компанию,
которая способна превратить автомобиль в платформу -
где каждая новая функция (автономность, энергоинтеграция, эффективность производства)
повышает маржу и открывает новые источники дохода.
Это уже не просто автопроизводитель -
это ставка на то, что машины становятся программными продуктами на колёсах.
🤔13🔥6❤3🌚2🤣2🥰1😱1
🚀 Agentic AI Crash Course: бесплатный курс про автономных AI-агентов
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
❤13🔥7👍4
🚨 DeepSeek уже в первый день года выкатывает сильное обновление: важное улучшение архитектуры трансформеров.
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
Перед блоком модель выбирает, какие потоки подать на вычисления.
Во время блока часть сигнала идёт «в обход»,
чтобы ничего не потерять.
После блока всё снова аккуратно объединяется.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
❤24🔥8👍4🤔1
🧠⚡ Исследование Carnegie Mellon: Cursor ускоряет разработку до 3–4x - но с ценой
Учёные из Carnegie Mellon проанализировали 807 репозиториев, где разработчики перешли на Cursor
(по конфигам вроде `.cursorrules`), и сравнили их с 1380 контрольными проектами - до и после внедрения.
Метод difference-in-differences:
сравнивали одни и те же репы *до/после*, плюс контролировали тренды по месяцам.
🚀 Что произошло с “скоростью кода”
Code Velocity = коммиты + строки кода.
- в первый месяц - скачок 3–5x по строкам
- в среднем после внедрения - +1.84x к скорости
ИИ реально ускоряет работу - и это измеряемо, а не ощущение.
🧩 Но есть побочные эффекты
Качество оценивали через SonarQube
(надёжность, поддерживаемость, безопасность, дубликаты, когнитивная сложность).
- статические предупреждения - +30%
- сложность кода - +41%
- через это скорость начинает проседать со временем
ИИ помогает писать больше - но не всегда лучше.
💡 Вывод
Cursor даёт реальный прирост продуктивности, особенно в начале.
Но выигрывают те, кто сочетает ИИ с:
- тестами
- код-ревью
- quality gates
- статанализом
ИИ-агенты - ускорители,
а качество всё ещё требует инженера.
arxiv.org/abs/2511.04427v2
Учёные из Carnegie Mellon проанализировали 807 репозиториев, где разработчики перешли на Cursor
(по конфигам вроде `.cursorrules`), и сравнили их с 1380 контрольными проектами - до и после внедрения.
Метод difference-in-differences:
сравнивали одни и те же репы *до/после*, плюс контролировали тренды по месяцам.
🚀 Что произошло с “скоростью кода”
Code Velocity = коммиты + строки кода.
- в первый месяц - скачок 3–5x по строкам
- в среднем после внедрения - +1.84x к скорости
ИИ реально ускоряет работу - и это измеряемо, а не ощущение.
🧩 Но есть побочные эффекты
Качество оценивали через SonarQube
(надёжность, поддерживаемость, безопасность, дубликаты, когнитивная сложность).
- статические предупреждения - +30%
- сложность кода - +41%
- через это скорость начинает проседать со временем
ИИ помогает писать больше - но не всегда лучше.
💡 Вывод
Cursor даёт реальный прирост продуктивности, особенно в начале.
Но выигрывают те, кто сочетает ИИ с:
- тестами
- код-ревью
- quality gates
- статанализом
ИИ-агенты - ускорители,
а качество всё ещё требует инженера.
arxiv.org/abs/2511.04427v2
👍18❤5🤔2