Big Data AI
18.9K subscribers
1.03K photos
140 videos
19 files
1.02K links
@haarrp - админ

Вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейроннным сетям

@data_analysis_ml - анализ данных

@ai_machinelearning_big_data

@itchannels_telegram - важное для программиста

РКН: clck.ru/3Fmqxe
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Опенсорс-аналог Claude Cowork, который работает локально и бесплатно

Разработчики выкатили Rowboat - open-source ИИ-коворкер, который позиционируют как замену Claude Cowork от Anthropic. Работает полностью локально, на вашей машине, с любой LLM на выбор.

Из интересного: поддержка голоса, расширяемость через MCP-тулы, совместимость с Obsidian-хранилищами, фоновые агенты с веб-поиском и автоматическое построение графа знаний по вашим заметкам и письмам.

Anthropic, кажется, начинают окружать со всех сторон. Пока они строят закрытую экосистему, комьюнити собирает аналоги на коленке и раздает бесплатно.

github.com/rowboatlabs/rowboat
9🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года: https://www.youtube.com/shorts/cvs93C4k-IQ

Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.

Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.

Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.

CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.

Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.

Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.

Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.

Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.

https://www.youtube.com/shorts/cvs93C4k-IQ
👍2👎2🤮21🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Шпаргалка Claude COde

CLAUDE.md — мозг проекта
Хранит архитектуру, правила и контекст. Загружается автоматически.

• Skills — навыки
Позволяют автоматизировать ревью, тесты, деплой и любые процессы.

• Hooks — автодействия
Запускают проверки и действия без твоего участия.

• Agents — параллельная работа
Разбивают задачи и выполняют их одновременно.

• Workflow
plan → execute → auto
Минимум ручной работы, максимум результата.

• Структура
.claude / skills / commands / agents
Всё как у полноценной инженерной системы.

• Безопасность
permissions, sandbox, контроль доступа.

Это уже не про «спросить у ИИ».
Это про «дать задачу и получить результат».

#claude #chatgpt #ai #ml #llm

https://youtube.com/shorts/J5NTBL7XVIE?
👍3
OpenAI превращает свой Mac-клиент Codex в универсальную AI-платформу - по сути «суперапп», где всё собрано в одном месте.

Это единая среда с агентами, мультимодальностью и гибким управлением моделями, но в более удобном интерфейсе.

Скорее всего, именно это сейчас и имеют в виду в OpenAI, когда говорят о своих новых планах.

https://x.com/chetaslua/status/2042325786120822931
👍31🔥1
🦀 Как сократить расходы на OpenClaw на 95% и платить $25 вместо $600

На Reddit регулярно появляются посты от пользователей OpenClaw с шокирующими счетами. $300 в месяц. $600 в месяц. Кто-то умудрился набить $3600 за один месяц. Покупают Mac Mini за $600, ставят OpenClaw, гоняют неделю, сжигают все токены и выключают. Большинство даже не понимает, куда уходят деньги. Каждое отправленное сообщение включает в себя всю историю диалога за сессию. К 50-му сообщению вы оплачиваете повторную отправку всех предыдущих сообщений через API снова и снова.

Heartbeat не обязан жрать токены Opus каждые 30 минут
Это про фоновые процессы, которые незаметно сжигают бюджет. По дефолту heartbeat срабатывает каждые 30 минут на той модели, которая выставлена основной - у большинства это по-прежнему Opus. Постоянный расход токенов идет независимо от того, сидите вы за компьютером или нет. Решение: переключить heartbeat на Minimax, снизить частоту до двух раз в день через cron вместо интервалов, включить light context mode, выставить isolated sessions в true и задать active hours, чтобы процесс работал только в рабочее время. Одно это убирает огромную часть фонового расхода.

Компактинг: одна команда срезает нагрузку токенов вдвое
Еще один скрытый множитель расходов прячется в истории переписки. Если вы общались с агентом весь день и контекстное окно заполнено на 50-70%, каждое новое сообщение гонит весь этот объем через API заново. Команда compact сжала контекст с 55K токенов до 23K - меньше половины нагрузки на каждое сообщение после этого. Параллельно стоит выставить max output tokens на 2048 в конфиге. Без этого ограничения агент может вернуть тысячи токенов в одном ответе, когда хватило бы пары сотен. Одна строчка в конфиге - и расход на вывод падает моментально.

QMD: поиск по файлам без загрузки в контекстное окно
Есть еще один источник мусорного расхода, который накапливается со временем. По мере того как у вас копятся markdown-файлы (заметки, конфиги агентов, память), агент перечитывает их все при каждом вопросе. Полный текст файлов грузится прямо в контекстное окно, сжигая токены на контент, который вообще не связан с вашим запросом. QMD решает эту проблему. Это локальный поисковый движок для markdown, который превращает заметки в индекс с ре-ранкингом. Агент находит нужное без загрузки целых файлов в контекст. Ставится с GitHub, добавляется в agents.md, и каждый файловый запрос начинает стоить копейки.

Итог: $600 превращаются в $25
Без оптимизации: Opus на каждом действии, heartbeat каждые 30 минут, полный контекст в каждом сообщении, без лимита на вывод, полное чтение файлов. $300-$600 в месяц. С оптимизацией: роутинг моделей через OpenRouter, авторежим для выбора по стоимости, дешевая модель на heartbeat через cron, регулярный компактинг, лимит вывода на 2048, QMD для поиска по файлам. $6-$25 в месяц. Тот же инструмент. Те же возможности.

Те, кто реально получает результат от ИИ-автоматизации, не тратят больше всех на токены. Они один раз настроили систему, взяли расходы под контроль и сфокусировались на построении воркфлоу, которые решают дорогие проблемы. Все шесть настроек занимают около 10 минут. Экономия начинается сразу.

https://vc.ru/ai/2862521-kak-sokratit-rashody-na-openclaw-na-95-i-platit-25-vmesto-600
🔥7🤨42👍1
🔱 Metatron: Пентест теперь делает ИИ за тебя

Это локальный ИИ-агент для аудита безопасности, который работает прямо на Linux без API и облаков. Даёшь IP или домен и он сам запускает весь пайплайн проверки.

Под капотом классика: nmap, whois, whatweb, curl, dig, nikto.

Но дальше интереснее. Агент не просто собирает данные, а анализирует их, находит уязвимости, подбирает возможные эксплойты и сразу даёт рекомендации по фиксам.

Это автоматизированный пентестер, который не забывает шаги, не устает и проходит сценарий до конца.

Мастхев для тех, кто занимается безопасностью или хочет быстро проверить свой проект.

https://github.com/sooryathejas/METATRON
🔥2
ВЫШЕЛ БЕСПЛАТНЫЙ КОНКУРЕНТ CLAUDE ДЛЯ АГЕНТОВ. GLM-5.1. Полный гайд по ее запуску: https://vc.ru/id5074146

Новая модель GLM-5.1, заточенная под агентные сценарии. Она не про быстрые ответы, а про длинную работу над задачей.

Ключевая фишка - может вести один таск до 8 часов подряд. По сути полный рабочий день без перезапусков и потери контекста.

В комплексных задачах показывает результаты выше, чем Claude Opus 4.6. Особенно там, где важна последовательная логика и планирование, а не разовые ответы. На бенчмарках модель выглядит очень круто вhttps://z.ai/blog/glm-5.1

Это уже не просто модель для чата. Это инструмент, который можно ставить на длительные процессы и получать результат без постоянного контроля.

Проный гайд; как её получить:

1 Создаём временную почту здесь. https://tempamail.com/

2 Создаём аккаунт тут через временную почту > подтверждаем через неё же https://fireworks.ai/

3 Вводим имя и фамилию (можно фейковые), тыкаем на ответы 2 вопросов рандомно.

4 Генерируем кредитку здесь, вписав значение bin 5154620022 и выбрав 1 рабочую из списка https://chkr.cc/

5 Возвращаемся на этот сайт, чтобы забрать GLM-5.1, вводим данные фейковой карты и забираем API-ключ. https://fireworks.ai/

6 Скачиваем OpenCode, в настройках выбираем провайдера Fireworks AI и вводим полученный API-ключ. Юзаем GLM-5.1 и опережаем всех работяг. Dd https://opencode.ai/

Хорошая бесплатная модель, рекумомендую!
6👍5🔥3🤔3🤡1😐1
Forwarded from Machinelearning
⚡️ MiniMax выложила M2.7 в открытый доступ.

Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.

За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.

Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.

Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.


🟡Инженерные бенчи тоже интересные

🟢На SWE-Pro M2.7 выдает 56,22% (паритет с GPT-5.3-Codex, а не с Sonnet 3.5, как сообщалось ранее).

🟢На SWE Multilingual 76,5 и Multi SWE Bench 52,7. VIBE-Pro - 55,6% (почти вровень с Opus 4.6).

🟢Terminal Bench 2 - 57,0%, NL2Repo - 39,8%.

🟢В офисной работе M2.7 держит ELO 1495 на GDPval-AA (лучший результат среди open-source и выше GPT-5.3).

🟢На Toolathon - 46,3%, на MM Claw - 62,7% (рядом с Sonnet 4.6) при 97% соблюдения инструкций на 40+ сложных скиллах.

Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.

Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.

Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Хочешь писать код быстрее в 10 раз?
Вот команды Claude Code, которые реально бустят работу.

Очистить контекст — /clear
Сжать историю — /compact
Закоммитить изменения — /commit

Развернуть приложение — /ship
Проверить код — /review
Протестировать — /test

Нашёл баги — /debug
Нужно улучшить код — /refactor
Сделать документацию — /docs

Не знаешь с чего начать — /plan
Хочешь разобраться — /explore
Нужно параллельно — /parallel

И для массовых задач — /batch

Сохрани эту шпаргалку, чтобы не потерять.
👍32🔥2💩1
🚀 Ты всё ещё называешь обёртку над ChatGPT «AI-продуктом»?

Пока ты пишешь промпты - рынок уже ушёл дальше.

Сейчас выигрывают не те, кто умеет красиво формулировать запросы, а те, кто строит агентные системы:
- принимают решения сами
- ходят в API
- работают с Postgres и Redis
- управляют браузером через Playwright
- доводят задачи до результата без человека

И вот правда, о которой мало говорят:

90% таких систем умирают между ноутбуком и продом.

Работает локально. Ломается в реальности.
Нет архитектуры. Нет устойчивости. Нет деплоя.

AI Agents Engineering - курс со Stepik, который закрывает этот разрыв.

- LangGraph, AutoGen, Computer Use
- архитектура агентов, а не «скрипты на коленке»
- LLMOps, логирование, стабильность
- деплой в Docker и работа в проде

8 модулей, 120+ шагов, всё через практику.

На выходе не «сертификат ради галочки», а:
- рабочий production-агент
- понимание, как строить такие системы с нуля
- навыки, за которые уже платят

Сейчас самое окно входа.
Через полгода это станет базой, а не преимуществом.

Скидка 55% действует ещё 48 часов: https://stepik.org/a/276971/
1👍1🔥1😁1
🧩 Визуализация работы агентов с Agent Flow

Agent Flow позволяет в реальном времени наблюдать за работой AI-агентов, таких как Claude Code. С помощью интерактивной визуализации вы сможете видеть, как агенты принимают решения, взаимодействуют и решают задачи, что упрощает отладку и обучение.

🚀 Основные моменты:
- Живое отображение работы агентов в виде графа
- Автоматическое обнаружение активных сессий Claude Code
- Поддержка нескольких сессий одновременно
- Интерактивный интерфейс для анализа действий агентов
- Поддержка JSONL логов для воспроизведения событий

📌 GitHub: https://github.com/patoles/agent-flow

#javascript
2👍1
Роскошный максимум: получить приглашение в команду SberAds за один день! 😉

Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:

✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)

Занимай место в проекте мечты!

* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
2👍2😁1
⭐️ Репозиторий всего с одним файлом для Claude Code набрал 36 000 звезд за 48 часов и в нем ни строчки кода!

В репозитории лежит только CLAUDE.md. Никаких фреймворков, никакой магии. 65 строк текста, которые перепрошивают поведение агента.

Это скилл, собранный по принципам Андрей Карпаты . Не про «как кодить», а про «как думать перед кодом».

Суть почти дерзко простая: сначала думай, потом пиши если не понял - спрашивай режь сложность до минимума не трогай лишнего держи фокус на задаче

И внезапно это работает сильнее, чем новые модели и жирные промпты.

Люди подключают файл - и агент перестаёт городить мусор. PR становятся чистыми, диффы короткими, исчезает самодеятельность. Он начинает вести себя как вменяемый разработчик, а не генератор случайных решений.

Фактически это чит-код: не менять модель, а поменять её мышление.

И да, похоже всё, к чему прикасается имя Карпаты, снова превращается в золото.

github.com/forrestchang/andrej-karpathy-skills
4👍1😁1