Илон Маск внезапно заявил, что мы вошли в эру сингулярности
Сингулярность в контексте прогресса – это момент, после которого темпы и характер развития становятся настолько быстрыми и качественно иными, что привычные модели прогнозирования и время перестают работать. По сути, момент, когда прогресс становится неуправляемым и меняет структуру человеческой цивилизации.
Кажется, в этом году девиз Маска – «впереди паровоза»
Сингулярность в контексте прогресса – это момент, после которого темпы и характер развития становятся настолько быстрыми и качественно иными, что привычные модели прогнозирования и время перестают работать. По сути, момент, когда прогресс становится неуправляемым и меняет структуру человеческой цивилизации.
Кажется, в этом году девиз Маска – «впереди паровоза»
2😁296 95❤🔥34❤18🤔16🗿11💯10👍8🔥4🤯2 2
This media is not supported in your browser
VIEW IN TELEGRAM
Claude смог вырастить помидор 😐
В стартапе Autoncorp (возможно, вам они известны: компания хайпанула на продаже автопортретов разных LLM) провели прикольный эксперимент. Они заставили Claude автономно вырастить куст помидора.
Агент анализировал изображение с камеры и сам управлял влажностью, температурой, поливом и тд. Он работал круглосуточно и проверял своего подопечного раз в 15-20 минут.
Однажды растение чуть не погибло из-за ошибки рекурсии в arduino, потому что надолго осталось без света и воды. Но Claude что-то покрутил, и всего за 13 минут куст восстал.
Судя по всему, скоро на нем должна появится первая помидорка. За трансляцией можно следить здесь.
Скоро сезон рассады, так что берите на заметку
В стартапе Autoncorp (возможно, вам они известны: компания хайпанула на продаже автопортретов разных LLM) провели прикольный эксперимент. Они заставили Claude автономно вырастить куст помидора.
Агент анализировал изображение с камеры и сам управлял влажностью, температурой, поливом и тд. Он работал круглосуточно и проверял своего подопечного раз в 15-20 минут.
Однажды растение чуть не погибло из-за ошибки рекурсии в arduino, потому что надолго осталось без света и воды. Но Claude что-то покрутил, и всего за 13 минут куст восстал.
Судя по всему, скоро на нем должна появится первая помидорка. За трансляцией можно следить здесь.
Скоро сезон рассады, так что берите на заметку
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥282😁83❤39 14👍10🤔9 7🤯5❤🔥3🗿2 2
Как научиться развертывать LLM до прода?
Отличный курс для тех, кто хочет не просто играться с LLM, а уметь заставлять их работать.
LLM — сложные системы. Промпты хороши для демо, но в реальных задачах нужны пайплайны, деплой под нагрузку и защита от сбоев. Этому мало где учат.
GIGASCHOOL и AI Talent Hub запустили курс «LLM-инженер»: это сильная программа обучения тому, как строятся и запускаются LLM-продукты в реальности. В меню:
— Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
— Инструменты: LangChain, LangGraph, векторные базы данных.
— Архитектуры: RAG-системы, информационный поиск, защита LLM-продуктов, LLMSecOps.
— MLOps: пайплайны, деплой, трекинг, версионирование моделей.
— Продвинутые темы: мультиагентные решения и AI-ассистенты.
Интенсивная практика с фокусом на архитектуру, стабильность, масштабирование и контроль качества → готовый собственный проект для портфолио, где вы управляете каждым этапом.
Стартует курс 26 января и продлится 25 недель с каникулами. В конце выдают диплом о профессиональной переподготовке.
Подробности и регистрация здесь – успевайте до повышения стоимости 7 января!
Реклама, АНО «ГИГА ШКОЛА», ИНН 7453352684, erid 2Vtzqub7yBg
Отличный курс для тех, кто хочет не просто играться с LLM, а уметь заставлять их работать.
LLM — сложные системы. Промпты хороши для демо, но в реальных задачах нужны пайплайны, деплой под нагрузку и защита от сбоев. Этому мало где учат.
GIGASCHOOL и AI Talent Hub запустили курс «LLM-инженер»: это сильная программа обучения тому, как строятся и запускаются LLM-продукты в реальности. В меню:
— Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
— Инструменты: LangChain, LangGraph, векторные базы данных.
— Архитектуры: RAG-системы, информационный поиск, защита LLM-продуктов, LLMSecOps.
— MLOps: пайплайны, деплой, трекинг, версионирование моделей.
— Продвинутые темы: мультиагентные решения и AI-ассистенты.
Интенсивная практика с фокусом на архитектуру, стабильность, масштабирование и контроль качества → готовый собственный проект для портфолио, где вы управляете каждым этапом.
Стартует курс 26 января и продлится 25 недель с каникулами. В конце выдают диплом о профессиональной переподготовке.
Подробности и регистрация здесь – успевайте до повышения стоимости 7 января!
Реклама, АНО «ГИГА ШКОЛА», ИНН 7453352684, erid 2Vtzqub7yBg
🗿43❤21🤨8🤯3👍1😁1
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Как использует Claude Code создатель Claude Code
Борис Черный запостил 13 советов, как выжать из Claude Code максимум. Напоминаем, что перед Новым Годом он заявил, что последние 30 дней 100% его кода ( в том числе контрибьютов в Claude Code) были написаны самим Claude Code.
В общем, мы подготовили краткий перевод. Может, найдете для себя полезное:
Маякните в комментариях, если есть, что добавить
https://x.com/bcherny/status/2007179832300581177?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
Борис Черный запостил 13 советов, как выжать из Claude Code максимум. Напоминаем, что перед Новым Годом он заявил, что последние 30 дней 100% его кода ( в том числе контрибьютов в Claude Code) были написаны самим Claude Code.
В общем, мы подготовили краткий перевод. Может, найдете для себя полезное:
1. Я запускаю 5 сессий Claude параллельно в терминале, нумерую вкладки и использую системные уведомления, чтобы понимать, когда Claude требуется input.
2. Параллельно держу 5–10 сессий в claude.ai/code вместе с локальными. По ходу работы перекидываю сессии между терминалом и вебом, а также регулярно запускаю сессии с телефона.
3. Для всего использую только Opus 4.5 с ризонингом. Несмотря на большую медлительность, из-за лучшего tool use и меньшей необходимости «рулить» модель в итоге почти всегда быстрее Sonet.
4. С командой мы используем файл CLAUDE.md. Каждый раз, когда Claude ошибается, мы дописываем правило, чтобы он не повторял эту ошибку.
5. Мы также обновляем CLAUDE.md во время ревью, тегая агента через @claude.
6. Большинство сессий начинаю в Plan mode. Если цель – Pull Request, мы с Claude итеративно доводим план до идеала, после чего я включаю auto-accept edits mode, и задача часто решается за один проход.
7. Для всех повторяющихся внутренних процессов я использую slash-команды. Они лежат в.claude/commands/и позволяют ускорить работу и переиспользовать готовые воркфлоу.
8. Я регулярно использую сабагентов: например, один упрощает код после правок, другой проверяет приложение end-to-end. Это автоматизация типовых шагов почти для каждого PR.
9. Мы используем PostToolUse hook для форматирования кода. Claude обычно пишет аккуратно, а хук закрывает последние 10%, чтобы избежать CI-ошибок.
10. Я не использую--dangerously-skip-permissions, а заранее разрешаю безопасные команды через/permissions. Эти настройки хранятся в.claude/settings.jsonи шарятся на команду.
11. Claude Code работает со всеми моими инструментами: Slack, BigQuery, Sentry и т.д. Конфигурации MCP (например, для Slack) лежат в.mcp.jsonи общие для команды.
12. Для долгих задач я прошу Claude проверить результат фоновым агентом, использую Stop hook или плагин ralph-wiggum. В песочнице могу включать --permission-mode=dontAsk, чтобы не тормозить агента.
13. Самое важное – дать Claude способ проверить свою работу. Наличие feedback loop увеличивает качество результата в 2–3 раза, будь то тесты, bash-команды или проверка UI в браузере.
Маякните в комментариях, если есть, что добавить
https://x.com/bcherny/status/2007179832300581177?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
❤114👍57🔥19🗿13😁8🤯6👌1🤝1
DeepMind теперь будут производить роботов совместно с Boston Dynamics
За основу возьмут модель Atlas, в нее планируется интегрировать Gemini Robotics. То есть за железо и так называемый athletic intelligence будут отвечать BD, а за базовые способности к рассуждению и планированию – Google.
Сильный коллаб
bostondynamics.com/blog/boston-dynamics-google-deepmind-form-new-ai-partnership/
За основу возьмут модель Atlas, в нее планируется интегрировать Gemini Robotics. То есть за железо и так называемый athletic intelligence будут отвечать BD, а за базовые способности к рассуждению и планированию – Google.
Сильный коллаб
bostondynamics.com/blog/boston-dynamics-google-deepmind-form-new-ai-partnership/
🔥191👍26❤14😁5👾2💯1🎄1
Cursor полностью переходят на динамический контекст для всех моделей
Об очень интересном и смелом обновлении сегодня объявили Cursor. Захотелось разобрать здесь его поподробнее.
Кратко: Cursor полностью отказываются от статического контекста и переходят к динамическому. Это значит, что агент (на базе любой модели) теперь будет в основном самостоятельно собирать себе контекст, а не пользоваться тем, что дали.
Static context – это классический подход. Ты вываливаешь агенту все и сразу: логи, документацию, историю чата, описания всех тулов, MCP и тд и тд. В целом, это работает, но в контексте таким образом оказывается куча нерелевантной информации, и он постоянно переполняется.
Теперь же Cursor предлагают Dynamic context discovery. Это когда в контекст кладется условное «оглавление» и ссылки, а остальное распихивается по файлам, и агент сам по мере надобности ходит в них и добавляет себе информации. Например:
Получается довольно красиво и практично. На A/B тестах общее потребление токенов снизилось на ~46.9%.
А еще это масштабируемо, потому что здесь контекст превращается из места, где лежат знания, в инструкцию, как их добывать.
https://cursor.com/blog/dynamic-context-discovery
Об очень интересном и смелом обновлении сегодня объявили Cursor. Захотелось разобрать здесь его поподробнее.
Кратко: Cursor полностью отказываются от статического контекста и переходят к динамическому. Это значит, что агент (на базе любой модели) теперь будет в основном самостоятельно собирать себе контекст, а не пользоваться тем, что дали.
Static context – это классический подход. Ты вываливаешь агенту все и сразу: логи, документацию, историю чата, описания всех тулов, MCP и тд и тд. В целом, это работает, но в контексте таким образом оказывается куча нерелевантной информации, и он постоянно переполняется.
Теперь же Cursor предлагают Dynamic context discovery. Это когда в контекст кладется условное «оглавление» и ссылки, а остальное распихивается по файлам, и агент сам по мере надобности ходит в них и добавляет себе информации. Например:
➖ Все же помнят, что когда контекст переполняется, Cursor делает шаг summarization и как бы обновляет окно? Так вот теперь, помимо этого, Cursor хранит chat history как файл. После суммаризации агент получает ссылку на этот файл, и если в summary какая-то нужная деталь потерялась, он может поискать по истории и дополнить себя.➖ Длинные ответы tool calls теперь тоже записываются в файлы, а не отправляются прямиком в контекст. В контексте появляется только ссылка на нужный вывод, а сам гигантский JSON лежит себе и ждет, пока агент обратиться к нему и поищет нужное с помощью условного grep или tail.➖ То же самое касается MCP, Agent Skill и терминальных сессий. Громоздкие описания инструментов и выводы терминала хранятся не в контексте, а в файлах. В контексте остается условное «Доступны MCP: jira, datadog, figma», и агент, если что-то ему нужно, уже идет в детальное описание и вызывает tool.
Получается довольно красиво и практично. На A/B тестах общее потребление токенов снизилось на ~46.9%.
А еще это масштабируемо, потому что здесь контекст превращается из места, где лежат знания, в инструкцию, как их добывать.
https://cursor.com/blog/dynamic-context-discovery
Please open Telegram to view this post
VIEW IN TELEGRAM
❤175🔥104👍59❤🔥6🤯4😎3☃2😁2
DeepSeek внезапно обновили статью годовой давности про DeepSeek-R1
Раньше в ней было 22 страницы, теперь же работа насчитывает 86 (!)
Ничего крайне необычного на дополнительных страницах, правда, не появилось: в основном все про эвал модели, self-evolution R1-Zero, дистилляцию и анализ способностей.
Если интересно, обновленная версия: https://arxiv.org/abs/2501.12948
Кстати, R1 вышла почти ровно год назад. Может, это знак, и в этом январе DeepSeek нам тоже что-нибудь завезут?
Раньше в ней было 22 страницы, теперь же работа насчитывает 86 (!)
Ничего крайне необычного на дополнительных страницах, правда, не появилось: в основном все про эвал модели, self-evolution R1-Zero, дистилляцию и анализ способностей.
Если интересно, обновленная версия: https://arxiv.org/abs/2501.12948
Кстати, R1 вышла почти ровно год назад. Может, это знак, и в этом январе DeepSeek нам тоже что-нибудь завезут?
3🔥106👍41😁15❤5🤯5🐳3👌2🫡2
OpenAI запускает ChatGPT Health
Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного:
– Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих врачей. Подчеркивается, что это все еще не замена врачам, а скорее инструмент для ориентации в данных (максимум может дать совет по питанию и прокомментировать анализы).
– Раздел изолирован отдельной памятью и усиленным шифрованием. Плюс эти чаты (пока что) не используются для обучения моделей OpenAI. Но помните: это не значит, что ваши данные не собирают.
– Есть интеграции с Apple Health, Peloton и другими релевантными приложениями. В перспективе это, конечно, огромная угроза всяким Oura Ring и Whoop.
Под капотом, как вы понимаете, специальной модели нет, просто другой системный промпт. Пока не очень понятно, чем это глобально отличается от временного ChatGPT чата, если не синхронизировать данные с приложениями. Но, возможно, кому-то будет актуально (нужен аккаунт США).
https://openai.com/index/introducing-chatgpt-health/
Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного:
– Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих врачей. Подчеркивается, что это все еще не замена врачам, а скорее инструмент для ориентации в данных (максимум может дать совет по питанию и прокомментировать анализы).
– Раздел изолирован отдельной памятью и усиленным шифрованием. Плюс эти чаты (пока что) не используются для обучения моделей OpenAI. Но помните: это не значит, что ваши данные не собирают.
– Есть интеграции с Apple Health, Peloton и другими релевантными приложениями. В перспективе это, конечно, огромная угроза всяким Oura Ring и Whoop.
Под капотом, как вы понимаете, специальной модели нет, просто другой системный промпт. Пока не очень понятно, чем это глобально отличается от временного ChatGPT чата, если не синхронизировать данные с приложениями. Но, возможно, кому-то будет актуально (нужен аккаунт США).
https://openai.com/index/introducing-chatgpt-health/
👍92❤36🔥14😁8✍4🤯4
Ученые из Университета Ватерлоо (Канада) впервые придумали способ безопасно сохранять и дублировать информацию в квантовых компьютерах
Раньше это считалось невозможным. Дело в том, что квантовую информация нельзя просто скопировать и вставить, как обычный файл.
Это фундаментальный закон квантовой физики – теорема о невозможности клонирования (no-cloning theorem). Она гласит, что невозможно создать механизм, который бы делал точную копию какого-либо квантового состояния.
Обойти это удалось с помощью шифрования информации. Сначала квантовые данные зашифровывают, и только потом копируют. Причем делать это можно сколько угодно раз, но есть нюанс: когда одна копия расшифровывается, ключ шифрования тут же физически разрушается, и больше его использовать нельзя. То есть все копии вскрываются как бы одновременно.
Если хотите разобраться в процессе подробнее, вот статья: uwaterloo.ca/news/media/scientists-discover-first-method-safely-back-quantum
Это, на самом деле, огромный шаг, потому что тут открываются виды и на квантовое облачное хранение, и на распределенные квантовые системы. Ух!
Раньше это считалось невозможным. Дело в том, что квантовую информация нельзя просто скопировать и вставить, как обычный файл.
Это фундаментальный закон квантовой физики – теорема о невозможности клонирования (no-cloning theorem). Она гласит, что невозможно создать механизм, который бы делал точную копию какого-либо квантового состояния.
Обойти это удалось с помощью шифрования информации. Сначала квантовые данные зашифровывают, и только потом копируют. Причем делать это можно сколько угодно раз, но есть нюанс: когда одна копия расшифровывается, ключ шифрования тут же физически разрушается, и больше его использовать нельзя. То есть все копии вскрываются как бы одновременно.
Если хотите разобраться в процессе подробнее, вот статья: uwaterloo.ca/news/media/scientists-discover-first-method-safely-back-quantum
Это, на самом деле, огромный шаг, потому что тут открываются виды и на квантовое облачное хранение, и на распределенные квантовые системы. Ух!
1🤯137👍39🔥20❤8😁4⚡1🤔1🗿1
Data Secrets
OpenAI запускает ChatGPT Health Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного: – Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих…
Первые отзывы на ChatGPT Health полетели
😁399❤28🤯13😎12