Теперь вы знаете, кого винить, если ИИ захватит мир
P.S. GPU действительно исторически появились для Quake и Half-Life 2. А, например, Демис Хассабис, глава ИИ в Google, начинал свою карьеру как геймдейвер. Вклад геймеров недооценен!⌨️
P.S. GPU действительно исторически появились для Quake и Half-Life 2. А, например, Демис Хассабис, глава ИИ в Google, начинал свою карьеру как геймдейвер. Вклад геймеров недооценен!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤192 62😁44🔥14💯11🆒3😎1
Вау: Meta купила китайский стартап Manus
Это разработчики того самого агента Manus, который хайпанул в марте этого года. К слову, он до сих пор выбивает соту на нескольких бенчмарках, и пользователей у них куча.
Вообще, компания базировалась в Китае, но после покупки связи со страной будут разорваны (в том числе с крупными инвесторами типа Tencent и Hongshan), и Manus продолжит независимо работать из Сингапура.
Сумму сделки не раскрывают, но аналитики оценивают ее примерно в два миллиарда долларов. И это еще не сильно дорого для стартапа, который всего за 8 месяцев достиг ARR в 100–125 млн долларов.
Самого агента Manus планируется интегрировать в продукты Meta. В целом, для Meta это логичная покупка: у них у единственных до сих пор нет своего ИИ-продукта, и это сильно отодвигает назад. Может, теперь мы наконец увидим крутого агента уже под флагом Цукерберга?
Это разработчики того самого агента Manus, который хайпанул в марте этого года. К слову, он до сих пор выбивает соту на нескольких бенчмарках, и пользователей у них куча.
Вообще, компания базировалась в Китае, но после покупки связи со страной будут разорваны (в том числе с крупными инвесторами типа Tencent и Hongshan), и Manus продолжит независимо работать из Сингапура.
Сумму сделки не раскрывают, но аналитики оценивают ее примерно в два миллиарда долларов. И это еще не сильно дорого для стартапа, который всего за 8 месяцев достиг ARR в 100–125 млн долларов.
Самого агента Manus планируется интегрировать в продукты Meta. В целом, для Meta это логичная покупка: у них у единственных до сих пор нет своего ИИ-продукта, и это сильно отодвигает назад. Может, теперь мы наконец увидим крутого агента уже под флагом Цукерберга?
❤76🔥32🤔23👍12 9 8😁5🤯3
Еще одно новогоднее ✨обещание✨ от Илона Маска: миллиардер заявил, что xAI в течение 5 лет будет иметь больше вычислительных мощностей, чем все остальные компании вместе взятые
Напоминаем, что сейчас в Мемфисе строится Colossus 2. Мощность датацентра уже превышает 400 МВт, а цель составляет 2 ГВт. Это будет первый в мире гигаватный дата-центр + прямо сейчас xAI привлекает $20 млрд на дополнительные GPU.
Верим?
Напоминаем, что сейчас в Мемфисе строится Colossus 2. Мощность датацентра уже превышает 400 МВт, а цель составляет 2 ГВт. Это будет первый в мире гигаватный дата-центр + прямо сейчас xAI привлекает $20 млрд на дополнительные GPU.
Верим?
🤯135😎39😁28 23❤21 19🗿8👍6🦄4🔥3🎄2
Yandex Cloud и Forbes запустили свою версию игры «Герои меча и магии» специально для CDO и дата-аналитиков
Можно сыграть за одного из персонажей и помочь решить его продуктовую задачу. Мы попробовали поиграть за Селину Маркетар: с ней надо найти лучшую локацию для размещения магазина. Для этого нужно передвигаться по карте и собирать нужные артефакты типа PostgreSQL, ClickHouse, DataLens и тд (у каждого героя набор свой).
Чтобы победить врага – в нашем случае Фантома Мертвой Локации – нужно собрать все артефакты. Их можно покупать за деньги данные, крафтить самостоятельно в кибер-кузнице или получать у хранителей, отвечая на вопросы по Data Science.
Внутри игры куча милых пасхалок на «Героев меча и магии», даже появляется ностальгия. В общем, тем, кто любит data-driven или играл в детстве в Героев, зайдет 100%.
Играть можно на десктопе и с телефона. В праздники – просто идеально, чтобы развлечься, вспомнить детство и заодно немного прокачать свои знания о работе с данными.
Играть тут
Можно сыграть за одного из персонажей и помочь решить его продуктовую задачу. Мы попробовали поиграть за Селину Маркетар: с ней надо найти лучшую локацию для размещения магазина. Для этого нужно передвигаться по карте и собирать нужные артефакты типа PostgreSQL, ClickHouse, DataLens и тд (у каждого героя набор свой).
Чтобы победить врага – в нашем случае Фантома Мертвой Локации – нужно собрать все артефакты. Их можно покупать за деньги данные, крафтить самостоятельно в кибер-кузнице или получать у хранителей, отвечая на вопросы по Data Science.
Внутри игры куча милых пасхалок на «Героев меча и магии», даже появляется ностальгия. В общем, тем, кто любит data-driven или играл в детстве в Героев, зайдет 100%.
Играть можно на десктопе и с телефона. В праздники – просто идеально, чтобы развлечься, вспомнить детство и заодно немного прокачать свои знания о работе с данными.
Играть тут
1🗿117🤨29❤21🔥11😁8 8✍2👍2🤗2🤯1👾1
Не очень радостную новость вам принесли под Новый Год, но что делать: реклама в ChatGPT точно будет, и довольно скоро
Об этом сообщает The Information, а в том, что касается инсайтов, они обычно не ошибаются.
Ранее, если помните, запуск рекламы отложился из-за «красного кода», который объявили в стартапе из-за накаленной ситуации с Google. Теперь же приоритет запуска рекламы в ChatGPT снова высокий.
Оказывается, уже готовы макеты для различных рекламных форматов. А это значит, что тестирование и, далее, запуск – уже близко.
Грустно, конечно, но, как ни крути, это всегда было вопросом времени. Реклама в ChatGPT – буквально золотая жила, и OpenAI точно не будет от нее отказываться, тем более при их уровне расходов.
Сейчас у чатбота уже 900 миллионов юзеров, к 2030 (по некоторым прикидкам) будет около 2.6 миллиардов. И о каждом пользователе будет известно: что он любит, чем пользуется, о чем говорит с ИИ. Чем вам не крупнейшая в истории рекламная империя, м?
Из хороших новостей: пока запускать рекламу планируют только на бесплатный тариф. Может кого-нибудь это утешит😐
Об этом сообщает The Information, а в том, что касается инсайтов, они обычно не ошибаются.
Ранее, если помните, запуск рекламы отложился из-за «красного кода», который объявили в стартапе из-за накаленной ситуации с Google. Теперь же приоритет запуска рекламы в ChatGPT снова высокий.
Оказывается, уже готовы макеты для различных рекламных форматов. А это значит, что тестирование и, далее, запуск – уже близко.
Грустно, конечно, но, как ни крути, это всегда было вопросом времени. Реклама в ChatGPT – буквально золотая жила, и OpenAI точно не будет от нее отказываться, тем более при их уровне расходов.
Сейчас у чатбота уже 900 миллионов юзеров, к 2030 (по некоторым прикидкам) будет около 2.6 миллиардов. И о каждом пользователе будет известно: что он любит, чем пользуется, о чем говорит с ИИ. Чем вам не крупнейшая в истории рекламная империя, м?
Из хороших новостей: пока запускать рекламу планируют только на бесплатный тариф. Может кого-нибудь это утешит
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем новогоднего настроения за наш счет!
31 декабря – самое время подводить итоги года. И специально для вас мы подготовили ИИ-бинго🎅
Пока на столе еще не стоит оливье – заполняйте его и делитесь результатами в комментариях.
Есть те, кто выбил 16/16?
31 декабря – самое время подводить итоги года. И специально для вас мы подготовили ИИ-бинго
Пока на столе еще не стоит оливье – заполняйте его и делитесь результатами в комментариях.
Есть те, кто выбил 16/16?
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁147🎄46❤24 14🔥4🗿4☃3
Чем заняться на январских?
Проснулись, улыбнулись, доели салаты и пытаемся не потерять время на новогодних совсем уж даром. Мы собрали для вас небольшую подборку полезного контента на выходные.
Если хочется что-нибудь посмотреть:
Если хочется поучиться:
Если хочется почитать:
Если ничего не хочется, просто читайте Data Secrets: тоже полезно🍿
Проснулись, улыбнулись, доели салаты и пытаемся не потерять время на новогодних совсем уж даром. Мы собрали для вас небольшую подборку полезного контента на выходные.
Если хочется что-нибудь посмотреть:
– Новая документалка The Thinking Game про DeepMind от Google. Отличный сюжет про Демиса Хассабиса и разработку легендарных систем вроде AlphaGo, AlphaZero и AlphaFold.
– Свежее интервью Ильи Суцкевера у Дваркеша Пателя. Это прямо must watch, каждый эпизод можно разбирать на цитаты.
– Отличный фильм про Python этого года. В нем, кстати, снялся сам создатель – Гвидо ван Россум. Внутри – история языка, как он зарождался, развивался, и почему ML вывел его в топ-1 ЯП мира.
Если хочется поучиться:
– Stanford CS230 | Autumn 2025: новый курс по глубокому обучению с легендарным Эндрю Ыном, детально охватывающий весь DL, начиная с перцептрона и заканчивая LLM. Доп.материалы к курсу здесь.
– Stanford CS224R | Spring 2025: хороший курс по RL для более продвинутых.
– Вот здесь мы делали подборку еще из 5 бесплатных ML/AI курсов от топовых университетов. Все не старше весны 2025 года, так что и информация, и код – актуальны.
– 12 курсов на любые ИИ-темы от Hugging Face.
Если хочется почитать:
– Отличная свежая книга по ML-системам от Гарварда. Про то, как строить, оптимизировать и поддерживать ML-решения на всех этапах – от данных и инфраструктуры до развертывания и эксплуатации. PDF, репозиторий.
– The Smol Training Playbook от HuggingFace. По сути, интерактивный хардовый гайд по тому, как с нуля обучить и захостить языковую модель.
– Книга Себастьяна Рашки по ML/DL, которую он недавно сделал бесплатной. 30 больших глав по нейросетям, компьютерному зрению, LLM, эвалу и методам деплоя моделей. Много практики, примеров, схем и картинок.
– Статьи из топа www.alphaxiv.org/: там все самое новое и популярное среди исследователей. Туда же – huggingface.co/papers: каждый день новый топ статей.
Если ничего не хочется, просто читайте Data Secrets: тоже полезно
Please open Telegram to view this post
VIEW IN TELEGRAM
4❤156👍39🎄21🔥12🤨8🤯2🗿1🆒1
DeepSeek предложили новую вариацию трансформера
Сегодня с вами разбираем свежую громкую статью под названием mHC: Manifold-Constrained Hyper-Connections от DeepSeek. В самой статье ну очень много математики, но мы попробуем разобрать идею на пальцах.
Священная корова трансформера – это residual connection (левая схема на скрине). Суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений.
В 2024 ученые из ByteDance предложили расширить residual connections и сделать их многопоточными (схема посередине на скрине). Теперь остаточная информация течет по нескольким "трубам", распределяется и перемешивается. Это называется Hyper-Connections, и такой подход немного раширяет топологию, позволяет потокам обмениваться "мыслями" и действительно дает какие-то приросты.
Но есть большой нюанс. Из-за HC в сети накапливается нестабильность. Матрицы H ничем не ограничены, и когда информация перемешивается, сигнал может резко усилиться или заглушиться. Это все приводит к тому, что HC не масштабируется на крупные модели.
Это и есть то, что в своей работе исправили DeepSeek. Они предложили хитрый математический хак, чтобы ограничить матрицу H_res, при этом не навредив эффективности метода. Дело в том, что ее ограничивают не просто значениями, а геометрией.
Авторы проецируют H_res на многообразие doubly-stochastic matrices(оно же Birkhoff polytope). Все элементы должны быть неотрицательные, суммы по строкам = 1, суммы по столбцам = 1 (совсем идеально эти свойства не выполняются, но итеративным алгоритмам матрицы к ним приближают). Основное свойство тут в том, что произведение таких матриц тоже doubly-stochastic, а еще у таких матриц среднее значение сигнала сохраняется по глубине.
То есть информация продолжает распространяться эффективно, но теперь еще и монотонно и без разрушения скейлинга. H_pre и H_post при этом так жестко ограничивать не надо, потому что они служат только для сбора и разброса сигнала по потокам и не передают сигнал между слоями.
Результаты:
– Стабильность улучшилась на три порядка. В mHC (DeepSeek) Amax Gain ≤ 1.6, при том что в обычном HC – примерно 3000
– Качество на reasoning-бенчмарках значимо усиливается, и выигрыш не исчезает при росте FLOPs
– При этом с оптимизированными ядрами по времени выходит всего +6.7% с четыремя потоками (считай, бесплатно)
Из минусов – сложности с инфраструктурой и дорогое масштабирование по количеству потоков.
www.alphaxiv.org/abs/2512.24880
Сегодня с вами разбираем свежую громкую статью под названием mHC: Manifold-Constrained Hyper-Connections от DeepSeek. В самой статье ну очень много математики, но мы попробуем разобрать идею на пальцах.
Священная корова трансформера – это residual connection (левая схема на скрине). Суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений.
В 2024 ученые из ByteDance предложили расширить residual connections и сделать их многопоточными (схема посередине на скрине). Теперь остаточная информация течет по нескольким "трубам", распределяется и перемешивается. Это называется Hyper-Connections, и такой подход немного раширяет топологию, позволяет потокам обмениваться "мыслями" и действительно дает какие-то приросты.
Но есть большой нюанс. Из-за HC в сети накапливается нестабильность. Матрицы H ничем не ограничены, и когда информация перемешивается, сигнал может резко усилиться или заглушиться. Это все приводит к тому, что HC не масштабируется на крупные модели.
Это и есть то, что в своей работе исправили DeepSeek. Они предложили хитрый математический хак, чтобы ограничить матрицу H_res, при этом не навредив эффективности метода. Дело в том, что ее ограничивают не просто значениями, а геометрией.
Авторы проецируют H_res на многообразие doubly-stochastic matrices(оно же Birkhoff polytope). Все элементы должны быть неотрицательные, суммы по строкам = 1, суммы по столбцам = 1 (совсем идеально эти свойства не выполняются, но итеративным алгоритмам матрицы к ним приближают). Основное свойство тут в том, что произведение таких матриц тоже doubly-stochastic, а еще у таких матриц среднее значение сигнала сохраняется по глубине.
То есть информация продолжает распространяться эффективно, но теперь еще и монотонно и без разрушения скейлинга. H_pre и H_post при этом так жестко ограничивать не надо, потому что они служат только для сбора и разброса сигнала по потокам и не передают сигнал между слоями.
Результаты:
– Стабильность улучшилась на три порядка. В mHC (DeepSeek) Amax Gain ≤ 1.6, при том что в обычном HC – примерно 3000
– Качество на reasoning-бенчмарках значимо усиливается, и выигрыш не исчезает при росте FLOPs
– При этом с оптимизированными ядрами по времени выходит всего +6.7% с четыремя потоками (считай, бесплатно)
Из минусов – сложности с инфраструктурой и дорогое масштабирование по количеству потоков.
www.alphaxiv.org/abs/2512.24880
👍143❤46🔥16🍓9🤯6🤨6😁5👏2🕊2🐳2
Первый скандал года, друзья 👩❤️👨
Ян Лекун публично назвал Александра Вана «неопытным» и предсказал, что из Meta будет уходить еще больше сотрудников.
В новом интервью с Financial Times Лекун сказал следующее:
Он также заявил, что Александр не хотел бы, чтобы Лекун рассказывал миру, что «LLM – это тупик» (а Лекун ох как любит это делать). «Но я не собираюсь отказываться от своего мнения, потому что какой-то чувак говорит мне, что я не прав. Я не не прав. И моя честность как ученого не позволяет мне молчать».
Напоминаем, что сам Ян в конце 2025 доработал свои последние дни в компании. Теперь ученый строит собственный стартап (подробности мы расписывали здесь)
Ян Лекун публично назвал Александра Вана «неопытным» и предсказал, что из Meta будет уходить еще больше сотрудников.
В новом интервью с Financial Times Лекун сказал следующее:
У него нет опыта работы с исследованиями или понимания того, как проводятся исследования, как ученые это делают. Нет понимания, что было бы привлекательным или отталкивающим для исследователя.
Он также заявил, что Александр не хотел бы, чтобы Лекун рассказывал миру, что «LLM – это тупик» (а Лекун ох как любит это делать). «Но я не собираюсь отказываться от своего мнения, потому что какой-то чувак говорит мне, что я не прав. Я не не прав. И моя честность как ученого не позволяет мне молчать».
Напоминаем, что сам Ян в конце 2025 доработал свои последние дни в компании. Теперь ученый строит собственный стартап (подробности мы расписывали здесь)
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135❤61💯22👍17 12🔥9✍1🤔1
Новогодние каникулы — когда можно без зазрения совести включить «Гарри Поттера», доесть салаты и позволить себе просто быть в режиме отдыха.
И в этом режиме особенно хорошо заходят вещи, которые не требуют усилий, иногда между фильмом и очередной кружкой чая появляется желание сделать для себя что-то еще — не напряженное, но полезное, связанное с профессией и будущим.
Data Holiday Box от karpovꓸcourses как раз для таких моментов: это записи вебинаров про аналитику, data и машинное обучение, где без спешки и лишней теории объясняют, как меняется рынок, какие инструменты и подходы уже сейчас влияют на работу аналитиков и что стоит держать в фокусе в ближайшие годы, чтобы вырасти в грейде и зарплате.
А тем, кто регистрируется, дополнительно открывается небольшой приятный бонус — подборка практичных материалов про собеседования, работу с нейросетями и другие полезности, которые помогают ориентироваться в профессии и чувствовать себя увереннее.
Доступ к Data Holiday Box бесплатный — просто регистрируйтесь и забирайте записи вебинаров: https://clc.to/erid_2W5zFGf8kcp
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGf8kcp
И в этом режиме особенно хорошо заходят вещи, которые не требуют усилий, иногда между фильмом и очередной кружкой чая появляется желание сделать для себя что-то еще — не напряженное, но полезное, связанное с профессией и будущим.
Data Holiday Box от karpovꓸcourses как раз для таких моментов: это записи вебинаров про аналитику, data и машинное обучение, где без спешки и лишней теории объясняют, как меняется рынок, какие инструменты и подходы уже сейчас влияют на работу аналитиков и что стоит держать в фокусе в ближайшие годы, чтобы вырасти в грейде и зарплате.
А тем, кто регистрируется, дополнительно открывается небольшой приятный бонус — подборка практичных материалов про собеседования, работу с нейросетями и другие полезности, которые помогают ориентироваться в профессии и чувствовать себя увереннее.
Доступ к Data Holiday Box бесплатный — просто регистрируйтесь и забирайте записи вебинаров: https://clc.to/erid_2W5zFGf8kcp
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGf8kcp
🗿38🤨16❤15🤯8👍4😁4🍓2
Forwarded from Data Secrets | Карьера
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁280🦄71🔥18 9❤7🎄4 4👨💻2⚡1🤯1🗿1
Илон Маск внезапно заявил, что мы вошли в эру сингулярности
Сингулярность в контексте прогресса – это момент, после которого темпы и характер развития становятся настолько быстрыми и качественно иными, что привычные модели прогнозирования и время перестают работать. По сути, момент, когда прогресс становится неуправляемым и меняет структуру человеческой цивилизации.
Кажется, в этом году девиз Маска – «впереди паровоза»
Сингулярность в контексте прогресса – это момент, после которого темпы и характер развития становятся настолько быстрыми и качественно иными, что привычные модели прогнозирования и время перестают работать. По сути, момент, когда прогресс становится неуправляемым и меняет структуру человеческой цивилизации.
Кажется, в этом году девиз Маска – «впереди паровоза»
2😁274 91❤🔥33❤18🤔16🗿10💯9👍7🔥4 2🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude смог вырастить помидор 😐
В стартапе Autoncorp (возможно, вам они известны: компания хайпанула на продаже автопортретов разных LLM) провели прикольный эксперимент. Они заставили Claude автономно вырастить куст помидора.
Агент анализировал изображение с камеры и сам управлял влажностью, температурой, поливом и тд. Он работал круглосуточно и проверял своего подопечного раз в 15-20 минут.
Однажды растение чуть не погибло из-за ошибки рекурсии в arduino, потому что надолго осталось без света и воды. Но Claude что-то покрутил, и всего за 13 минут куст восстал.
Судя по всему, скоро на нем должна появится первая помидорка. За трансляцией можно следить здесь.
Скоро сезон рассады, так что берите на заметку
В стартапе Autoncorp (возможно, вам они известны: компания хайпанула на продаже автопортретов разных LLM) провели прикольный эксперимент. Они заставили Claude автономно вырастить куст помидора.
Агент анализировал изображение с камеры и сам управлял влажностью, температурой, поливом и тд. Он работал круглосуточно и проверял своего подопечного раз в 15-20 минут.
Однажды растение чуть не погибло из-за ошибки рекурсии в arduino, потому что надолго осталось без света и воды. Но Claude что-то покрутил, и всего за 13 минут куст восстал.
Судя по всему, скоро на нем должна появится первая помидорка. За трансляцией можно следить здесь.
Скоро сезон рассады, так что берите на заметку
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥257😁76❤36 14👍10🤔9 6🤯4❤🔥3🗿2 1
Как научиться развертывать LLM до прода?
Отличный курс для тех, кто хочет не просто играться с LLM, а уметь заставлять их работать.
LLM — сложные системы. Промпты хороши для демо, но в реальных задачах нужны пайплайны, деплой под нагрузку и защита от сбоев. Этому мало где учат.
GIGASCHOOL и AI Talent Hub запустили курс «LLM-инженер»: это сильная программа обучения тому, как строятся и запускаются LLM-продукты в реальности. В меню:
— Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
— Инструменты: LangChain, LangGraph, векторные базы данных.
— Архитектуры: RAG-системы, информационный поиск, защита LLM-продуктов, LLMSecOps.
— MLOps: пайплайны, деплой, трекинг, версионирование моделей.
— Продвинутые темы: мультиагентные решения и AI-ассистенты.
Интенсивная практика с фокусом на архитектуру, стабильность, масштабирование и контроль качества → готовый собственный проект для портфолио, где вы управляете каждым этапом.
Стартует курс 26 января и продлится 25 недель с каникулами. В конце выдают диплом о профессиональной переподготовке.
Подробности и регистрация здесь – успевайте до повышения стоимости 7 января!
Реклама, АНО «ГИГА ШКОЛА», ИНН 7453352684, erid 2Vtzqub7yBg
Отличный курс для тех, кто хочет не просто играться с LLM, а уметь заставлять их работать.
LLM — сложные системы. Промпты хороши для демо, но в реальных задачах нужны пайплайны, деплой под нагрузку и защита от сбоев. Этому мало где учат.
GIGASCHOOL и AI Talent Hub запустили курс «LLM-инженер»: это сильная программа обучения тому, как строятся и запускаются LLM-продукты в реальности. В меню:
— Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
— Инструменты: LangChain, LangGraph, векторные базы данных.
— Архитектуры: RAG-системы, информационный поиск, защита LLM-продуктов, LLMSecOps.
— MLOps: пайплайны, деплой, трекинг, версионирование моделей.
— Продвинутые темы: мультиагентные решения и AI-ассистенты.
Интенсивная практика с фокусом на архитектуру, стабильность, масштабирование и контроль качества → готовый собственный проект для портфолио, где вы управляете каждым этапом.
Стартует курс 26 января и продлится 25 недель с каникулами. В конце выдают диплом о профессиональной переподготовке.
Подробности и регистрация здесь – успевайте до повышения стоимости 7 января!
Реклама, АНО «ГИГА ШКОЛА», ИНН 7453352684, erid 2Vtzqub7yBg
🗿40❤17🤨8🤯3👍1😁1
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Как использует Claude Code создатель Claude Code
Борис Черный запостил 13 советов, как выжать из Claude Code максимум. Напоминаем, что перед Новым Годом он заявил, что последние 30 дней 100% его кода ( в том числе контрибьютов в Claude Code) были написаны самим Claude Code.
В общем, мы подготовили краткий перевод. Может, найдете для себя полезное:
Маякните в комментариях, если есть, что добавить
https://x.com/bcherny/status/2007179832300581177?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
Борис Черный запостил 13 советов, как выжать из Claude Code максимум. Напоминаем, что перед Новым Годом он заявил, что последние 30 дней 100% его кода ( в том числе контрибьютов в Claude Code) были написаны самим Claude Code.
В общем, мы подготовили краткий перевод. Может, найдете для себя полезное:
1. Я запускаю 5 сессий Claude параллельно в терминале, нумерую вкладки и использую системные уведомления, чтобы понимать, когда Claude требуется input.
2. Параллельно держу 5–10 сессий в claude.ai/code вместе с локальными. По ходу работы перекидываю сессии между терминалом и вебом, а также регулярно запускаю сессии с телефона.
3. Для всего использую только Opus 4.5 с ризонингом. Несмотря на большую медлительность, из-за лучшего tool use и меньшей необходимости «рулить» модель в итоге почти всегда быстрее Sonet.
4. С командой мы используем файл CLAUDE.md. Каждый раз, когда Claude ошибается, мы дописываем правило, чтобы он не повторял эту ошибку.
5. Мы также обновляем CLAUDE.md во время ревью, тегая агента через @claude.
6. Большинство сессий начинаю в Plan mode. Если цель – Pull Request, мы с Claude итеративно доводим план до идеала, после чего я включаю auto-accept edits mode, и задача часто решается за один проход.
7. Для всех повторяющихся внутренних процессов я использую slash-команды. Они лежат в.claude/commands/и позволяют ускорить работу и переиспользовать готовые воркфлоу.
8. Я регулярно использую сабагентов: например, один упрощает код после правок, другой проверяет приложение end-to-end. Это автоматизация типовых шагов почти для каждого PR.
9. Мы используем PostToolUse hook для форматирования кода. Claude обычно пишет аккуратно, а хук закрывает последние 10%, чтобы избежать CI-ошибок.
10. Я не использую--dangerously-skip-permissions, а заранее разрешаю безопасные команды через/permissions. Эти настройки хранятся в.claude/settings.jsonи шарятся на команду.
11. Claude Code работает со всеми моими инструментами: Slack, BigQuery, Sentry и т.д. Конфигурации MCP (например, для Slack) лежат в.mcp.jsonи общие для команды.
12. Для долгих задач я прошу Claude проверить результат фоновым агентом, использую Stop hook или плагин ralph-wiggum. В песочнице могу включать --permission-mode=dontAsk, чтобы не тормозить агента.
13. Самое важное – дать Claude способ проверить свою работу. Наличие feedback loop увеличивает качество результата в 2–3 раза, будь то тесты, bash-команды или проверка UI в браузере.
Маякните в комментариях, если есть, что добавить
https://x.com/bcherny/status/2007179832300581177?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
❤96👍52🔥13🗿12😁8🤯5
DeepMind теперь будут производить роботов совместно с Boston Dynamics
За основу возьмут модель Atlas, в нее планируется интегрировать Gemini Robotics. То есть за железо и так называемый athletic intelligence будут отвечать BD, а за базовые способности к рассуждению и планированию – Google.
Сильный коллаб
bostondynamics.com/blog/boston-dynamics-google-deepmind-form-new-ai-partnership/
За основу возьмут модель Atlas, в нее планируется интегрировать Gemini Robotics. То есть за железо и так называемый athletic intelligence будут отвечать BD, а за базовые способности к рассуждению и планированию – Google.
Сильный коллаб
bostondynamics.com/blog/boston-dynamics-google-deepmind-form-new-ai-partnership/
🔥165👍24❤14😁3💯1🎄1👾1