В выходные досмотрел новое интервью братьев Либерманов.
Очень интересный и глубокий разговор получился.
Из интересного они упомянули, что соцсети прозевали AI, и ChatGPT уже превращается в социальную сеть, и люди там проводят больше времени.
Несколько дней назад OpenAI запустила Group Chats (до 20 участников; ИИ-модератор/соавтор; пилот в Японии, Новой Зеландии, Южной Корее, Тайване) и тестирует Sora для генерации и обмена короткими видео в ленте с друзьями.
Даниил и Давид Либерманы - серийные предприниматели и инвесторы. Работали директорами по продукту в Snap, где занимались AR/аватарами, а их стартап Kernel AR был куплен Snap в 2016 году.
Они создали холдинг Libermans Co и запустили проекты Humanism (инвестирование «в людей») и Product Science - сервис ускорения мобильных приложений, привлёкший $17,5 млн.
Но, по сути, всё поставили на паузу и приоритезировали новый проект Gonka.ai по созданию децентрализованной сети AI-вычислений, где владельцы вычислительных мощностей получат криптовалюту в качестве компенсации.
Как и Дуров с TON и Cocoon: парни верят, что смогут быстро набрать обороты и уже подключили 450 GPU в свой проект.
Экономика их проекта выглядит разумно:
Почитал их документы: прошли путь гораздо быстрее, чем Дуров с 1 млрд пользователей и текущим фокусом на бессмысленные подарки и NFT, которые являются единственной пока осязаемой, кроме криптобирж, ценностью для TON.
Напишите в личку @Mkitt, если кто-то запустил ноды для их сети, чтобы намайнить монет раньше всех.
Интересен реальный опыт использования децентрализованных вычислительных мощностей.
@maxvotek | linkedin | substack
Очень интересный и глубокий разговор получился.
Из интересного они упомянули, что соцсети прозевали AI, и ChatGPT уже превращается в социальную сеть, и люди там проводят больше времени.
Несколько дней назад OpenAI запустила Group Chats (до 20 участников; ИИ-модератор/соавтор; пилот в Японии, Новой Зеландии, Южной Корее, Тайване) и тестирует Sora для генерации и обмена короткими видео в ленте с друзьями.
Даниил и Давид Либерманы - серийные предприниматели и инвесторы. Работали директорами по продукту в Snap, где занимались AR/аватарами, а их стартап Kernel AR был куплен Snap в 2016 году.
Они создали холдинг Libermans Co и запустили проекты Humanism (инвестирование «в людей») и Product Science - сервис ускорения мобильных приложений, привлёкший $17,5 млн.
Но, по сути, всё поставили на паузу и приоритезировали новый проект Gonka.ai по созданию децентрализованной сети AI-вычислений, где владельцы вычислительных мощностей получат криптовалюту в качестве компенсации.
Как и Дуров с TON и Cocoon: парни верят, что смогут быстро набрать обороты и уже подключили 450 GPU в свой проект.
Экономика их проекта выглядит разумно:
Аренда GPU за $2/час ($50/день) даёт при ~100 ед./час себестоимость ≈ $0,02.
У корпораций из-за амортизации и маржи это ×2–3 дороже, тогда как в децентрализованной сети добавляется лишь 10–20 % комиссии (≈ $0,022–0,024/ед.).
Почитал их документы: прошли путь гораздо быстрее, чем Дуров с 1 млрд пользователей и текущим фокусом на бессмысленные подарки и NFT, которые являются единственной пока осязаемой, кроме криптобирж, ценностью для TON.
Напишите в личку @Mkitt, если кто-то запустил ноды для их сети, чтобы намайнить монет раньше всех.
Интересен реальный опыт использования децентрализованных вычислительных мощностей.
@maxvotek | linkedin | substack
❤16👍11🔥6😁2
SMOL Playbook от Hugging Face: как тренировать LLM
Большой документ с отличным переводом от Сергея Долгова о том, как на практике тренировать LLM: выбрать архитектуру, подготовить данные и оптимизировать бюджет на вычисления.
Полезно тем, кто:
• делает компактную модель под конкретную бизнес-задачу;
• работает в стартапе с ограниченным бюджетом;
• хочет понять, почему одни LLM работают, а другие нет.
Интересные выводы:
1) Готовые модели не подходят, если у вас узкий домен (ДНК, юриспруденция, фарма), особые требования к безопасности и приватности, специфические регуляции индустрии или нужна гарантия того, на чём модель обучена.
2) Лучше использовать готовые модели с открытыми весами, и только если они не справились с задачей при помощи промптов и/или дообучения, имеет смысл учить свою.
3) Дообучение на 1 трлн токенов дешевле, чем обучение с нуля на 10 трлн.
Хорошая книга на ночь для тех, кто строит свои AI-системы или планирует вывести их на новый уровень.
@maxvotek | linkedin | substack
Большой документ с отличным переводом от Сергея Долгова о том, как на практике тренировать LLM: выбрать архитектуру, подготовить данные и оптимизировать бюджет на вычисления.
Полезно тем, кто:
• делает компактную модель под конкретную бизнес-задачу;
• работает в стартапе с ограниченным бюджетом;
• хочет понять, почему одни LLM работают, а другие нет.
Интересные выводы:
1) Готовые модели не подходят, если у вас узкий домен (ДНК, юриспруденция, фарма), особые требования к безопасности и приватности, специфические регуляции индустрии или нужна гарантия того, на чём модель обучена.
2) Лучше использовать готовые модели с открытыми весами, и только если они не справились с задачей при помощи промптов и/или дообучения, имеет смысл учить свою.
3) Дообучение на 1 трлн токенов дешевле, чем обучение с нуля на 10 трлн.
Хорошая книга на ночь для тех, кто строит свои AI-системы или планирует вывести их на новый уровень.
@maxvotek | linkedin | substack
👍21🔥9❤3👎1
Как влиять на лиса через контент (и почему без его окружения вы всё равно не пройдёте)
В одной из моих любимых книг Power Base Selling есть персонаж FOX - «лис». Не самый высокий титул, но человек, на котором сходятся влияние, доверие и неформальная власть, открывающая дверь вашему проекту внутри компании.
Размышляя о том, как можно влиять на лиса до первой встречи - через контент.
Что интересно лису? Не фичи продукта.
Его интересует:
P&L компании и личный риск: как это повлияет на выручку, маржу, что произойдёт, если эксперимент не взлетит, как он объяснит это борду.
Политика внутри компании: кого это усилит, кто будет сопротивляться, какие конфликты вы снимаете.
Карьера и репутация: станет ли он человеком, который «притащил новый уровень игры», или тем, кто «сжёг бюджет на игрушки».
Опыт его стаи: что делают его коллеги в других глобальных компаниях, какие кейсы сработали для них?
Простые рамки для сложных решений: как принять решение по 1–2 критериям, как объяснить это CFO в двух слайдах.
Как работает влияние:
Влияние начинается не с интро или встречи. Оно начинается с того, насколько глубоко вы интегрированы в инфополе лиса и его окружения.
Контент, клубы, закрытые форматы - способ зайти в комнату, куда у вас формально нет доступа.
@maxvotek | linkedin | substack
В одной из моих любимых книг Power Base Selling есть персонаж FOX - «лис». Не самый высокий титул, но человек, на котором сходятся влияние, доверие и неформальная власть, открывающая дверь вашему проекту внутри компании.
Размышляя о том, как можно влиять на лиса до первой встречи - через контент.
Что интересно лису? Не фичи продукта.
Его интересует:
P&L компании и личный риск: как это повлияет на выручку, маржу, что произойдёт, если эксперимент не взлетит, как он объяснит это борду.
Политика внутри компании: кого это усилит, кто будет сопротивляться, какие конфликты вы снимаете.
Карьера и репутация: станет ли он человеком, который «притащил новый уровень игры», или тем, кто «сжёг бюджет на игрушки».
Опыт его стаи: что делают его коллеги в других глобальных компаниях, какие кейсы сработали для них?
Простые рамки для сложных решений: как принять решение по 1–2 критериям, как объяснить это CFO в двух слайдах.
Как работает влияние:
1. Писать не «для лиса», а для его окружения
Лис может не читать ваш контент. Но читают его коллеги, консультанты, люди из круга. Они и становятся мостом: «Посмотри, это про нашу проблему».
2. Делать лиса героем будущей истории
Лис покупает сценарии, где он выигрывает политически. Контент показывает путь лидера, который увидел тренд раньше других и провёл инициативу через сопротивление.
3. Давать язык для защиты идеи
Сильный контент, инфографика, когда ваш абзац оказывается в его письме CFO. Когда ваш фреймворк в его аргументации для глобала.
4. Работать с его стаей
Power Base Selling подчёркивает: лис не один. У него есть окружение - правая рука, head of strategy, внешний эксперт. Если вы влияете на них - вы влияете и на него.
5. Клуб инноваторов как вход в круг доверия
Закрытые встречи, где его люди делятся кейсами. Вы даёте площадку для выступлений, честно обсуждаете провалы. Перестаёте быть вендором, становитесь хозяином пространства, где его окружение чувствует себя услышанным.
Через такой клуб вы попадаете в inner circle, где лисы принимают решения неформально, без протоколов. Вы уже не стучитесь снаружи, сидите за тем же столом.
6. Соцдоказательство его уровня
Контент показывает, что с вами разговаривают люди его масштаба: VP из глобальных фарм, директора по digital. Сигнал: «Если такие общаются с ним, значит, он свой».
7. Малые форматы
У него может быть другая информационная структура: внутренний Slack/Teams топов, короткая инфографика, слайды. Создавайте контент, который удобно пересылать внутрь его круга.
8. Стратегическая позиция, не хаос
Лисы не доверяют тем, кто прыгает по трендам. Последовательно развиваете одну тему, становитесь частью его карты мира.
Влияние начинается не с интро или встречи. Оно начинается с того, насколько глубоко вы интегрированы в инфополе лиса и его окружения.
Контент, клубы, закрытые форматы - способ зайти в комнату, куда у вас формально нет доступа.
@maxvotek | linkedin | substack
🔥15👍7❤3
Провал Novo Nordisk в лечении Альцгеймера - пора ли покупать акции при текущей оценке?
Клинические испытания Novo Nordisk на 4 000 пациентах с Альцгеймером показали улучшение биомаркеров, но нулевой клинический эффект.
Пациенты не ощутили замедления болезни, несмотря на измеримые изменения в патологических маркерах.
Этот разрыв между биологическими маркерами и реальными результатами - одна из самых сложных головоломок в разработке лекарств.
Акции упали на 10%, частично восстановились и остались на 7% ниже. Рынки не терпят итеративного процесса, свойственного нейронауке.
Оценка выглядит привлекательно:
Если спрос на GLP-1 сохранится и Novo стабилизирует поставки, более низкий мультипликатор плюс более высокая доходность дают больше преимуществ, чем заложенное в цену преимущество Eli Lilly - учитывая реальные риски вокруг мощностей производства, конкуренции и регулирования.
Разработка лекарств требует терпения. Того же терпения, которое создаёт интересные долгосрочные преимущества.
(Это мой собственный анализ, не инвестиционный совет).
@maxvotek | linkedin | substack
Клинические испытания Novo Nordisk на 4 000 пациентах с Альцгеймером показали улучшение биомаркеров, но нулевой клинический эффект.
Пациенты не ощутили замедления болезни, несмотря на измеримые изменения в патологических маркерах.
Этот разрыв между биологическими маркерами и реальными результатами - одна из самых сложных головоломок в разработке лекарств.
Акции упали на 10%, частично восстановились и остались на 7% ниже. Рынки не терпят итеративного процесса, свойственного нейронауке.
Оценка выглядит привлекательно:
Novo торгуется по ~13x forward P/E против ~33x у Lilly - массивная премия уже закладывает очень высокий рост для Lilly.
Если спрос на GLP-1 останется сильным и Novo выполнит план, переоценка будет в пользу Novo.
Рентабельность у обоих TOP элитных игроков рынка: Novo показывает ~33% чистой маржи против ~31% у Lilly. Дисконт не связан со слабыми фундаментальными показателями.
Дивидендная доходность Novo ~2.4% против ~0.4% у Lilly. Хорошая премия за терпение.
Снижение произошло из-за снижения прогнозов и давления Zepbound - риски, которые рынок, возможно, уже заложил в цену. Если поставки и выполнение заказов улучшатся, акция Novo выглядит еще более привлекательной по этой цене.
Если спрос на GLP-1 сохранится и Novo стабилизирует поставки, более низкий мультипликатор плюс более высокая доходность дают больше преимуществ, чем заложенное в цену преимущество Eli Lilly - учитывая реальные риски вокруг мощностей производства, конкуренции и регулирования.
Разработка лекарств требует терпения. Того же терпения, которое создаёт интересные долгосрочные преимущества.
(Это мой собственный анализ, не инвестиционный совет).
@maxvotek | linkedin | substack
👍15❤8🔥7
Послушал большое интервью Ильи Суцкевера и снова вернулся к мысли, которая давно меня не отпускает.
Модели впечатляют на демках, eval'ы зашкаливают, но в реальных задачах мы всё ещё живём в мире повторяющихся багов, нелепых ошибок и придуманных на ходу фактов.
Это резонирует с тем, о чём я уже писал: в исследовании по олимпиадному программированию чемпионы-олимпиадники спокойно обгоняют LLM в сложных задачах - особенно там, где нужны неожиданные инсайты, работа с частными случаями и живая адаптация.
Там же интересный вывод: одной модели мало - на олимпиадах обычно побеждает связка ролей: быстрый кодер-спринтер, алгоритмист и инсайтер, который видит нестандартные ходы.
Я тогда предположил, что будущее - не в одном гигантском LLM, а в нескольких агентных ролях, работающих как команда.
Суцкевер в интервью описывает ту же проблему, только на уровне всей индустрии.
Последние годы все жили под одним лозунгом: «Возьми ту же идею и залей её вычислительной мощностью». Больше параметров, больше данных, больше GPU.
Сейчас мощности уже такие, что добавить ещё 10х - это миллиарды, а не ещё одна ферма, и Илья честно говорит: мы возвращаемся в эпоху исследований, просто с очень большими компьютерами.
То есть железо перестаёт быть узким местом. Узкое место - идеи, как вообще учить и строить эти системы.
У Ильи классный пример про двух студентов. Один 10 000 часов долбит задачи по competitive programming, знает все трюки, все алгоритмы, выигрывает турниры.
Второй позанимался 100 часов, но у него есть чутьё - он понимает, как всё устроено, и дальше уже хорошо растёт в реальном мире.
Мы чудовищно переобучаем их на узкие задачи: код, eval'ы, RL под конкретную метрику.
Отсюда и тот эффект, который все видели: на тестах - сверхчеловек, в продукте - модель исправляет баг, добавляя новый, и зацикливается между вариантами.
Это напрямую перекликается с тем, что показывало исследование по олимпиадам: модели хорошо воспроизводят шаблоны и типовые конструкции, но проваливаются там, где нужен неожиданный взгляд, работа с особыми случаями и комбинация нескольких идей. Там люди пока гораздо надёжнее.
Мы, в отличие от моделей, не живём в формате обучился - заморозился.
Человек постоянно ловит обратную связь, переоценивает опыт, меняет стратегию, встраивает ошибки в интуицию, развивает насмотренность.
У нас есть что-то вроде встроенного value function - эмоции, вкус, ощущение сюда точно не надо, даже если никто не выдал нам формальных наград или признания.
У моделей этого пока нет. Они огромные, но по сути статичные: их мозг заморожен в момент релиза, дальше - донастройки и патчи.
Как Суцкевер видит AGI:
Мои выводы:
1. Вычисления потеряли свою магию в моменте - привет NVIDIA.
2. Пора менять парадигму.
Эпоха масштабируем то, что есть даёт всё меньше отдачи. Дальше нужно менять сам способ обучения и архитектуру систем.
3. AGI как готовый продукт - неверная метафора.
Настоящий сдвиг случится, когда мы перестанем думать как натренировать всё сразу и начнём думать как создать условия для систем жить, учиться и сотрудничать, как это делают люди в командах.
Радует, что наступает этап, когда снова нужны смелые идеи и дерзкие учёные.
@maxvotek | linkedin | substack
Если у нас нет дефицита идей и денег, то почему прогресс в AI ощущается таким медленным и неравномерным?
Модели впечатляют на демках, eval'ы зашкаливают, но в реальных задачах мы всё ещё живём в мире повторяющихся багов, нелепых ошибок и придуманных на ходу фактов.
Это резонирует с тем, о чём я уже писал: в исследовании по олимпиадному программированию чемпионы-олимпиадники спокойно обгоняют LLM в сложных задачах - особенно там, где нужны неожиданные инсайты, работа с частными случаями и живая адаптация.
Там же интересный вывод: одной модели мало - на олимпиадах обычно побеждает связка ролей: быстрый кодер-спринтер, алгоритмист и инсайтер, который видит нестандартные ходы.
Я тогда предположил, что будущее - не в одном гигантском LLM, а в нескольких агентных ролях, работающих как команда.
Суцкевер в интервью описывает ту же проблему, только на уровне всей индустрии.
Эпоха масштабирования мощностей закончилась
Последние годы все жили под одним лозунгом: «Возьми ту же идею и залей её вычислительной мощностью». Больше параметров, больше данных, больше GPU.
Сейчас мощности уже такие, что добавить ещё 10х - это миллиарды, а не ещё одна ферма, и Илья честно говорит: мы возвращаемся в эпоху исследований, просто с очень большими компьютерами.
То есть железо перестаёт быть узким местом. Узкое место - идеи, как вообще учить и строить эти системы.
Модели как «перекачанные олимпиадники»
У Ильи классный пример про двух студентов. Один 10 000 часов долбит задачи по competitive programming, знает все трюки, все алгоритмы, выигрывает турниры.
Второй позанимался 100 часов, но у него есть чутьё - он понимает, как всё устроено, и дальше уже хорошо растёт в реальном мире.
Сегодня модели - это первый студент, только на стероидах.
Мы чудовищно переобучаем их на узкие задачи: код, eval'ы, RL под конкретную метрику.
Отсюда и тот эффект, который все видели: на тестах - сверхчеловек, в продукте - модель исправляет баг, добавляя новый, и зацикливается между вариантами.
Это напрямую перекликается с тем, что показывало исследование по олимпиадам: модели хорошо воспроизводят шаблоны и типовые конструкции, но проваливаются там, где нужен неожиданный взгляд, работа с особыми случаями и комбинация нескольких идей. Там люди пока гораздо надёжнее.
У людей pre-training никогда не заканчивается
Мы, в отличие от моделей, не живём в формате обучился - заморозился.
Человек постоянно ловит обратную связь, переоценивает опыт, меняет стратегию, встраивает ошибки в интуицию, развивает насмотренность.
У нас есть что-то вроде встроенного value function - эмоции, вкус, ощущение сюда точно не надо, даже если никто не выдал нам формальных наград или признания.
У моделей этого пока нет. Они огромные, но по сути статичные: их мозг заморожен в момент релиза, дальше - донастройки и патчи.
Как Суцкевер видит AGI:
«Будущее AGI - это система, которая учится как человек: один и тот же базовый разум может быстро осваивать разные профессии, постоянно дообучаясь в реальном мире, а не готовый мозг, который знает всё из коробки».
Мои выводы:
1. Вычисления потеряли свою магию в моменте - привет NVIDIA.
2. Пора менять парадигму.
Эпоха масштабируем то, что есть даёт всё меньше отдачи. Дальше нужно менять сам способ обучения и архитектуру систем.
3. AGI как готовый продукт - неверная метафора.
Настоящий сдвиг случится, когда мы перестанем думать как натренировать всё сразу и начнём думать как создать условия для систем жить, учиться и сотрудничать, как это делают люди в командах.
Радует, что наступает этап, когда снова нужны смелые идеи и дерзкие учёные.
@maxvotek | linkedin | substack
❤32🔥19👍16👎1
Прочитал свежий отчёт DemandSage о глобальном распространении крипты и хочу поделиться наблюдением, которое часто упускают из вида, размышляя о будущем биткоина:
Биткоин не просто ограничен 21 млн монет, но каждый год их количество сокращается.
По последним оценкам на конец 2025-го, от 3 до 4 млн BTC считаются безвозвратно потерянными - это уже 14–19% от максимального предложения.
Chainalysis, CoinLedger и несколько независимых исследований сходятся на диапазоне 3–4 млн, а отдельные аналитики (например, команда OneKey) прогнозируют рост до 6-7 млн в ближайшие годы.
Причины всё те же: забытые сид-фразы, утерянные холодные кошельки, не переданные по наследству кошельки после смерти их владельцев.
В блокчейне нет кнопки восстановить пароль, нет и возврата имущества по суду для большинства ситуаций.
Параллельно спрос продолжает расти. На ноябрь 2025-го число владельцев криптовалют в мире превысило 600 млн человек (рост на 40+ млн только за вторую половину года).
Биткоин всё ещё держит ~59% всей капитализации рынка (около $2 трлн на момент написания), оставаясь безусловным якорем экосистемы.
Это создаёт нетипичную экономическую механику: фиксированный лимит эмиссии + постоянное невидимое сжигание монет + растущее число участников = нетипичный инструмент сбережений, у которого эффективное предложение сокращается.
Если взять горизонт 2028-2030 годов, годовая эмиссия упадёт до ~80-90 тысяч BTC после очередного халвинга. При этом, если хотя бы 0,4-0,5% текущих держателей ежегодно теряют доступ (а это консервативная оценка), из оборота будет уходить 90–120 тысяч BTC в год - больше, чем будет намайнено. Получается встроенная дефляция сверх халвингов.
До сих пор со скепсисом отношусь к крипте даже как к средству сохранения капитала и не планирую выделять более 5% портфеля - наравне с активами с максимально высоким риском.
Ещё интересные факты:
Волатильность, регуляторные риски и прочие факторы риска никуда не делись.
Но если мыслить категориями десятилетий, то фактор постоянного сжатия эффективного предложения - одна из тех вещей, которые делают биткоин достаточно уникальным финансовым инструментом.
@maxvotek | linkedin | substack
Биткоин не просто ограничен 21 млн монет, но каждый год их количество сокращается.
По последним оценкам на конец 2025-го, от 3 до 4 млн BTC считаются безвозвратно потерянными - это уже 14–19% от максимального предложения.
Chainalysis, CoinLedger и несколько независимых исследований сходятся на диапазоне 3–4 млн, а отдельные аналитики (например, команда OneKey) прогнозируют рост до 6-7 млн в ближайшие годы.
Причины всё те же: забытые сид-фразы, утерянные холодные кошельки, не переданные по наследству кошельки после смерти их владельцев.
В блокчейне нет кнопки восстановить пароль, нет и возврата имущества по суду для большинства ситуаций.
Параллельно спрос продолжает расти. На ноябрь 2025-го число владельцев криптовалют в мире превысило 600 млн человек (рост на 40+ млн только за вторую половину года).
Биткоин всё ещё держит ~59% всей капитализации рынка (около $2 трлн на момент написания), оставаясь безусловным якорем экосистемы.
Это создаёт нетипичную экономическую механику: фиксированный лимит эмиссии + постоянное невидимое сжигание монет + растущее число участников = нетипичный инструмент сбережений, у которого эффективное предложение сокращается.
Если взять горизонт 2028-2030 годов, годовая эмиссия упадёт до ~80-90 тысяч BTC после очередного халвинга. При этом, если хотя бы 0,4-0,5% текущих держателей ежегодно теряют доступ (а это консервативная оценка), из оборота будет уходить 90–120 тысяч BTC в год - больше, чем будет намайнено. Получается встроенная дефляция сверх халвингов.
До сих пор со скепсисом отношусь к крипте даже как к средству сохранения капитала и не планирую выделять более 5% портфеля - наравне с активами с максимально высоким риском.
Ещё интересные факты:
1. Для сравнения, золото ежегодно прирастает на 1–2%, биткоин - теряет.
2. Институциональные инвесторы (ETF, корпорации, семейные офисы) продолжают накапливать, усиливая давление на ликвидное предложение.
3. Страны с самой высокой инфляцией занимают топ-5 по доле населения, владеющего криптовалютой: Турция - 25,6%, Бразилия - 20,6%, ЮАР - 19,6%, Нигерия - 19,1%, Аргентина - 18,8%.
Волатильность, регуляторные риски и прочие факторы риска никуда не делись.
Но если мыслить категориями десятилетий, то фактор постоянного сжатия эффективного предложения - одна из тех вещей, которые делают биткоин достаточно уникальным финансовым инструментом.
@maxvotek | linkedin | substack
👍17❤10🔥7
О соревновании студентов против LLM
Исследователи провели соревнование по решению логистических задач, в котором компании делают ставки на задачи по доставке, а затем планируют маршруты для максимизации прибыли.
Это сложная задача: каждая ставка меняет последующие опции, задачи взаимосвязаны, и у грузовых машин ограничена вместимость.
Сравнили 40 LLM-агентов с 17 студентами в турнирах, и результаты оказались не в пользу машин.
Студенты заняли топ-5 мест, а 33 из 40 LLM-агентов проиграли даже простейшим базовым алгоритмам.
Хотя LLM обычно генерируют синтаксически корректный Java-код, их стратегии ставок и эвристики маршрутизации оказались слабыми.
Даже в простых поисковых задачах LLM выбирают неудачные подходы или игнорируют дополнительные свободные машины.
Попробовали лучшего человеческого агента улучшить с помощью сильной LLM, и новая версия упала на 10-е место.
Это подтверждает, что стандартные бенчмарки кода, используемые для оценки моделей, пока игнорируют навыки создания оптимальных стратегий.
Код должен не просто компилироваться - он должен уметь планировать, конкурировать и зарабатывать прибыль.
Исследование подтверждает мой практический опыт и аналогичное исследование в олимпиадах по программированию о том, что универсальные модели LLM хороши для общих задач, но в специфических областях выигрывают специализированные агенты.
Мы запустили много специфичных use cases для фармы, таких, как, например, Smart Order Assistant AI и Visit Summary, и стандартные LLM пришлось сильно доработать при помощи архитектурных решений, сочетающих нескольких агентов, семантический поиск, RAG, Graph RAG и т. п., чтобы получить результаты сильно выше среднего.
Вайбкодинг, несомненно, экономит огромное количество времени, но стратегические архитектурные решения и понимание сути бизнеса пока далеки даже от базовых навыков студентов, прослушавших курсы Computer Science и сделавших достаточно лабораторных экспериментов.
@maxvotek | linkedin | substack
Исследователи провели соревнование по решению логистических задач, в котором компании делают ставки на задачи по доставке, а затем планируют маршруты для максимизации прибыли.
Это сложная задача: каждая ставка меняет последующие опции, задачи взаимосвязаны, и у грузовых машин ограничена вместимость.
Сравнили 40 LLM-агентов с 17 студентами в турнирах, и результаты оказались не в пользу машин.
Студенты заняли топ-5 мест, а 33 из 40 LLM-агентов проиграли даже простейшим базовым алгоритмам.
Хотя LLM обычно генерируют синтаксически корректный Java-код, их стратегии ставок и эвристики маршрутизации оказались слабыми.
Даже в простых поисковых задачах LLM выбирают неудачные подходы или игнорируют дополнительные свободные машины.
Попробовали лучшего человеческого агента улучшить с помощью сильной LLM, и новая версия упала на 10-е место.
Это подтверждает, что стандартные бенчмарки кода, используемые для оценки моделей, пока игнорируют навыки создания оптимальных стратегий.
Код должен не просто компилироваться - он должен уметь планировать, конкурировать и зарабатывать прибыль.
Исследование подтверждает мой практический опыт и аналогичное исследование в олимпиадах по программированию о том, что универсальные модели LLM хороши для общих задач, но в специфических областях выигрывают специализированные агенты.
Мы запустили много специфичных use cases для фармы, таких, как, например, Smart Order Assistant AI и Visit Summary, и стандартные LLM пришлось сильно доработать при помощи архитектурных решений, сочетающих нескольких агентов, семантический поиск, RAG, Graph RAG и т. п., чтобы получить результаты сильно выше среднего.
Вайбкодинг, несомненно, экономит огромное количество времени, но стратегические архитектурные решения и понимание сути бизнеса пока далеки даже от базовых навыков студентов, прослушавших курсы Computer Science и сделавших достаточно лабораторных экспериментов.
@maxvotek | linkedin | substack
👍19❤12🔥11
Смотрю на котировки MicroStrategy (MSTR) и сильно удивляюсь.
Компания сейчас торгуется на $10 млрд дешевле, чем стоят биткоины на её балансе.
На 1 декабря 2025 года:
• Рыночная капитализация - $46,4 млрд,
• В сейфе лежит ровно 650 000 BTC, которые стоят $56,4 млрд (при цене BTC ≈ $86 800).
Даже после вычета всего долга в $8,22 млрд получается чистый биткоин-портфель на $48,2 млрд - это на $1,8 млрд выше текущей рыночной стоимости всей компании.
По сути, софт-бизнес, бренд, команда и вся остальная операционка сейчас идут бесплатным довеском к биткоину.
Вспомнил, как год назад на собеседовании кандидат рассказал, что Сейлор регулярно берёт кредит под залог собственных акций и скупает биткоины, превращая MSTR в квази-ETF на BTC.
Тогда я не поверил, казалось слишком диким.
Их 21/21-план, предполагает привлечение $42 млрд в течение следующих трёх лет на новые закупки: половина - выпуск акций, половина - облигации. По сути, Сейлор продал Wall Street опцион на биткоин-рост и сам же его выкупает обратно со скидкой.
Что дальше? Если BTC не упадёт ниже $70 000, Майкл может докинуть ещё биткоинов, увеличивая дисбаланс.
Но рынок уже смотрит на MSTR как distressed asset: дисконт закладывает риск маржин-колла, регуляторных ограничений, делистинга и человеческий фактор - Майклу 59.
А если ФРС устроит ещё один 2022 год и биткоин схлопнется до $30 000, тогда $8 млрд долга быстро утопят остатки компании.
Финансовый патофизиолог говорит: рыночная капитализация болеет страхом, а актив остаётся здоров (если верить в фундамент биткоинов).
Пропущу эту возможность, но рыночный момент однозначно интересный.
@maxvotek | linkedin | substack
Компания сейчас торгуется на $10 млрд дешевле, чем стоят биткоины на её балансе.
На 1 декабря 2025 года:
• Рыночная капитализация - $46,4 млрд,
• В сейфе лежит ровно 650 000 BTC, которые стоят $56,4 млрд (при цене BTC ≈ $86 800).
Даже после вычета всего долга в $8,22 млрд получается чистый биткоин-портфель на $48,2 млрд - это на $1,8 млрд выше текущей рыночной стоимости всей компании.
По сути, софт-бизнес, бренд, команда и вся остальная операционка сейчас идут бесплатным довеском к биткоину.
Вспомнил, как год назад на собеседовании кандидат рассказал, что Сейлор регулярно берёт кредит под залог собственных акций и скупает биткоины, превращая MSTR в квази-ETF на BTC.
Тогда я не поверил, казалось слишком диким.
Их 21/21-план, предполагает привлечение $42 млрд в течение следующих трёх лет на новые закупки: половина - выпуск акций, половина - облигации. По сути, Сейлор продал Wall Street опцион на биткоин-рост и сам же его выкупает обратно со скидкой.
Что дальше? Если BTC не упадёт ниже $70 000, Майкл может докинуть ещё биткоинов, увеличивая дисбаланс.
Но рынок уже смотрит на MSTR как distressed asset: дисконт закладывает риск маржин-колла, регуляторных ограничений, делистинга и человеческий фактор - Майклу 59.
А если ФРС устроит ещё один 2022 год и биткоин схлопнется до $30 000, тогда $8 млрд долга быстро утопят остатки компании.
Финансовый патофизиолог говорит: рыночная капитализация болеет страхом, а актив остаётся здоров (если верить в фундамент биткоинов).
Пропущу эту возможность, но рыночный момент однозначно интересный.
@maxvotek | linkedin | substack
👍16🔥12❤3😁3👎1
Первые впечатления от Grok Heavy
На Black Friday сделал себе подарок - оформил X Premium. Нравится идея, что в твиттере можно публиковать полноценные статьи, а не только треды.
Бонусом к подписке - доступ к Grok Heavy (обычно он стоит $300/мес.). Решил: окей, давай посмотрим, на что способен.
Когда запускаешь Heavy, в интерфейсе видно сразу четыре параллельных агента. С приложения на iPhone работает через раз, но с компа - стабильно.
Запустил задачу: найти компании определённого сегмента, размещающие вакансии по конкретной теме.
На удивление, Grok Heavy работал примерно 40 минут, спокойно перечитал ~600 страниц LinkedIn и выдал результат в аккуратном markdown - удобно читать или дальше обрабатывать.
ChatGPT Pro и Manus обычно приносят 20–30 релевантных результатов и на этом выдыхаются. По ощущениям, он чуть ближе к автономному ресёрчеру, чем конкуренты. К сожалению, этот режим пока недоступен по API.
Отдельно поигрался с генерацией видео. Загрузил фотку из автосалона Tesla - там стоит робот Optimus. Видео собирается меньше чем за минуту.
Раньше редко пользовался Grok, но сейчас у меня на айфоне стоит голосовой режим на быстрой кнопке.
По ощущениям:
• Голосовой режим у Grok чуть быстрее, чем у ChatGPT-5
• По умолчанию отвечает с юмором и лёгким сарказмом
• Лучше тянет свежие новости и контекст на сегодня - использует данные с X и живёт внутри потока.
Отдельный любимый юзкейс (уже в ChatGPT Pro, но логика та же) - разрушать интернет-мифы.
На днях мне снова попалась известная картинка про возраст выхода на пенсию в разных странах. Было ощущение, что это фейк.
Спросил проверить у Heavy - довольно быстро опровергла его и нашла источники фейка.
На первый взгляд, за $50 в месяц вместо подписок по $300 Grok Heavy выглядит как достойный помощник для более глубокого поиска и анализа данных.
@maxvotek | linkedin | substack
На Black Friday сделал себе подарок - оформил X Premium. Нравится идея, что в твиттере можно публиковать полноценные статьи, а не только треды.
Бонусом к подписке - доступ к Grok Heavy (обычно он стоит $300/мес.). Решил: окей, давай посмотрим, на что способен.
Когда запускаешь Heavy, в интерфейсе видно сразу четыре параллельных агента. С приложения на iPhone работает через раз, но с компа - стабильно.
Запустил задачу: найти компании определённого сегмента, размещающие вакансии по конкретной теме.
На удивление, Grok Heavy работал примерно 40 минут, спокойно перечитал ~600 страниц LinkedIn и выдал результат в аккуратном markdown - удобно читать или дальше обрабатывать.
ChatGPT Pro и Manus обычно приносят 20–30 релевантных результатов и на этом выдыхаются. По ощущениям, он чуть ближе к автономному ресёрчеру, чем конкуренты. К сожалению, этот режим пока недоступен по API.
Отдельно поигрался с генерацией видео. Загрузил фотку из автосалона Tesla - там стоит робот Optimus. Видео собирается меньше чем за минуту.
Раньше редко пользовался Grok, но сейчас у меня на айфоне стоит голосовой режим на быстрой кнопке.
По ощущениям:
• Голосовой режим у Grok чуть быстрее, чем у ChatGPT-5
• По умолчанию отвечает с юмором и лёгким сарказмом
• Лучше тянет свежие новости и контекст на сегодня - использует данные с X и живёт внутри потока.
Отдельный любимый юзкейс (уже в ChatGPT Pro, но логика та же) - разрушать интернет-мифы.
На днях мне снова попалась известная картинка про возраст выхода на пенсию в разных странах. Было ощущение, что это фейк.
Спросил проверить у Heavy - довольно быстро опровергла его и нашла источники фейка.
На первый взгляд, за $50 в месяц вместо подписок по $300 Grok Heavy выглядит как достойный помощник для более глубокого поиска и анализа данных.
@maxvotek | linkedin | substack
👍38🔥15❤12👎2😁2
Про гонку IPO в мире AI
Сегодня вышла новость о том, что Anthropic готовится к IPO.
В enterprise мире, особенно в программировании они занимают очень прочные позиции и во много впереди OpenAI и их подход к IPO тоже сильно отличается.
Anthropic выходит на биржу практически по цене последнего частного раунда - около $350 млрд.
Это нулевая наценка. Зачем?
Они покупают не деньги, а доверие. Любой контракт на $10 млн с компанией из Fortune 500 требует объяснений совету директоров, почему вы делаете ставку на частный стартап.
Публичный статус, с его аудированными отчётами и надзором SEC, полностью снимает этот вопрос.
Учитывая, что Anthropic уже идёт к $5 млрд выручки в этом году, им не нужен капитал. Им нужен пропуск в высшую лигу публичных компаний и enterprise-продаж.
У OpenAI совсем другая история. Они целятся в оценку в $1 трлн, что в 2-3 раза выше их последних раундов.
Сэм Альтман прямо говорит о потребности в капитале, и это понятно - при их годовых затратах в $5+ млрд им нужны публичные рынки, чтобы оправдать такую премию.
Это два разных подхода к построению бизнеса, о чем я размышлял в посте про запуск бизнеса и инвестиции.
Вот что важно: преимущество первопроходца здесь не в доступе к деньгам, а в установке стандартов. Anthropic, став первой публичной AI-компанией с прозрачной отчётностью, задаст планку для всей индустрии.
Они определят, как должен выглядеть AI company disclosure для выхода на биржу .
В итоге мы видим две разные игры:
• Anthropic оптимизирует под расширение рынка и долгосрочное доверие.
• OpenAI решает проблему капитала и играет на повышение оценки.
Это не просто гонка за деньгами, а битва за то, кто определит правила игры в enterprise AI на годы вперёд.
@maxvotek | linkedin | substack
Сегодня вышла новость о том, что Anthropic готовится к IPO.
В enterprise мире, особенно в программировании они занимают очень прочные позиции и во много впереди OpenAI и их подход к IPO тоже сильно отличается.
Anthropic выходит на биржу практически по цене последнего частного раунда - около $350 млрд.
Это нулевая наценка. Зачем?
Они покупают не деньги, а доверие. Любой контракт на $10 млн с компанией из Fortune 500 требует объяснений совету директоров, почему вы делаете ставку на частный стартап.
Публичный статус, с его аудированными отчётами и надзором SEC, полностью снимает этот вопрос.
Учитывая, что Anthropic уже идёт к $5 млрд выручки в этом году, им не нужен капитал. Им нужен пропуск в высшую лигу публичных компаний и enterprise-продаж.
У OpenAI совсем другая история. Они целятся в оценку в $1 трлн, что в 2-3 раза выше их последних раундов.
Сэм Альтман прямо говорит о потребности в капитале, и это понятно - при их годовых затратах в $5+ млрд им нужны публичные рынки, чтобы оправдать такую премию.
Это два разных подхода к построению бизнеса, о чем я размышлял в посте про запуск бизнеса и инвестиции.
Вот что важно: преимущество первопроходца здесь не в доступе к деньгам, а в установке стандартов. Anthropic, став первой публичной AI-компанией с прозрачной отчётностью, задаст планку для всей индустрии.
Они определят, как должен выглядеть AI company disclosure для выхода на биржу .
В итоге мы видим две разные игры:
• Anthropic оптимизирует под расширение рынка и долгосрочное доверие.
• OpenAI решает проблему капитала и играет на повышение оценки.
Это не просто гонка за деньгами, а битва за то, кто определит правила игры в enterprise AI на годы вперёд.
@maxvotek | linkedin | substack
🔥20👍12❤6
В какой соцсети вы проводите больше всего времени?
Anonymous Poll
84%
Telegram
5%
LinkedIn
3%
X/twitter
2%
Facebook
1%
Substack
30%
YouTube
2%
TikTok
8%
Другое
❤8🔥2
Про то, как AI меняет работу программистов.
Прочитал интересное исследование от Anthropic о том, как их инженеры используют AI в работе.
Цифры впечатляют: производительность выросла на 50%, а Claude используется в 60% рабочих задач. Но самое интересное - это не просто ускорение, а качественное изменение самой работы.
Инженеры становятся фуллстек специалистами, легко заходя в те области, которых раньше боялись коснуться.
Очевидно, что за ростом продуктивности скрываются и новые вызовы. Некоторые инженеры беспокоятся, что их навыки могут атрофироваться. Когда код генерируется так легко, становится сложнее по-настоящему глубоко чему-то научиться.
Сам замечаю, что использовать AI осознанно, сохраняя способность критически оценивать результат cтановится все сложнее, потому как результаты часто на первый взгляд очень круто выглядят.
Как я уже писал, одна из главных ошибок в бизнесе - это терпимое отношение к посредственности, которой невольно все больше в нашей жизни благодаря технологиям.
Еще один интересный момент в отчете - изменение социальных динамик.
Раньше за советом шли к старшему коллеге, теперь к Claude. Это снижает количество живого общения и качество менторства. Некоторые инженеры даже признаются, что чувствуют, будто «автоматизируют сами себя» и не уверены что будут делать в своей будущей роли.
Год назад мы начали активно внедрять AI в разработку продуктов. Создаём overnight демо, работаем с внутренней (RAG, GraphRag, агентный поиск) базой знаний, протоколируем встречи, делаем акселераторы для внедрения систем.
По ощущениям близко к тому, о чем признаются Anthropic - AI невероятно усиливает, но даже близко не заменяет. Это наш опыт о том, как AI меняет работу разработчиков, показал, что истинная ценность в освобождении когнитивных ресурсов для более сложных задач.
Роль разработчика эволюционирует от ремесленника, пишущего код, к стратегу, который управляет AI-агентами. Это очень перекликается с моими мыслями о том, как важно развивать внутреннее предпринимательство в команде.
Побеждать будут те, кто сможет не просто делегировать задачи, а задавать правильные вопросы, видеть картину в целом и превращать возможности AI в реальный продукт.
Будущее не за теми, кто пишет код, а за теми, кто умеет думать.
@maxvotek | linkedin | substack
Прочитал интересное исследование от Anthropic о том, как их инженеры используют AI в работе.
Цифры впечатляют: производительность выросла на 50%, а Claude используется в 60% рабочих задач. Но самое интересное - это не просто ускорение, а качественное изменение самой работы.
Инженеры становятся фуллстек специалистами, легко заходя в те области, которых раньше боялись коснуться.
Очевидно, что за ростом продуктивности скрываются и новые вызовы. Некоторые инженеры беспокоятся, что их навыки могут атрофироваться. Когда код генерируется так легко, становится сложнее по-настоящему глубоко чему-то научиться.
Сам замечаю, что использовать AI осознанно, сохраняя способность критически оценивать результат cтановится все сложнее, потому как результаты часто на первый взгляд очень круто выглядят.
Как я уже писал, одна из главных ошибок в бизнесе - это терпимое отношение к посредственности, которой невольно все больше в нашей жизни благодаря технологиям.
Еще один интересный момент в отчете - изменение социальных динамик.
Раньше за советом шли к старшему коллеге, теперь к Claude. Это снижает количество живого общения и качество менторства. Некоторые инженеры даже признаются, что чувствуют, будто «автоматизируют сами себя» и не уверены что будут делать в своей будущей роли.
Год назад мы начали активно внедрять AI в разработку продуктов. Создаём overnight демо, работаем с внутренней (RAG, GraphRag, агентный поиск) базой знаний, протоколируем встречи, делаем акселераторы для внедрения систем.
По ощущениям близко к тому, о чем признаются Anthropic - AI невероятно усиливает, но даже близко не заменяет. Это наш опыт о том, как AI меняет работу разработчиков, показал, что истинная ценность в освобождении когнитивных ресурсов для более сложных задач.
Роль разработчика эволюционирует от ремесленника, пишущего код, к стратегу, который управляет AI-агентами. Это очень перекликается с моими мыслями о том, как важно развивать внутреннее предпринимательство в команде.
Побеждать будут те, кто сможет не просто делегировать задачи, а задавать правильные вопросы, видеть картину в целом и превращать возможности AI в реальный продукт.
Будущее не за теми, кто пишет код, а за теми, кто умеет думать.
@maxvotek | linkedin | substack
❤33👍20🔥11
Про нечестное преимущество Tesla - Shadow mode
На прошлой неделе выиграл суд у БМВ и вернул им машину по Lemon Law.
Оформление лизинга Tesla Model X заняло полдня, несмотря на автоматизацию Tesla app. Я уже не раз писал, что стал большим фанатом инженерных решений Tesla во многом благодаря их автопилоту.
В выходные ездил с Сергеем Булаевым в стрелковый клуб и 2 часа в дороге пролетели незаметно. Забавно, когда кто-то сигналит автопилоту сзади - ему все равно, как и пассажирам.
В Tesla есть одна технология, о которой мало говорят, и которая, на мой взгляд, и есть их главное конкурентное преимущество - Shadow Mode.
По сути, когда я сам веду машину, FSD всё равно работает в фоновом режиме.
Он как молчаливый второй пилот: получает те же данные с камер, принимает свои решения, но не вмешивается. Потом система сравнивает: поступил бы я так же, как AI, или иначе?
Именно на этих расхождениях, на этих редких сценариях и строится самое ценное обучение.
Я писал ранее в посте про 11-часовую поездку и стресс, где даже моё кольцо Oura показало: нагрузка на нервную систему ниже, чем в офисе.
А причина не только в комфорте, но и в том, что машина постоянно учится быть лучше водителя тихо, безопасно, бесплатно
Этот подход - гениальная иллюстрация того, как нужно строить обучающуюся систему. Это не просто сбор данных, это постоянная проверка гипотез в реальном времени.
В Customertimes мы постоянно говорим про важность внутреннего предпринимательства и проверки гипотез, но Tesla вывела это на планетарный масштаб:
• У них миллионы тестировщиков, которые работают 24/7, даже не подозревая об этом.
• У конкурентов пока тысячи тестовых машин, полигоны и лаборатории.
• У Tesla - миллионы автомобилей в реальном мире: в дождь, снег, с грязной разметкой и непредсказуемыми водителями.
Это то, что невозможно в моменте купить за деньги или смоделировать в лаборатории. Это архитектурное преимущество, заложенное в саму основу продукта, как я рассказывал в посте про запуск бизнеса.
Shadow Mode - это причина, почему FSD улучшается не линейно, а экспоненциально и будет переиспользована в роботах Optimus.
Они не просто тестируют код.
Они тестируют его на миллионах вариантов человеческого поведения.
Это урок для любого бизнеса: создавай продукт, который учится на реальности, а не на симуляциях.
Именно так создаются прорывные технологии, которые обгоняют рынок на годы вперёд.
@maxvotek | linkedin | substack
На прошлой неделе выиграл суд у БМВ и вернул им машину по Lemon Law.
Оформление лизинга Tesla Model X заняло полдня, несмотря на автоматизацию Tesla app. Я уже не раз писал, что стал большим фанатом инженерных решений Tesla во многом благодаря их автопилоту.
В выходные ездил с Сергеем Булаевым в стрелковый клуб и 2 часа в дороге пролетели незаметно. Забавно, когда кто-то сигналит автопилоту сзади - ему все равно, как и пассажирам.
В Tesla есть одна технология, о которой мало говорят, и которая, на мой взгляд, и есть их главное конкурентное преимущество - Shadow Mode.
По сути, когда я сам веду машину, FSD всё равно работает в фоновом режиме.
Он как молчаливый второй пилот: получает те же данные с камер, принимает свои решения, но не вмешивается. Потом система сравнивает: поступил бы я так же, как AI, или иначе?
Именно на этих расхождениях, на этих редких сценариях и строится самое ценное обучение.
Я писал ранее в посте про 11-часовую поездку и стресс, где даже моё кольцо Oura показало: нагрузка на нервную систему ниже, чем в офисе.
А причина не только в комфорте, но и в том, что машина постоянно учится быть лучше водителя тихо, безопасно, бесплатно
Этот подход - гениальная иллюстрация того, как нужно строить обучающуюся систему. Это не просто сбор данных, это постоянная проверка гипотез в реальном времени.
В Customertimes мы постоянно говорим про важность внутреннего предпринимательства и проверки гипотез, но Tesla вывела это на планетарный масштаб:
• У них миллионы тестировщиков, которые работают 24/7, даже не подозревая об этом.
• У конкурентов пока тысячи тестовых машин, полигоны и лаборатории.
• У Tesla - миллионы автомобилей в реальном мире: в дождь, снег, с грязной разметкой и непредсказуемыми водителями.
Это то, что невозможно в моменте купить за деньги или смоделировать в лаборатории. Это архитектурное преимущество, заложенное в саму основу продукта, как я рассказывал в посте про запуск бизнеса.
Shadow Mode - это причина, почему FSD улучшается не линейно, а экспоненциально и будет переиспользована в роботах Optimus.
Они не просто тестируют код.
Они тестируют его на миллионах вариантов человеческого поведения.
Это урок для любого бизнеса: создавай продукт, который учится на реальности, а не на симуляциях.
Именно так создаются прорывные технологии, которые обгоняют рынок на годы вперёд.
@maxvotek | linkedin | substack
🔥39👍20❤9👎3😁3
Про странных людей и отношение общества к странностям
Вчера обсуждали с Сергеем Булаевым как общество относится к людям, которые выглядят и ведут себя по-другому.
Некоторые из нас, особенно в IT постоянно в режиме постоянного переключения контекстов, высокой стимуляции и одержимости идеями, многие выглядят и ведут себя необычно.
В обществе таких часто записывают в чудиков, неудобных, странных, ну или просто травят.
На днях интернет взорвала история с Алексом Карпом из Palantir.
Гениальный человек, построивший компанию, которая обогнала большинство техногигантов по росту.
Идеи Карпа о Palantir я писал тут и тут.
Понадобилось всего 20 секунд странного поведения на сцене, чтобы интернет решил: наркоман, сумасшедший, как ему вообще можно доверять.
Мы делаем выводы о человеке по короткому ролику, но почти никто не интересуется, что стоит за этим на самом деле.
Люди пропустили его идеи мимо, но буквально затравили за необычное поведение на сцене.
В диалоге я приводил пример с бельгийским малинуа. Это одна из моих любимых пород - сложный характер, постоянная потребность в высокой стимуляции, тонкая настройка нервной системы.
Но, невероятная работоспособность, сила, результаты в дисциплинах, где другие собаки даже не стартуют.
С собаками все понимают: такой породе нужно больше внимания, другой подход, больше нагрузки, а вот к людям - никакого снисхождения.
Я искренне верю, что в Customertimes мы научились ценить и принимать людей с разными характерами, особенностями и искренне создаем среду, где способности людей открывают по полной и в сочетании дают экстраординарные результаты.
Люди могут выглядит по-другому, быть неудобными в корпоративных процессах, но вместе они двигают компанию вперёд, создают то самое внутреннее предпринимательство, о котором я уже писал.
Это вызов посредственности - которую я отношу к одной из главных ошибок в бизнесе.
Тем не менее, видя травлю Карпа, признаю, что проблема в нашей общей неготовности видеть в странности тот самый дар, который двигает мир, и принимать и развивать таких людей, которые способны делать и создавать то, что другим кажется невозможным.
@maxvotek | linkedin | substack
Вчера обсуждали с Сергеем Булаевым как общество относится к людям, которые выглядят и ведут себя по-другому.
Некоторые из нас, особенно в IT постоянно в режиме постоянного переключения контекстов, высокой стимуляции и одержимости идеями, многие выглядят и ведут себя необычно.
В обществе таких часто записывают в чудиков, неудобных, странных, ну или просто травят.
На днях интернет взорвала история с Алексом Карпом из Palantir.
Гениальный человек, построивший компанию, которая обогнала большинство техногигантов по росту.
Идеи Карпа о Palantir я писал тут и тут.
Понадобилось всего 20 секунд странного поведения на сцене, чтобы интернет решил: наркоман, сумасшедший, как ему вообще можно доверять.
Мы делаем выводы о человеке по короткому ролику, но почти никто не интересуется, что стоит за этим на самом деле.
Люди пропустили его идеи мимо, но буквально затравили за необычное поведение на сцене.
В диалоге я приводил пример с бельгийским малинуа. Это одна из моих любимых пород - сложный характер, постоянная потребность в высокой стимуляции, тонкая настройка нервной системы.
Но, невероятная работоспособность, сила, результаты в дисциплинах, где другие собаки даже не стартуют.
С собаками все понимают: такой породе нужно больше внимания, другой подход, больше нагрузки, а вот к людям - никакого снисхождения.
Я искренне верю, что в Customertimes мы научились ценить и принимать людей с разными характерами, особенностями и искренне создаем среду, где способности людей открывают по полной и в сочетании дают экстраординарные результаты.
Люди могут выглядит по-другому, быть неудобными в корпоративных процессах, но вместе они двигают компанию вперёд, создают то самое внутреннее предпринимательство, о котором я уже писал.
Это вызов посредственности - которую я отношу к одной из главных ошибок в бизнесе.
Тем не менее, видя травлю Карпа, признаю, что проблема в нашей общей неготовности видеть в странности тот самый дар, который двигает мир, и принимать и развивать таких людей, которые способны делать и создавать то, что другим кажется невозможным.
@maxvotek | linkedin | substack
❤45👍22🔥12👎3😁3
Про персонализированный AI и мой эксперимент с ассистентом.
Я давно делился мыслями о том, что мы вплотную подошли к созданию по-настоящему персонального софта.
Не просто «ещё один продукт», а инструменты, которые подстраиваются под способ мышления конкретного человека - как данные Oura.
В нашей компании мы видим, как нейросети и агенты уже сейчас закрывают задачи, требовавшие раньше больших команд. Юристы, дизайнеры, предприниматели - все начали собирать инструменты под себя.
При этом у меня всегда был барьер с программированием. Я плохо переношу ремесленную часть: скобки, запятые, RTFM-документацию.
С концентрацией проблемы, тестировать код - мука. Зато мозг хорошо держит большую картину: архитектуру, связи, логику систем. Как я писал в посте про самоосознание и личностный рост, важно понимать свои сильные и слабые стороны.
В какой-то момент я решил собрать личного ассистента для своего канала. Такого, который помнит мои мысли, понимает контекст, соединяет идеи.
После нескольких неудачных попыток, я погрузился в RAG-системы и решил сделать гибрид: обычный RAG + графовый RAG + классический поиск на Neo4j. Claude Code стал настоящим прорывом - он не просто писал код, а помогал разобраться в документации, как опытный архитектор.
Самое удивительное - я не писал код руками. Структуру видел, но в сам код не заглядывал. Система работала стабильно!
Те странные каскадные ошибки (починил одно - сломал другое) просто исчезли.
Всё непонятное на экране - ошибки, странные сообщения - просто показывал Claude Code через скриншоты, и он вёл к решению шаг за шагом.
Потом я попробовал Gemini 2.5 Pro - она может держать весь канал в контексте и работать без RAG, сама раскладывая смыслы и связи.
Результаты получаются разные, будто спрашиваешь разных экспертов. Я оставил оба варианта - пусть каждый выберет, с какой «личностью» ему удобнее общаться.
Вывод простой: понимать архитектуру и безопасность всё ещё важно, но писать каждую строчку руками больше не обязательно. Если вы откладывали программирование из-за синтаксиса и документации - сейчас самое время начать.
Достаточно иметь идею и уметь задавать правильные вопросы.
Если интересно посмотреть, как это работает на практике - я выложил ассистента в открытый доступ.
Можно задать ему вопросы по бизнесу, технологиям, AI, инвестициям и предпринимательству - ответы строятся на контенте моего канала.
👉 Telegram-бот: https://xn--r1a.website/maxvotekbot
@maxvotek | linkedin | substack
Я давно делился мыслями о том, что мы вплотную подошли к созданию по-настоящему персонального софта.
Не просто «ещё один продукт», а инструменты, которые подстраиваются под способ мышления конкретного человека - как данные Oura.
В нашей компании мы видим, как нейросети и агенты уже сейчас закрывают задачи, требовавшие раньше больших команд. Юристы, дизайнеры, предприниматели - все начали собирать инструменты под себя.
При этом у меня всегда был барьер с программированием. Я плохо переношу ремесленную часть: скобки, запятые, RTFM-документацию.
С концентрацией проблемы, тестировать код - мука. Зато мозг хорошо держит большую картину: архитектуру, связи, логику систем. Как я писал в посте про самоосознание и личностный рост, важно понимать свои сильные и слабые стороны.
В какой-то момент я решил собрать личного ассистента для своего канала. Такого, который помнит мои мысли, понимает контекст, соединяет идеи.
После нескольких неудачных попыток, я погрузился в RAG-системы и решил сделать гибрид: обычный RAG + графовый RAG + классический поиск на Neo4j. Claude Code стал настоящим прорывом - он не просто писал код, а помогал разобраться в документации, как опытный архитектор.
Самое удивительное - я не писал код руками. Структуру видел, но в сам код не заглядывал. Система работала стабильно!
Те странные каскадные ошибки (починил одно - сломал другое) просто исчезли.
Всё непонятное на экране - ошибки, странные сообщения - просто показывал Claude Code через скриншоты, и он вёл к решению шаг за шагом.
Потом я попробовал Gemini 2.5 Pro - она может держать весь канал в контексте и работать без RAG, сама раскладывая смыслы и связи.
Результаты получаются разные, будто спрашиваешь разных экспертов. Я оставил оба варианта - пусть каждый выберет, с какой «личностью» ему удобнее общаться.
Вывод простой: понимать архитектуру и безопасность всё ещё важно, но писать каждую строчку руками больше не обязательно. Если вы откладывали программирование из-за синтаксиса и документации - сейчас самое время начать.
Достаточно иметь идею и уметь задавать правильные вопросы.
Если интересно посмотреть, как это работает на практике - я выложил ассистента в открытый доступ.
Можно задать ему вопросы по бизнесу, технологиям, AI, инвестициям и предпринимательству - ответы строятся на контенте моего канала.
👉 Telegram-бот: https://xn--r1a.website/maxvotekbot
@maxvotek | linkedin | substack
🔥19❤10👍10