s12888-025-06815-2.pdf
1 MB
———
О том, как негативные мысли отупляют
Много размышляю и делился с вами мыслями о негативных оценках себя (negative self-talk), и тут прочитал, что в новом исследовании BMC Psychiatry проверили, как повторяющиеся негативные размышления связаны с когнитивными функциями у людей 60+.
Участники из Уханя проходили опрос в 2023 году: уровень зацикленности измеряли по шкале PTQ, мышление по тесту MoCA.
Результат предсказуемый: чем выше привычка вращать в уме мрачные сценарии, тем ниже общий балл когнитивной оценки.
Больше всего страдали память, внимание, абстракция и визуально-пространственные навыки; языковые способности заметно не менялись.
В быту и работе это выглядит буднично: задержки с принятием решений, забытые детали на встречах, потерянная креативность.
Уровень тревоги может быть невысоким, но постоянное возвращение к одним и тем же мыслям постепенно съедает скорость обучения и адаптации.
Высокие показатели, не только генетика, спорт, режим и сон. Это ещё и дисциплина мышления.
Негативные циклы плохо влияют на память так же предсказуемо, как открытые десять вкладок в браузере.
Что помогает мне такой диалог притормозить или остановить:
1. Отметить явно для себя: Я сейчас зациклился.
2. Можно дать себе немного времени, например 15 минут на беспокойства, дальше - переключение на другой контекст.
3. One step at a time. Сфокусироваться на следующем действии вместо очередного круга мыслей.
4. Переключатель тела: ходьба, бег, бокс.
5. Держать режим сна и тренировок, следить за HRV.
@maxvotek
О том, как негативные мысли отупляют
Много размышляю и делился с вами мыслями о негативных оценках себя (negative self-talk), и тут прочитал, что в новом исследовании BMC Psychiatry проверили, как повторяющиеся негативные размышления связаны с когнитивными функциями у людей 60+.
Участники из Уханя проходили опрос в 2023 году: уровень зацикленности измеряли по шкале PTQ, мышление по тесту MoCA.
Результат предсказуемый: чем выше привычка вращать в уме мрачные сценарии, тем ниже общий балл когнитивной оценки.
Больше всего страдали память, внимание, абстракция и визуально-пространственные навыки; языковые способности заметно не менялись.
В быту и работе это выглядит буднично: задержки с принятием решений, забытые детали на встречах, потерянная креативность.
Уровень тревоги может быть невысоким, но постоянное возвращение к одним и тем же мыслям постепенно съедает скорость обучения и адаптации.
Высокие показатели, не только генетика, спорт, режим и сон. Это ещё и дисциплина мышления.
Негативные циклы плохо влияют на память так же предсказуемо, как открытые десять вкладок в браузере.
Что помогает мне такой диалог притормозить или остановить:
1. Отметить явно для себя: Я сейчас зациклился.
2. Можно дать себе немного времени, например 15 минут на беспокойства, дальше - переключение на другой контекст.
3. One step at a time. Сфокусироваться на следующем действии вместо очередного круга мыслей.
4. Переключатель тела: ходьба, бег, бокс.
5. Держать режим сна и тренировок, следить за HRV.
@maxvotek
🔥29👍22❤8👎1
Не судите о результатам по двум попыткам
Часто вижу одно и то же: столкнулись с новым бизнес-вызовом, сделали пару попыток - не работает. Как в спорте: подал две подачи мимо, значит теннис не моя игра. Выстрелил по двум мишеням - не разбил, стрельба не для меня.
В бизнесе логика та же, только ставки выше. Чтобы по‑настоящему разобраться в ремесле, нужны множественные повторения и внимание к мелким изменениям.
Недавно учил друга стрелять по тарелкам. Первые серии шли сложно и почти без попаданий. Но я видел прогресс: стойка лучше, движение ружья ровнее, проводка увереннее, связь мишенью четче, подготовка к выстрелу более осознанная. Это не американский фидбэк только ради поддержки. Это навык тренера - замечать микро‑сдвиги, которые предсказывают результат, даже если тарелки пока целы. Давать позитивную обратную связь очень важно. Когда все собралось вместе - тарелки стали биться с каждым выстрелом.
В бизнесе мы часто рубим с плеча именно здесь. Съездил на одну конференцию - конференции не работают. Добавил людей в LinkedIn, написал десяток сообщений - LinkedIn не работает. Но кто‑то всё же ответил тебе. Кто‑то прочитал твой пост. Это то, чего раньше не было, пока ты не попробовал. Это и есть небольшие, но реальные сдвиги.
Ещё одна знакомая история: придумал стратегию, упорно проверял гипотезы, ночами допиливал мелкие детали, рисковал. Сработало. По классике появляются комментарии: Тебе просто повезло. Кажется, что повезло именно тому, кто сделал сотню попыток, заплатил временем и усилиями, пережил десятки не получилось и всё равно продолжил.
Как не попасть в ловушку самообмана и не тянуть мёртвую идею бесконечно? Для себя придерживаюсь простого подхода:
1. Фиксируйте микро‑прогресс. Что стало хоть немного лучше по сравнению со вчера: отклик, конверсия, глубина диалога?
2. Работайте гипотезами. Чётко формулируйте, что именно проверяете в этой итерации.
3. Заранее задайте стоп‑критерии. На какие сигналы вы остановитесь, а на какие - удвоите усилия.
4. Увеличивайте число попыток. Часто проблема не в не работает, а в попыток было две.
Если чувствуете тягу и видите пусть небольшие, но системные улучшения - продолжайте.
Мастерство приходит не сразу. И да, со стороны это часто будет выглядеть как повезло.
Но мы‑то знаем цену этой удаче: повторения, внимание к деталям и дисциплина не бросать после второго, третьего, десятого промаха.
@maxvotek | linkedin | substack
Часто вижу одно и то же: столкнулись с новым бизнес-вызовом, сделали пару попыток - не работает. Как в спорте: подал две подачи мимо, значит теннис не моя игра. Выстрелил по двум мишеням - не разбил, стрельба не для меня.
В бизнесе логика та же, только ставки выше. Чтобы по‑настоящему разобраться в ремесле, нужны множественные повторения и внимание к мелким изменениям.
Недавно учил друга стрелять по тарелкам. Первые серии шли сложно и почти без попаданий. Но я видел прогресс: стойка лучше, движение ружья ровнее, проводка увереннее, связь мишенью четче, подготовка к выстрелу более осознанная. Это не американский фидбэк только ради поддержки. Это навык тренера - замечать микро‑сдвиги, которые предсказывают результат, даже если тарелки пока целы. Давать позитивную обратную связь очень важно. Когда все собралось вместе - тарелки стали биться с каждым выстрелом.
В бизнесе мы часто рубим с плеча именно здесь. Съездил на одну конференцию - конференции не работают. Добавил людей в LinkedIn, написал десяток сообщений - LinkedIn не работает. Но кто‑то всё же ответил тебе. Кто‑то прочитал твой пост. Это то, чего раньше не было, пока ты не попробовал. Это и есть небольшие, но реальные сдвиги.
Ещё одна знакомая история: придумал стратегию, упорно проверял гипотезы, ночами допиливал мелкие детали, рисковал. Сработало. По классике появляются комментарии: Тебе просто повезло. Кажется, что повезло именно тому, кто сделал сотню попыток, заплатил временем и усилиями, пережил десятки не получилось и всё равно продолжил.
Как не попасть в ловушку самообмана и не тянуть мёртвую идею бесконечно? Для себя придерживаюсь простого подхода:
1. Фиксируйте микро‑прогресс. Что стало хоть немного лучше по сравнению со вчера: отклик, конверсия, глубина диалога?
2. Работайте гипотезами. Чётко формулируйте, что именно проверяете в этой итерации.
3. Заранее задайте стоп‑критерии. На какие сигналы вы остановитесь, а на какие - удвоите усилия.
4. Увеличивайте число попыток. Часто проблема не в не работает, а в попыток было две.
Если чувствуете тягу и видите пусть небольшие, но системные улучшения - продолжайте.
Мастерство приходит не сразу. И да, со стороны это часто будет выглядеть как повезло.
Но мы‑то знаем цену этой удаче: повторения, внимание к деталям и дисциплина не бросать после второго, третьего, десятого промаха.
@maxvotek | linkedin | substack
❤48🔥31👍14
22-летний парень привлёк $9,22 млн на решение одной из главных проблем медицины.
В сентябре 2025 года Tanishq Abraham закрыл раунд в $9,22 млн. Его возглавил Kindred Ventures, а среди участников: Upfront Ventures, Delphi Ventures и лидеры индустрии: Jeff Dean (Google DeepMind), Lukas Biewald (Weights & Biases), Clément Delangue (Hugging Face) и другие.
Его стартап Sophont вошёл в историю как один из крупнейших посевных раундов в healthcare-AI для компаний на ранней стадии.
История самого Tanishq также очень впечатляет:
• В 14 лет биомедицинский инженер, в 19 PhD
• Успел поработать в Stability AI
• Создать DALL-E Mini и основать MedARC - крупнейшее open-source AI-комьюнити в медицине
Большинство медицинских моделей ИИ работают с одним типом данных: КТ, анализы или сканы стекл.
Sophont собирает всё воедино: снимки, лабораторные данные, истории болезней, pathology slides и цель простая, но интересная - построить мультимодальную систему, которая видит пациента целиком, а не по частям.
Что по сути дает врачу то, что сейчас часто недоступно из-за ограничений по времени на визите и позволяет лечить пациента, а не симптом или болезнь отдельно.
Это фундаментальные модели построенные на уникально больших массивах медицинских данных.
Их можно настраивать под разные задачи: диагностика и трияж, подбор пациентов для клинических испытаний, поиск новых биомаркеров, исследования для фармкомпаний и госпиталей.
Сам Tanishq объясняет цель метафорой:
Сейчас Sophont расширяет штат исследователей и запускает пилоты с ведущими больницами и фармкомпаниями.
Уже есть проекты:
• Реконструкция изображений по мозговым сигналам
• Генерация рентгеновских снимков по тексту
• Преобразование brain scans в визуальные данные
Мы уже видим и другие примеры: исследование на десятках тысяч МРТ-сканов выявило связь даже умеренного употребления алкоголя с уменьшением мозга (мой разбор тут). Это показывает силу больших моделей и данных - они находят закономерности, которые раньше считались неочевидными.
Такие истории показывают, что даже в консервативных областях свежий взгляд и экспертиза в ИИ могут менять правила игры. Интересно, насколько большие инвестиции сейчас получают большие фундаментальные модели.
@maxvotek | linkedin | substack
В сентябре 2025 года Tanishq Abraham закрыл раунд в $9,22 млн. Его возглавил Kindred Ventures, а среди участников: Upfront Ventures, Delphi Ventures и лидеры индустрии: Jeff Dean (Google DeepMind), Lukas Biewald (Weights & Biases), Clément Delangue (Hugging Face) и другие.
Его стартап Sophont вошёл в историю как один из крупнейших посевных раундов в healthcare-AI для компаний на ранней стадии.
История самого Tanishq также очень впечатляет:
• В 14 лет биомедицинский инженер, в 19 PhD
• Успел поработать в Stability AI
• Создать DALL-E Mini и основать MedARC - крупнейшее open-source AI-комьюнити в медицине
Большинство медицинских моделей ИИ работают с одним типом данных: КТ, анализы или сканы стекл.
Sophont собирает всё воедино: снимки, лабораторные данные, истории болезней, pathology slides и цель простая, но интересная - построить мультимодальную систему, которая видит пациента целиком, а не по частям.
Что по сути дает врачу то, что сейчас часто недоступно из-за ограничений по времени на визите и позволяет лечить пациента, а не симптом или болезнь отдельно.
Это фундаментальные модели построенные на уникально больших массивах медицинских данных.
Их можно настраивать под разные задачи: диагностика и трияж, подбор пациентов для клинических испытаний, поиск новых биомаркеров, исследования для фармкомпаний и госпиталей.
Сам Tanishq объясняет цель метафорой:
Обычные модели похожи на притчу о слепых людях и слоне, каждый ощупывает одну часть, но никто не видит целого. Sophont хочет построить систему, которая увидит слона полностью.
Сейчас Sophont расширяет штат исследователей и запускает пилоты с ведущими больницами и фармкомпаниями.
Уже есть проекты:
• Реконструкция изображений по мозговым сигналам
• Генерация рентгеновских снимков по тексту
• Преобразование brain scans в визуальные данные
Мы уже видим и другие примеры: исследование на десятках тысяч МРТ-сканов выявило связь даже умеренного употребления алкоголя с уменьшением мозга (мой разбор тут). Это показывает силу больших моделей и данных - они находят закономерности, которые раньше считались неочевидными.
Такие истории показывают, что даже в консервативных областях свежий взгляд и экспертиза в ИИ могут менять правила игры. Интересно, насколько большие инвестиции сейчас получают большие фундаментальные модели.
@maxvotek | linkedin | substack
🔥31👍16❤13
Агенты делают знания бесплатными, а решения бесценными
То, что раньше было tribal knowledge адвокатов, бухгалтеров или консультантов - тысячи мелких нюансов, за которые платили клиенты, сегодня доступно в один запрос к ChatGPT.
Я это почувствовал сам: количество вопросов к бухгалтеру или юристу за год упало в разы.
Там, где раньше было несколько звонков, встреч, размышлений и уточнений, теперь один точный ответ ChatGPT или очень точный вопрос к специалистам со ссылками на законы и факты.
То же самое происходит в медицине.
Недавно помогал знакомому, попавшему в аварию, получить медицинскую помощь: рентгеновский снимок, спор со страховой и врачами.
ChatGPT Pro проанализировал изображение, подсказал, что говорить врачу и как описывать симптомы и тут пациент, врач и страховая оказались в равной позиции, одинаково понимая и трактуя ситуацию.
Огромный пласт проблем, которые раньше упирались во время специалиста, решаются быстрее и точнее.
Простые аналитические инструменты также стали ещё доступнее и быстрее.
На днях выгрузил данные Oura и Garmin, поговорил с ними через Claude Code и ChatGPT и наглядно понял, что постоянный стресс полностью блокировал восстановление, хотя сон, тренировки и часть других показателей были в норме на дэшборде.
Это позволило быстро подобрать ключ к восстановлению, не обращаясь к врачу.
Зубрёжка в медицинском и юридическом институтах стремительно обесценивается.
Ценность появляется там, где есть креативность, способность выйти за рамки, соединить факты, понять причинно-следственные связи, собрать своего digital agent, увидеть инсайт, который лежит где-то глубоко, а иногда и на поверхности.
Уже сегодня один человек, вооружённый агентами под свои задачи, может работать как аналитическая компания.
Всё меньше удивляют истории про фаундеров, которые строят компании с миллиардной капитализацией за рекордные сроки.
Но для людей с фантазией GPT даёт слишком много интересных возможностей, которые сейчас одновременно и лишают их сна.
@maxvotek | linkedin | substack
То, что раньше было tribal knowledge адвокатов, бухгалтеров или консультантов - тысячи мелких нюансов, за которые платили клиенты, сегодня доступно в один запрос к ChatGPT.
Я это почувствовал сам: количество вопросов к бухгалтеру или юристу за год упало в разы.
Там, где раньше было несколько звонков, встреч, размышлений и уточнений, теперь один точный ответ ChatGPT или очень точный вопрос к специалистам со ссылками на законы и факты.
То же самое происходит в медицине.
Недавно помогал знакомому, попавшему в аварию, получить медицинскую помощь: рентгеновский снимок, спор со страховой и врачами.
ChatGPT Pro проанализировал изображение, подсказал, что говорить врачу и как описывать симптомы и тут пациент, врач и страховая оказались в равной позиции, одинаково понимая и трактуя ситуацию.
Огромный пласт проблем, которые раньше упирались во время специалиста, решаются быстрее и точнее.
Простые аналитические инструменты также стали ещё доступнее и быстрее.
На днях выгрузил данные Oura и Garmin, поговорил с ними через Claude Code и ChatGPT и наглядно понял, что постоянный стресс полностью блокировал восстановление, хотя сон, тренировки и часть других показателей были в норме на дэшборде.
Это позволило быстро подобрать ключ к восстановлению, не обращаясь к врачу.
Зубрёжка в медицинском и юридическом институтах стремительно обесценивается.
Ценность появляется там, где есть креативность, способность выйти за рамки, соединить факты, понять причинно-следственные связи, собрать своего digital agent, увидеть инсайт, который лежит где-то глубоко, а иногда и на поверхности.
Уже сегодня один человек, вооружённый агентами под свои задачи, может работать как аналитическая компания.
Всё меньше удивляют истории про фаундеров, которые строят компании с миллиардной капитализацией за рекордные сроки.
Но для людей с фантазией GPT даёт слишком много интересных возможностей, которые сейчас одновременно и лишают их сна.
@maxvotek | linkedin | substack
❤26🔥23👍10😁4
Увидел пост, как один из разработчиков Stripe поставил себе в описании LinkedIn промт-инъекцию, которая заставляет ИИ-рекрутёров прислать ему рецепт пирога вместе с оффером на работу.
И это сработало — абсолютно все письма, что он получил от потенциальных работодателей, содержали в себе рецепт пирога.
Всё, что вам нужно знать о современном найме 🙂
@maxvotek | linkedin | substack
И это сработало — абсолютно все письма, что он получил от потенциальных работодателей, содержали в себе рецепт пирога.
Всё, что вам нужно знать о современном найме 🙂
@maxvotek | linkedin | substack
😁50🔥18❤7
Язык жизни: как AI учится читать геном
Недавно мой друг Миша Бурцев выступал в Лондоне в Royal Institution - уникальном месте, где последние 200 лет читали лекции величайшие учёные.
Его тема звучала достаточно фантастично: Как с помощью AI расшифровать язык жизни.
Миша рассказал, как начинал с экспериментов с живыми нейронами, потом переключился на нейросети (ещё в те годы Atari-игры казались верхом сложности), а сегодня работает над тем, чтобы научить языковые модели понимать не только язык людей, но и язык генома.
Ключевая идея простая и дерзкая: если большие языковые модели помогли нам разобраться в языке - одном из самых сложных феноменов природы, почему бы не применить ту же логику к ДНК?
Геном - это тоже текст, только длиной в 3 миллиарда букв.
Миша и его команда уже строят GENA-LM - языковую модель для ДНК.
Потенциал колоссальный: предсказывать болезни ещё до симптомов, находить новые закономерности в старых данных, объяснять процессы от уровня клетки до целого организма.
Возможно, также удастся дать ответ на фундаментальный вопрос: стареем мы из-за накопления ошибок в ДНК или потому, что так запрограммированы природой.
@maxvotek | linkedin | substack
Недавно мой друг Миша Бурцев выступал в Лондоне в Royal Institution - уникальном месте, где последние 200 лет читали лекции величайшие учёные.
Его тема звучала достаточно фантастично: Как с помощью AI расшифровать язык жизни.
Миша рассказал, как начинал с экспериментов с живыми нейронами, потом переключился на нейросети (ещё в те годы Atari-игры казались верхом сложности), а сегодня работает над тем, чтобы научить языковые модели понимать не только язык людей, но и язык генома.
Ключевая идея простая и дерзкая: если большие языковые модели помогли нам разобраться в языке - одном из самых сложных феноменов природы, почему бы не применить ту же логику к ДНК?
Геном - это тоже текст, только длиной в 3 миллиарда букв.
Миша и его команда уже строят GENA-LM - языковую модель для ДНК.
Потенциал колоссальный: предсказывать болезни ещё до симптомов, находить новые закономерности в старых данных, объяснять процессы от уровня клетки до целого организма.
Возможно, также удастся дать ответ на фундаментальный вопрос: стареем мы из-за накопления ошибок в ДНК или потому, что так запрограммированы природой.
@maxvotek | linkedin | substack
YouTube
Decoding the secrets of life with AI - with Mikhail Burtsev
Find out how AI is helping to decipher genomes, uncover the secrets of human biology, and accelerate medical discoveries.
This lecture was recorded at the Ri on 7 July 2025, in partnership with the London Institute for Mathematical Sciences.
Join this channel…
This lecture was recorded at the Ri on 7 July 2025, in partnership with the London Institute for Mathematical Sciences.
Join this channel…
❤25👍16🔥14
В 2024 я писал о сервисном бизнесе, зоне комфорта и том, как создавать новое с нуля.
Строить сервисный бизнес - это вовсе не зона комфорта.
Это скорее экспедиция Шеклтона: постоянный дискомфорт, неопределённый результат и редкие, но по-настоящему прорывные моменты.
Каждый проект с клиентом - это не повторение, а импровизация: создание нового из ничего, которое формируется людьми, культурой и контекстом.
И настоящая награда приходит, когда годы надежд складываются в доверие, и клиент звонит не за сервисом, а с невозможной задачей, которую может решить только твоя команда.
Эта мысль легла в основу полноценной статьи, которая не помещается в формат Telegram.
Буду рад её прочтению на Substack
@maxvotek | linkedin | substack
Строить сервисный бизнес - это вовсе не зона комфорта.
Это скорее экспедиция Шеклтона: постоянный дискомфорт, неопределённый результат и редкие, но по-настоящему прорывные моменты.
Каждый проект с клиентом - это не повторение, а импровизация: создание нового из ничего, которое формируется людьми, культурой и контекстом.
И настоящая награда приходит, когда годы надежд складываются в доверие, и клиент звонит не за сервисом, а с невозможной задачей, которую может решить только твоя команда.
Эта мысль легла в основу полноценной статьи, которая не помещается в формат Telegram.
Буду рад её прочтению на Substack
@maxvotek | linkedin | substack
👍17❤5🔥5
Won’t be missed.pdf
255.4 KB
Твой потолок зарплаты в мире AGI
Понравилась работа Restrepo из Yale University. Много формул, чтобы описать простые модели экономики ближайшего будущего и набор очень прямых выводов.
AGI делает возможным выполнение всей экономически ценной работы за счёт вычислений.
Это радикально меняет роль труда: люди сохраняют возможность работать, но их вклад в экономический рост становится всё менее значимым.
Хорошая классификация:
1. Bottleneck работа: критичные задачи, без которых рост невозможен (энергия, наука, безопасность, логистика).
2. Accessory работа: вспомогательные задачи, которые скорее останутся людям (искусство, уход, социальные роли, сервис).
И главный экзистенциальный вопрос, который стоит себе задать:
Эта цифра и будет близка к потолку твоей зарплаты.
Логика простая. Если AGI закрывает все bottleneck задачи, зарплата перестаёт зависеть редкости навыка или количества лет опыта.
Она начинает зависеть от того, сколько стоит вычислительная мощность, способная имитировать твой труд.
Выше этой планки будет то, что держится на человеческом доверии, праве подписи, личных отношениях, репутации.
Общество в целом станет богаче. Но богатство будет создаваться не трудом, а вычислениями.
Владельцы вычислительных мощностей будут забирать основную долю этого благосостояния.
Людям же останутся accessory работы - сервис, уход, творчество, социальные роли. Они сохраняют смысл и ценность, но не становятся источником растущих доходов.
Работа перестанет быть основой всеобщего благосостояния и статуса.
Поэтому вопрос «какую профессию выбрать» постепенно сменится на вопросы:
@maxvotek | linkedin | substack
Понравилась работа Restrepo из Yale University. Много формул, чтобы описать простые модели экономики ближайшего будущего и набор очень прямых выводов.
AGI делает возможным выполнение всей экономически ценной работы за счёт вычислений.
Это радикально меняет роль труда: люди сохраняют возможность работать, но их вклад в экономический рост становится всё менее значимым.
Хорошая классификация:
1. Bottleneck работа: критичные задачи, без которых рост невозможен (энергия, наука, безопасность, логистика).
2. Accessory работа: вспомогательные задачи, которые скорее останутся людям (искусство, уход, социальные роли, сервис).
И главный экзистенциальный вопрос, который стоит себе задать:
Сколько будет стоить эксплуатация модели, которая делает мою работу 24/7?
Эта цифра и будет близка к потолку твоей зарплаты.
Логика простая. Если AGI закрывает все bottleneck задачи, зарплата перестаёт зависеть редкости навыка или количества лет опыта.
Она начинает зависеть от того, сколько стоит вычислительная мощность, способная имитировать твой труд.
Выше этой планки будет то, что держится на человеческом доверии, праве подписи, личных отношениях, репутации.
Общество в целом станет богаче. Но богатство будет создаваться не трудом, а вычислениями.
Владельцы вычислительных мощностей будут забирать основную долю этого благосостояния.
Людям же останутся accessory работы - сервис, уход, творчество, социальные роли. Они сохраняют смысл и ценность, но не становятся источником растущих доходов.
Работа перестанет быть основой всеобщего благосостояния и статуса.
Поэтому вопрос «какую профессию выбрать» постепенно сменится на вопросы:
— Где я хочу быть незаменимым человеком в реальном мире?
— Как мне владеть частью вычислительной экономики?
@maxvotek | linkedin | substack
❤15👍14🔥11👎6
Idea-to-Code Distance: кратчайший путь от идеи к коду
Ещё полгода назад казалось, что:
• OpenAI - чемпион для решения более общих и контекстных задач
• Anthropic про программирование
Даже внутри OpenAI так думали и открыто об этом говорили, но гонка резко сместилась именно в код.
Claude Code задал новый стандарт, и стало очевидно: программирование не побочный кейс, а главный, и контекст, и код стали настолько близкими, что видимая граница между ними почти исчезла.
Замечаю, что качество анализа, работы с данными и идеями, а также создание прототипов, которые сразу работают и продвигают тебя на новый уровень, выросло экспоненциально с момента освоения Claude Code.
По сути, код - это кратчайший путь от намерения к изменению реальности. Когда агент пишет код, мультипликатор пользы в десятки раз выше, чем у генерации текста или картинок.
Сегодня три гиганта (OpenAI, Anthropic, Google) дотируют CLI и гонятся за тем, чтобы посадить пользователей на дофаминовую иглу вайб-кодинга.
Но за красивыми интерфейсами важнее другое - ICD (Idea-to-Code Distance): сколько времени проходит от идеи до работающего кода. Побеждает тот, кто сокращает этот путь.
Если смотреть шире, то видно лестницу уровней:
• L0 — арбитраж контента и анализ сложных контекстов. Генерация, переработка, дистрибуция контента (контекста), а также уровень удержания внимания пользователей внутри своих идеологий и социальных кругов, продуктов.
• L1 — код. Скрипты и инструменты, автоматизирующие L0.
• L2 — агенты. Закрывают задачи end-to-end.
• L3 — мета-инструменты. Claude Code, Codex, Cursor, Lovable. Агентские платформы для создателей ценности своих идей, программ, агентов, платформ.
• L4 — инфраструктура. LLM и их экосистемы вокруг AGI: протоколы, данные, вычисления, стандарты, безопасность.
Здесь концентрируется основной рентный доход новой эпохи AI.
Каждый шаг вверх по этой лестнице - это более высокая ценность, большая защита от конкуренции, более высокий доход и конкурентные преимущества.
@maxvotek | linkedin | substack
Ещё полгода назад казалось, что:
• OpenAI - чемпион для решения более общих и контекстных задач
• Anthropic про программирование
Даже внутри OpenAI так думали и открыто об этом говорили, но гонка резко сместилась именно в код.
Claude Code задал новый стандарт, и стало очевидно: программирование не побочный кейс, а главный, и контекст, и код стали настолько близкими, что видимая граница между ними почти исчезла.
Замечаю, что качество анализа, работы с данными и идеями, а также создание прототипов, которые сразу работают и продвигают тебя на новый уровень, выросло экспоненциально с момента освоения Claude Code.
По сути, код - это кратчайший путь от намерения к изменению реальности. Когда агент пишет код, мультипликатор пользы в десятки раз выше, чем у генерации текста или картинок.
Сегодня три гиганта (OpenAI, Anthropic, Google) дотируют CLI и гонятся за тем, чтобы посадить пользователей на дофаминовую иглу вайб-кодинга.
Но за красивыми интерфейсами важнее другое - ICD (Idea-to-Code Distance): сколько времени проходит от идеи до работающего кода. Побеждает тот, кто сокращает этот путь.
Если смотреть шире, то видно лестницу уровней:
• L0 — арбитраж контента и анализ сложных контекстов. Генерация, переработка, дистрибуция контента (контекста), а также уровень удержания внимания пользователей внутри своих идеологий и социальных кругов, продуктов.
• L1 — код. Скрипты и инструменты, автоматизирующие L0.
• L2 — агенты. Закрывают задачи end-to-end.
• L3 — мета-инструменты. Claude Code, Codex, Cursor, Lovable. Агентские платформы для создателей ценности своих идей, программ, агентов, платформ.
• L4 — инфраструктура. LLM и их экосистемы вокруг AGI: протоколы, данные, вычисления, стандарты, безопасность.
Здесь концентрируется основной рентный доход новой эпохи AI.
Каждый шаг вверх по этой лестнице - это более высокая ценность, большая защита от конкуренции, более высокий доход и конкурентные преимущества.
@maxvotek | linkedin | substack
👍15❤8🔥6👎1
Зачем я пишу в Substack?
Я писал о том, зачем мне Телеграм - пространство, где можно честно делиться мыслями, сверять свои идеи с друзьями и коммьюнити, яснее слышать свой собственный голос.
Телеграм и Substack для меня стоят рядом: это два места, где более глубокие тексты доступны напрямую и не зависят от рекламных или поисковых алгоритмов.
Да, в Substack есть рекомендации и подборки, но главное - каждый пост приходит в почту или в приложение всем, кто сам подписался.
Большие медиа теряют аудиторию: CNN минус 34%, Forbes минус 52%.
Google всё чаще отвечает на вопросы прямо в поиске, соцсети отодвинули новости в сторону, люди уходят в алгоритмически управляемые сети YouTube и TikTok.
Алгоритмическая модель меняется на глазах и стремительно отъедает доходы у медиа.
На этом фоне Substack показывает +49% роста благодаря более честным принципам доставки контента, а также вознаграждает непрофессиональных авторов возможностью получить долю в доходах от контента.
По сути, это твой вебсайт с удобной формой подписки на рассылку.
У пользователей пока больше доверия к этой модели, и в плюсе те, кто глубже разбирается в теме, кто говорит честно и выстраивает долгие отношения с подписчиками без откровенного кликбейта.
Успешные бизнесы и личные бренды строятся всё меньше на объёме показов и охвате аудитории, а всё больше на ценностях, которые транслируются в мир.
Люди остаются там, где чувствуют искренность и совпадение взглядов.
Поэтому я пишу и на русском в Телеграм, и более развернуто на английском в Substack.
@maxvotek | linkedin | substack
Я писал о том, зачем мне Телеграм - пространство, где можно честно делиться мыслями, сверять свои идеи с друзьями и коммьюнити, яснее слышать свой собственный голос.
Телеграм и Substack для меня стоят рядом: это два места, где более глубокие тексты доступны напрямую и не зависят от рекламных или поисковых алгоритмов.
Да, в Substack есть рекомендации и подборки, но главное - каждый пост приходит в почту или в приложение всем, кто сам подписался.
Большие медиа теряют аудиторию: CNN минус 34%, Forbes минус 52%.
Google всё чаще отвечает на вопросы прямо в поиске, соцсети отодвинули новости в сторону, люди уходят в алгоритмически управляемые сети YouTube и TikTok.
Алгоритмическая модель меняется на глазах и стремительно отъедает доходы у медиа.
На этом фоне Substack показывает +49% роста благодаря более честным принципам доставки контента, а также вознаграждает непрофессиональных авторов возможностью получить долю в доходах от контента.
По сути, это твой вебсайт с удобной формой подписки на рассылку.
У пользователей пока больше доверия к этой модели, и в плюсе те, кто глубже разбирается в теме, кто говорит честно и выстраивает долгие отношения с подписчиками без откровенного кликбейта.
Успешные бизнесы и личные бренды строятся всё меньше на объёме показов и охвате аудитории, а всё больше на ценностях, которые транслируются в мир.
Люди остаются там, где чувствуют искренность и совпадение взглядов.
Поэтому я пишу и на русском в Телеграм, и более развернуто на английском в Substack.
@maxvotek | linkedin | substack
👍21❤17🔥9👎1
Выгнали с урока математики за то, что отвечал на звонок инвестора.
Так начинается история 18-летнего Арлана Рахметжанова из Алматы, который бросил школу и уже привлек 6,2 млн долларов на свой стартап Nozomio.
Всё началось ещё в детстве, когда отец 11 летнему сыну рассказал ему про Y Combinator. В 15 лет Арлан начал программировать первые приложения, а к выпускному классу понял, что школа перестала его удерживать - всё время уходило в код и работу над проектами.
В декабре 2024 года он основал Nozomio - сервис для разработки и обучения ИИ-агентов. Уже через месяц прототип продукта оказался на Product Hunt и получил статус product of the day.
Холодные звонки YC-фаундерам принесли первую ангельскую инвестицию и знакомство с фондом LocalGlobe. А тот самый звонок, который Арлан взял прямо на уроке математики, привел к закрытию pre-seed раунда.
Y Combinator тоже не покорился сразу - две попытки были неудачными. Но именно третья заявка принесла приглашение в летнюю группу и возможность построить компанию дальше.
Сегодня у Nozomio есть поддержка фондов CRV, BoxGroup, LocalGlobe, самого YC, а среди инвесторов - Пол Грэм и CTO Spotify Густав Сёдерстрём.
Арлан получил визу талантов O-1 в США и продолжает развивать компанию в Сан-Франциско.
При этом он до сих пор ведет бизнес практически один. И именно здесь кроется его стратегия: на привлеченные средства он планирует нанять первого сотрудника только в том случае, если перестанет справляться с обслуживанием клиентов сам.
Его цель - сделать Nozomio самым экономичным стартапом в сфере ИИ и собрать небольшую, но очень сильную команду молодых разработчиков, готовых работать с высокой скоростью и плотностью талантов.
Арлан говорит о своем пути так:
Очень интересная история Арлана. Сегодня много споров о целесообразности высшего образования и о том, какие навыки реально будут определять судьбу детей в эпоху ИИ.
Я писал, что не стоит спешить в YC, считая его единственным шансом на успех. Но видя ускорение событий в IT, понимаю, что картина меняется, и иногда скорость оказывается решающим фактором развития.
Образование и акселераторы - лишь инструменты. Главное - способность действовать быстро, учиться на практике и использовать момент.
@maxvotek | linkedin | substack
Так начинается история 18-летнего Арлана Рахметжанова из Алматы, который бросил школу и уже привлек 6,2 млн долларов на свой стартап Nozomio.
Всё началось ещё в детстве, когда отец 11 летнему сыну рассказал ему про Y Combinator. В 15 лет Арлан начал программировать первые приложения, а к выпускному классу понял, что школа перестала его удерживать - всё время уходило в код и работу над проектами.
В декабре 2024 года он основал Nozomio - сервис для разработки и обучения ИИ-агентов. Уже через месяц прототип продукта оказался на Product Hunt и получил статус product of the day.
Холодные звонки YC-фаундерам принесли первую ангельскую инвестицию и знакомство с фондом LocalGlobe. А тот самый звонок, который Арлан взял прямо на уроке математики, привел к закрытию pre-seed раунда.
Y Combinator тоже не покорился сразу - две попытки были неудачными. Но именно третья заявка принесла приглашение в летнюю группу и возможность построить компанию дальше.
Сегодня у Nozomio есть поддержка фондов CRV, BoxGroup, LocalGlobe, самого YC, а среди инвесторов - Пол Грэм и CTO Spotify Густав Сёдерстрём.
Арлан получил визу талантов O-1 в США и продолжает развивать компанию в Сан-Франциско.
При этом он до сих пор ведет бизнес практически один. И именно здесь кроется его стратегия: на привлеченные средства он планирует нанять первого сотрудника только в том случае, если перестанет справляться с обслуживанием клиентов сам.
Его цель - сделать Nozomio самым экономичным стартапом в сфере ИИ и собрать небольшую, но очень сильную команду молодых разработчиков, готовых работать с высокой скоростью и плотностью талантов.
Арлан говорит о своем пути так:
Быть молодым основателем определённо плюс. Да, у меня нет докторской степени Стэнфорда, но мне сказали, что партнёр из YC выбрал меня именно потому, что я очень быстро выпускаю продукты - а это крайне важно в эпоху ИИ.
Очень интересная история Арлана. Сегодня много споров о целесообразности высшего образования и о том, какие навыки реально будут определять судьбу детей в эпоху ИИ.
Я писал, что не стоит спешить в YC, считая его единственным шансом на успех. Но видя ускорение событий в IT, понимаю, что картина меняется, и иногда скорость оказывается решающим фактором развития.
Образование и акселераторы - лишь инструменты. Главное - способность действовать быстро, учиться на практике и использовать момент.
@maxvotek | linkedin | substack
❤31👍11😁11👎4🔥3
When_and_How_to_Provide_Feedback_and_Instructions_to_Athletes.pdf
950 KB
Недавно прочитал исследование о том, как и когда тренеру стоит давать обратную связь спортсменам.
Идея, которая меня особенно зацепила, феномен overcoaching.
Слишком частые и прямые указания мешают развитию, потому что спортсмен перестаёт слушать себя, ориентироваться на собственные ощущения и искать решения в динамичной среде.
В бизнесе, особенно в продажах или консалтинге, это встречается повсеместно.
Когда руководитель буквально разжёвывает каждую задачу или слишком часто даёт прямые комментарии и указания, исчезает пространство для творчества.
В итоге сотрудник делает вроде правильно, но без энергии, без внутреннего ощущения результата и часто совсем не то, что нужно. Это эмоционально выматывает и снижает эффективность.
Статья также подчёркивает: хороший тренинг строится не на количестве обратной связи, частоте и точности, а на дизайне ситуации.
То есть создаёшь такие условия, в которых человек сам получает естественный фидбек, через результат, реакцию клиента, рынок.
Роль лидера тут не решать задачу за подчинённого, а задавать рамки, иногда использовать метафору или вопрос и дать шанс на самостоятельный поиск.
Ещё одно важное наблюдение: коучинг сильно зависит от персональной совместимости.
Даже самые опытные и эмоционально зрелые люди не всегда могут быть хорошими коучами для всех.
Как в спорте: одному нужен жёсткий наставник, другому партнёрский стиль.
Поэтому универсального подхода не существует - важен баланс между поддержкой, свободой и личной химией.
@maxvotek | linkedin | substack
Идея, которая меня особенно зацепила, феномен overcoaching.
Слишком частые и прямые указания мешают развитию, потому что спортсмен перестаёт слушать себя, ориентироваться на собственные ощущения и искать решения в динамичной среде.
В бизнесе, особенно в продажах или консалтинге, это встречается повсеместно.
Когда руководитель буквально разжёвывает каждую задачу или слишком часто даёт прямые комментарии и указания, исчезает пространство для творчества.
В итоге сотрудник делает вроде правильно, но без энергии, без внутреннего ощущения результата и часто совсем не то, что нужно. Это эмоционально выматывает и снижает эффективность.
Статья также подчёркивает: хороший тренинг строится не на количестве обратной связи, частоте и точности, а на дизайне ситуации.
То есть создаёшь такие условия, в которых человек сам получает естественный фидбек, через результат, реакцию клиента, рынок.
Роль лидера тут не решать задачу за подчинённого, а задавать рамки, иногда использовать метафору или вопрос и дать шанс на самостоятельный поиск.
Ещё одно важное наблюдение: коучинг сильно зависит от персональной совместимости.
Даже самые опытные и эмоционально зрелые люди не всегда могут быть хорошими коучами для всех.
Как в спорте: одному нужен жёсткий наставник, другому партнёрский стиль.
Поэтому универсального подхода не существует - важен баланс между поддержкой, свободой и личной химией.
@maxvotek | linkedin | substack
👍31🔥12❤10👎1
Mira Murati выпустила Tinker: первый продукт после ухода из OpenAI.
Несколько лет она была CTO, руководила GPT-4 и DALL·E, участвовала в обсуждениях регулирования ИИ и создала свою собственную лабораторию Thinking Machines Lab.
Tinker должна стать новой волной fine-tuning.
Доучивание и донастройки моделей требуют сложной инженерной инфраструктуры, распределённого обучения, работы с железом.
Tinker упрощает это и даёт доступ к готовой инфраструктуре через API. Обещают, что контроль над данными и алгоритмами сохраняется, но исчезает 90% боли с инфраструктурой. Исследователь работает с данными и не заморачивается с DevOps.
Основные фичи:
• Работает с моделями от малых до гигантских MoE-систем (Qwen-235B)
• Переключение между ними - одна строка кода, похоже на OpenRouter
• LoRA для параллельных экспериментов и снижения затрат
• Open-source Tinker Cookbook с готовыми рецептами для пост-тренинга
Первые пользователи: Princeton (теоремы), Stanford (химия), Berkeley (multi-agent RL), Redwood Research (контроль).
Андрей Карпати говорил об этом на своей лекции: fine-tuning побеждает в узких, насыщенных данными задачах.
Вместо огромных prompt-based моделей выигрывают маленькие, точно настроенные.
Мы видим это в корпоративных проектах. Универсальные LLM хороши для широких задач, но когда нужна точность в специфичной области, то побеждают специализированные агенты.
RAG + fine-tuned модели дают контроль над данными и снижают галлюцинации.
Исходя из обзоров, например, для e-commerce: Picnic, Etsy, Mercado Libre используют узкоспециализированные модели для рекомендаций, визуального поиска, поддержки.
Также мы видим, что наши клиенты всегда используют высоко кастомизированные модели, например, для распознавания товаров на полках.
В целом задача выбора более умной модели в моменте времени для узкоспециализированного use case пока никак не решается на уровне больших компаний, и мы видим уже инвойсы на 400 тыс $ в месяц от OpenAI.
Думаю, мы наблюдаем важный сдвиг в корпоративном мире:
• От универсальных моделей к специализированным пайплайнам.
• От промптов к fine-tuning.
• От общего к точному.
С точки зрения инноваций: большое пространство для консалтинга по выбору моделей и fine-tuning моделей с открытыми весами.
@maxvotek | linkedin | substack
Несколько лет она была CTO, руководила GPT-4 и DALL·E, участвовала в обсуждениях регулирования ИИ и создала свою собственную лабораторию Thinking Machines Lab.
Tinker должна стать новой волной fine-tuning.
Доучивание и донастройки моделей требуют сложной инженерной инфраструктуры, распределённого обучения, работы с железом.
Tinker упрощает это и даёт доступ к готовой инфраструктуре через API. Обещают, что контроль над данными и алгоритмами сохраняется, но исчезает 90% боли с инфраструктурой. Исследователь работает с данными и не заморачивается с DevOps.
Основные фичи:
• Работает с моделями от малых до гигантских MoE-систем (Qwen-235B)
• Переключение между ними - одна строка кода, похоже на OpenRouter
• LoRA для параллельных экспериментов и снижения затрат
• Open-source Tinker Cookbook с готовыми рецептами для пост-тренинга
Первые пользователи: Princeton (теоремы), Stanford (химия), Berkeley (multi-agent RL), Redwood Research (контроль).
Андрей Карпати говорил об этом на своей лекции: fine-tuning побеждает в узких, насыщенных данными задачах.
Вместо огромных prompt-based моделей выигрывают маленькие, точно настроенные.
Мы видим это в корпоративных проектах. Универсальные LLM хороши для широких задач, но когда нужна точность в специфичной области, то побеждают специализированные агенты.
RAG + fine-tuned модели дают контроль над данными и снижают галлюцинации.
Исходя из обзоров, например, для e-commerce: Picnic, Etsy, Mercado Libre используют узкоспециализированные модели для рекомендаций, визуального поиска, поддержки.
Также мы видим, что наши клиенты всегда используют высоко кастомизированные модели, например, для распознавания товаров на полках.
В целом задача выбора более умной модели в моменте времени для узкоспециализированного use case пока никак не решается на уровне больших компаний, и мы видим уже инвойсы на 400 тыс $ в месяц от OpenAI.
Думаю, мы наблюдаем важный сдвиг в корпоративном мире:
• От универсальных моделей к специализированным пайплайнам.
• От промптов к fine-tuning.
• От общего к точному.
С точки зрения инноваций: большое пространство для консалтинга по выбору моделей и fine-tuning моделей с открытыми весами.
@maxvotek | linkedin | substack
❤20👍7🔥6
Об «Обществе мёртвых поэтов»
Посмотрели с дочерью фильм, который вроде бы про школу, стихи и эксцентричного учителя, а на самом деле про то, что сложнее всего решиться жить своей жизнью.
Carpe diem - лови момент. Вроде простая фраза, которую мы слышали сотни раз, но в фильме она перестаёт быть лозунгом и превращается в вызов.
Вызов системе образования, родителям, привычке идти по рельсам или привычным для окружающих дорогам.
Робин Уильямс и все актёры в фильме невероятно смело отражают то, как сложно идти своим путём и создавать свой момент, вдохновлять друзей и оставаться собой.
Мне близка мысль, что свободное мышление начинается не с того, чтобы спорить или ломать правила ради самого процесса, а с умения остановиться и задать себе вопрос:
Я писал ранее о своём школьном друге Антоне и о том, как его пример повлиял на свободу мышления и выбора, как вдохновил быть предпринимателем.
Фильм показывает и возможную цену за эту свободу. Иногда это конфликты с окружением, иногда одиночество, иногда трагедия. Но альтернатива ещё хуже: жизнь по чужому сценарию.
Carpe diem - про смелость быть собой, услышать свой внутренний голос и позволить себе шагнуть в неизвестность, пока есть шанс.
Посмотрите фильм, если ещё не смотрели.
Интересно вспомнить важные события из своей жизни: в какие моменты я вёл себя как ученик в классе Китинга, а в какие - как тот, кто боится выйти из ряда и встать на парту, чтобы твой голос был услышан.
Фильм напомнил: свобода начинается внутри, и каждый день - это новый шанс доказать себе, что ты им пользуешься.
@maxvotek | linkedin | substack
Посмотрели с дочерью фильм, который вроде бы про школу, стихи и эксцентричного учителя, а на самом деле про то, что сложнее всего решиться жить своей жизнью.
Carpe diem - лови момент. Вроде простая фраза, которую мы слышали сотни раз, но в фильме она перестаёт быть лозунгом и превращается в вызов.
Вызов системе образования, родителям, привычке идти по рельсам или привычным для окружающих дорогам.
Робин Уильямс и все актёры в фильме невероятно смело отражают то, как сложно идти своим путём и создавать свой момент, вдохновлять друзей и оставаться собой.
Мне близка мысль, что свободное мышление начинается не с того, чтобы спорить или ломать правила ради самого процесса, а с умения остановиться и задать себе вопрос:
«А я действительно этого хочу? Это мой выбор или навязанный?»
Я писал ранее о своём школьном друге Антоне и о том, как его пример повлиял на свободу мышления и выбора, как вдохновил быть предпринимателем.
Фильм показывает и возможную цену за эту свободу. Иногда это конфликты с окружением, иногда одиночество, иногда трагедия. Но альтернатива ещё хуже: жизнь по чужому сценарию.
Carpe diem - про смелость быть собой, услышать свой внутренний голос и позволить себе шагнуть в неизвестность, пока есть шанс.
Посмотрите фильм, если ещё не смотрели.
Интересно вспомнить важные события из своей жизни: в какие моменты я вёл себя как ученик в классе Китинга, а в какие - как тот, кто боится выйти из ряда и встать на парту, чтобы твой голос был услышан.
Фильм напомнил: свобода начинается внутри, и каждый день - это новый шанс доказать себе, что ты им пользуешься.
@maxvotek | linkedin | substack
❤33🔥14👍9😁3
Чему действительно стоит учить детей
Размышлял об образовании детей и о том, что навыки самостоятельного мышления и принятия решений системно задвинуты на второй план, и дисциплин, где учат думать, очень мало в программе.
Не просто воспроизводить алгоритмы, а разбирать сложные контексты, искать причинно-следственные связи и уметь принимать решения.
Школьные задания часто в большей степени - тренировка воспроизведения опыта решения однотипных задач и примеров на скорость.
Ты зубришь, как решаются задачи, повторяешь алгоритмы до автоматизма - сдаёшь экзамены и тесты. При этом в олимпиадах или конкурсах по программированию чаще встречаются задачи со звёздочкой - там нет готового и даже единственно правильного решения.
Именно такие задачи и развивают мышление: нужно придумать свой способ, соотнести несколько известных методов, выбрать лучший, модифицировать.
Вот почему я считаю, что вайбкодинг может стать мощным инструментом для обучения.
Он соединяет контекст и контент: заставляет не только применять готовые блоки, но и понимать, как устроена логика, как разные части системы взаимодействуют.
Это как собирать LEGO: сначала по инструкции, потом из деталей разных конструкторов - что-то своё. Именно в этот момент и начинается мышление: когда ты выходишь на уровень собственных экспериментов.
В школах, к сожалению, за «свои алгоритмы» чаще наказывают, чем поощряют. Хотя именно они и есть проявление гибкости ума - способности видеть по-своему, пробовать, ошибаться, искать путь.
Не могу согласиться с мнением, что вайбкодинг - это просто инструмент потребления технологий.
Это ещё и способ создавать. Только на другом уровне, где важно уметь проверять, собирать, доверять инструментам, придумывать новое.
Кроме того, в программу обучения я бы добавил не только программирование, но и современную философию, психологию, базовые медицинские знания.
Понимание базовых концепций здоровья и патофизиологии, а также банальная первая доврачебная помощь - явные проблемы в образовании.
Парадокс в том, что интегралы многим не пригодились, а вот простое знание о собственном организме спасло бы не одну жизнь.
Мы живём в эпоху, где важно уметь мыслить, сомневаться, видеть контекст и создавать новое: будь то код, текст, идея или технология.
@maxvotek | linkedin | substack
Размышлял об образовании детей и о том, что навыки самостоятельного мышления и принятия решений системно задвинуты на второй план, и дисциплин, где учат думать, очень мало в программе.
Не просто воспроизводить алгоритмы, а разбирать сложные контексты, искать причинно-следственные связи и уметь принимать решения.
Школьные задания часто в большей степени - тренировка воспроизведения опыта решения однотипных задач и примеров на скорость.
Ты зубришь, как решаются задачи, повторяешь алгоритмы до автоматизма - сдаёшь экзамены и тесты. При этом в олимпиадах или конкурсах по программированию чаще встречаются задачи со звёздочкой - там нет готового и даже единственно правильного решения.
Именно такие задачи и развивают мышление: нужно придумать свой способ, соотнести несколько известных методов, выбрать лучший, модифицировать.
Вот почему я считаю, что вайбкодинг может стать мощным инструментом для обучения.
Он соединяет контекст и контент: заставляет не только применять готовые блоки, но и понимать, как устроена логика, как разные части системы взаимодействуют.
Это как собирать LEGO: сначала по инструкции, потом из деталей разных конструкторов - что-то своё. Именно в этот момент и начинается мышление: когда ты выходишь на уровень собственных экспериментов.
В школах, к сожалению, за «свои алгоритмы» чаще наказывают, чем поощряют. Хотя именно они и есть проявление гибкости ума - способности видеть по-своему, пробовать, ошибаться, искать путь.
Не могу согласиться с мнением, что вайбкодинг - это просто инструмент потребления технологий.
Это ещё и способ создавать. Только на другом уровне, где важно уметь проверять, собирать, доверять инструментам, придумывать новое.
Кроме того, в программу обучения я бы добавил не только программирование, но и современную философию, психологию, базовые медицинские знания.
Понимание базовых концепций здоровья и патофизиологии, а также банальная первая доврачебная помощь - явные проблемы в образовании.
Парадокс в том, что интегралы многим не пригодились, а вот простое знание о собственном организме спасло бы не одну жизнь.
Мы живём в эпоху, где важно уметь мыслить, сомневаться, видеть контекст и создавать новое: будь то код, текст, идея или технология.
@maxvotek | linkedin | substack
🔥37👍31❤19👎1
Проезжая мимо кладбища в Бока-Ратоне, где земля стоит как золото, подумал, что там покоятся миллионы идей, книг и проектов, которые так и не были реализованы.
Большинство людей уходит, так и не воплотив то, что носили в себе.
Важно не просто мечтать, а разобраться и довести дело до конца.
Не нужно знать всё заранее. Начни, и по пути разберёшься.
Находчивость и действие всегда важнее идеальности.
Креатив - это не идеи, а результат.
Сделал - значит сделал. Не сделал - значит нет.
Не держи идеи в голове. Выпускай их в мир.
Если начал, доведи до конца.
Каждый завершённый шаг добавляет уверенности: если справился раньше, справишься и сейчас.
Выбор всегда один - листать чужое или делать своё.
Сегодня просто сделай одну вещь до конца и покажи миру.
Главный навык - уметь разобраться.
Главная привычка - доводить до конца.
@maxvotek | linkedin | substack
Большинство людей уходит, так и не воплотив то, что носили в себе.
Важно не просто мечтать, а разобраться и довести дело до конца.
Не нужно знать всё заранее. Начни, и по пути разберёшься.
Находчивость и действие всегда важнее идеальности.
Креатив - это не идеи, а результат.
Сделал - значит сделал. Не сделал - значит нет.
Не держи идеи в голове. Выпускай их в мир.
Если начал, доведи до конца.
Каждый завершённый шаг добавляет уверенности: если справился раньше, справишься и сейчас.
Выбор всегда один - листать чужое или делать своё.
Сегодня просто сделай одну вещь до конца и покажи миру.
Главный навык - уметь разобраться.
Главная привычка - доводить до конца.
@maxvotek | linkedin | substack
🔥59❤31👍20
Триллионы токенов ≠ реальная ценность
На недавней конференции OpenAI показала список компаний и людей, которые уже сожгли больше триллиона токенов.
Duolingo, OpenRouter, Indeed - цифры впечатляют, но это не про эффективность.
JetBrains тоже в списке - Денис уже похвастался наградой от OpenAI за триллион токенов.
Настоящее конкурентное преимущество сегодня - в оптимизации расходов на языковые модели.
Как когда-то AWS перевернул рынок, позволяя компаниям снижать стоимость вычислений, так теперь грамотный выбор LLM и продуманная архитектура запросов определяют маржинальность бизнеса.
Побеждает не тот, кто сжигает триллионы токенов, а тот, кто превращает каждый миллион в ощутимую ценность, продукт и прибыль.
Именно динамический выбор и переключение моделей под конкретные use case станут ключевой задачей токен-реселлеров ближайшего будущего - нового слоя игроков в экономике LLM, где эффективность важнее масштаба.
1 триллион токенов - это не просто цифра:
• на дешёвых моделях вроде GPT-4o mini ~$285 000,
• на продвинутых вроде o1-pro - уже много миллионов.
@maxvotek | linkedin | substack
На недавней конференции OpenAI показала список компаний и людей, которые уже сожгли больше триллиона токенов.
Duolingo, OpenRouter, Indeed - цифры впечатляют, но это не про эффективность.
JetBrains тоже в списке - Денис уже похвастался наградой от OpenAI за триллион токенов.
Настоящее конкурентное преимущество сегодня - в оптимизации расходов на языковые модели.
Как когда-то AWS перевернул рынок, позволяя компаниям снижать стоимость вычислений, так теперь грамотный выбор LLM и продуманная архитектура запросов определяют маржинальность бизнеса.
Побеждает не тот, кто сжигает триллионы токенов, а тот, кто превращает каждый миллион в ощутимую ценность, продукт и прибыль.
Именно динамический выбор и переключение моделей под конкретные use case станут ключевой задачей токен-реселлеров ближайшего будущего - нового слоя игроков в экономике LLM, где эффективность важнее масштаба.
1 триллион токенов - это не просто цифра:
• на дешёвых моделях вроде GPT-4o mini ~$285 000,
• на продвинутых вроде o1-pro - уже много миллионов.
@maxvotek | linkedin | substack
👍19🔥7❤6
Может ли LLM притвориться покупателем?
Новости о предсказаниях реакций на маркетинговые компании по мотивам Sydney Sweeney и джинс American Eagle вдохновляют исследователей использовать LLM вместо фокус групп.
PyMC Labs попросили LLM «притворяться» покупателем с определённым демографическим профилем, показали ей продукт и попросили поделиться впечатлением, которое потом оценивает другая модель.
Они проверили, может ли языковая модель предсказать, купит ли человек продукт. Без обучения, без данных продаж, просто на основе описания товара и роли, которую она играет.
Модель получает анкету: пол, возраст, доход, место жительства. Ей показывают карточку продукта, например, шампунь.
Просили ответить, как обычный человек: что думаешь, купишь ли, почему да или нет.
Потом другой ИИ переводит этот текст в оценку по шкале от «точно не куплю» до «скорее всего да».
Результат совпал с реальными опросами людей на 90%. Без fine-tuning.
Метод назвали semantic similarity rating - смысловое сопоставление, насколько ответ похож по смыслу на реальные человеческие формулировки: «вряд ли куплю» или «очень хочу попробовать».
Самое интересное - тексты этих виртуальных покупателей оказались глубже человеческих и более четко объясняют: что смущает, что нравится, чего боятся. Модель не просто рассчитывает вероятность, она воспроизводит сам процесс человеческого размышления.
По итогам для простых предсказаний можно использовать детальный промпт по мотивам исследования и не учить модели на больших объёмах. Точно стоит попробовать использовать для анализа маркетинговых гипотез.
@maxvotek | linkedin | substack
Новости о предсказаниях реакций на маркетинговые компании по мотивам Sydney Sweeney и джинс American Eagle вдохновляют исследователей использовать LLM вместо фокус групп.
PyMC Labs попросили LLM «притворяться» покупателем с определённым демографическим профилем, показали ей продукт и попросили поделиться впечатлением, которое потом оценивает другая модель.
Они проверили, может ли языковая модель предсказать, купит ли человек продукт. Без обучения, без данных продаж, просто на основе описания товара и роли, которую она играет.
Модель получает анкету: пол, возраст, доход, место жительства. Ей показывают карточку продукта, например, шампунь.
Просили ответить, как обычный человек: что думаешь, купишь ли, почему да или нет.
Потом другой ИИ переводит этот текст в оценку по шкале от «точно не куплю» до «скорее всего да».
Результат совпал с реальными опросами людей на 90%. Без fine-tuning.
Метод назвали semantic similarity rating - смысловое сопоставление, насколько ответ похож по смыслу на реальные человеческие формулировки: «вряд ли куплю» или «очень хочу попробовать».
Самое интересное - тексты этих виртуальных покупателей оказались глубже человеческих и более четко объясняют: что смущает, что нравится, чего боятся. Модель не просто рассчитывает вероятность, она воспроизводит сам процесс человеческого размышления.
По итогам для простых предсказаний можно использовать детальный промпт по мотивам исследования и не учить модели на больших объёмах. Точно стоит попробовать использовать для анализа маркетинговых гипотез.
@maxvotek | linkedin | substack
👍29🔥9❤7