Зачем я пишу в Substack?
Я писал о том, зачем мне Телеграм - пространство, где можно честно делиться мыслями, сверять свои идеи с друзьями и коммьюнити, яснее слышать свой собственный голос.
Телеграм и Substack для меня стоят рядом: это два места, где более глубокие тексты доступны напрямую и не зависят от рекламных или поисковых алгоритмов.
Да, в Substack есть рекомендации и подборки, но главное - каждый пост приходит в почту или в приложение всем, кто сам подписался.
Большие медиа теряют аудиторию: CNN минус 34%, Forbes минус 52%.
Google всё чаще отвечает на вопросы прямо в поиске, соцсети отодвинули новости в сторону, люди уходят в алгоритмически управляемые сети YouTube и TikTok.
Алгоритмическая модель меняется на глазах и стремительно отъедает доходы у медиа.
На этом фоне Substack показывает +49% роста благодаря более честным принципам доставки контента, а также вознаграждает непрофессиональных авторов возможностью получить долю в доходах от контента.
По сути, это твой вебсайт с удобной формой подписки на рассылку.
У пользователей пока больше доверия к этой модели, и в плюсе те, кто глубже разбирается в теме, кто говорит честно и выстраивает долгие отношения с подписчиками без откровенного кликбейта.
Успешные бизнесы и личные бренды строятся всё меньше на объёме показов и охвате аудитории, а всё больше на ценностях, которые транслируются в мир.
Люди остаются там, где чувствуют искренность и совпадение взглядов.
Поэтому я пишу и на русском в Телеграм, и более развернуто на английском в Substack.
@maxvotek | linkedin | substack
Я писал о том, зачем мне Телеграм - пространство, где можно честно делиться мыслями, сверять свои идеи с друзьями и коммьюнити, яснее слышать свой собственный голос.
Телеграм и Substack для меня стоят рядом: это два места, где более глубокие тексты доступны напрямую и не зависят от рекламных или поисковых алгоритмов.
Да, в Substack есть рекомендации и подборки, но главное - каждый пост приходит в почту или в приложение всем, кто сам подписался.
Большие медиа теряют аудиторию: CNN минус 34%, Forbes минус 52%.
Google всё чаще отвечает на вопросы прямо в поиске, соцсети отодвинули новости в сторону, люди уходят в алгоритмически управляемые сети YouTube и TikTok.
Алгоритмическая модель меняется на глазах и стремительно отъедает доходы у медиа.
На этом фоне Substack показывает +49% роста благодаря более честным принципам доставки контента, а также вознаграждает непрофессиональных авторов возможностью получить долю в доходах от контента.
По сути, это твой вебсайт с удобной формой подписки на рассылку.
У пользователей пока больше доверия к этой модели, и в плюсе те, кто глубже разбирается в теме, кто говорит честно и выстраивает долгие отношения с подписчиками без откровенного кликбейта.
Успешные бизнесы и личные бренды строятся всё меньше на объёме показов и охвате аудитории, а всё больше на ценностях, которые транслируются в мир.
Люди остаются там, где чувствуют искренность и совпадение взглядов.
Поэтому я пишу и на русском в Телеграм, и более развернуто на английском в Substack.
@maxvotek | linkedin | substack
👍21❤17🔥9👎1
Выгнали с урока математики за то, что отвечал на звонок инвестора.
Так начинается история 18-летнего Арлана Рахметжанова из Алматы, который бросил школу и уже привлек 6,2 млн долларов на свой стартап Nozomio.
Всё началось ещё в детстве, когда отец 11 летнему сыну рассказал ему про Y Combinator. В 15 лет Арлан начал программировать первые приложения, а к выпускному классу понял, что школа перестала его удерживать - всё время уходило в код и работу над проектами.
В декабре 2024 года он основал Nozomio - сервис для разработки и обучения ИИ-агентов. Уже через месяц прототип продукта оказался на Product Hunt и получил статус product of the day.
Холодные звонки YC-фаундерам принесли первую ангельскую инвестицию и знакомство с фондом LocalGlobe. А тот самый звонок, который Арлан взял прямо на уроке математики, привел к закрытию pre-seed раунда.
Y Combinator тоже не покорился сразу - две попытки были неудачными. Но именно третья заявка принесла приглашение в летнюю группу и возможность построить компанию дальше.
Сегодня у Nozomio есть поддержка фондов CRV, BoxGroup, LocalGlobe, самого YC, а среди инвесторов - Пол Грэм и CTO Spotify Густав Сёдерстрём.
Арлан получил визу талантов O-1 в США и продолжает развивать компанию в Сан-Франциско.
При этом он до сих пор ведет бизнес практически один. И именно здесь кроется его стратегия: на привлеченные средства он планирует нанять первого сотрудника только в том случае, если перестанет справляться с обслуживанием клиентов сам.
Его цель - сделать Nozomio самым экономичным стартапом в сфере ИИ и собрать небольшую, но очень сильную команду молодых разработчиков, готовых работать с высокой скоростью и плотностью талантов.
Арлан говорит о своем пути так:
Очень интересная история Арлана. Сегодня много споров о целесообразности высшего образования и о том, какие навыки реально будут определять судьбу детей в эпоху ИИ.
Я писал, что не стоит спешить в YC, считая его единственным шансом на успех. Но видя ускорение событий в IT, понимаю, что картина меняется, и иногда скорость оказывается решающим фактором развития.
Образование и акселераторы - лишь инструменты. Главное - способность действовать быстро, учиться на практике и использовать момент.
@maxvotek | linkedin | substack
Так начинается история 18-летнего Арлана Рахметжанова из Алматы, который бросил школу и уже привлек 6,2 млн долларов на свой стартап Nozomio.
Всё началось ещё в детстве, когда отец 11 летнему сыну рассказал ему про Y Combinator. В 15 лет Арлан начал программировать первые приложения, а к выпускному классу понял, что школа перестала его удерживать - всё время уходило в код и работу над проектами.
В декабре 2024 года он основал Nozomio - сервис для разработки и обучения ИИ-агентов. Уже через месяц прототип продукта оказался на Product Hunt и получил статус product of the day.
Холодные звонки YC-фаундерам принесли первую ангельскую инвестицию и знакомство с фондом LocalGlobe. А тот самый звонок, который Арлан взял прямо на уроке математики, привел к закрытию pre-seed раунда.
Y Combinator тоже не покорился сразу - две попытки были неудачными. Но именно третья заявка принесла приглашение в летнюю группу и возможность построить компанию дальше.
Сегодня у Nozomio есть поддержка фондов CRV, BoxGroup, LocalGlobe, самого YC, а среди инвесторов - Пол Грэм и CTO Spotify Густав Сёдерстрём.
Арлан получил визу талантов O-1 в США и продолжает развивать компанию в Сан-Франциско.
При этом он до сих пор ведет бизнес практически один. И именно здесь кроется его стратегия: на привлеченные средства он планирует нанять первого сотрудника только в том случае, если перестанет справляться с обслуживанием клиентов сам.
Его цель - сделать Nozomio самым экономичным стартапом в сфере ИИ и собрать небольшую, но очень сильную команду молодых разработчиков, готовых работать с высокой скоростью и плотностью талантов.
Арлан говорит о своем пути так:
Быть молодым основателем определённо плюс. Да, у меня нет докторской степени Стэнфорда, но мне сказали, что партнёр из YC выбрал меня именно потому, что я очень быстро выпускаю продукты - а это крайне важно в эпоху ИИ.
Очень интересная история Арлана. Сегодня много споров о целесообразности высшего образования и о том, какие навыки реально будут определять судьбу детей в эпоху ИИ.
Я писал, что не стоит спешить в YC, считая его единственным шансом на успех. Но видя ускорение событий в IT, понимаю, что картина меняется, и иногда скорость оказывается решающим фактором развития.
Образование и акселераторы - лишь инструменты. Главное - способность действовать быстро, учиться на практике и использовать момент.
@maxvotek | linkedin | substack
❤31👍11😁11👎4🔥3
When_and_How_to_Provide_Feedback_and_Instructions_to_Athletes.pdf
950 KB
Недавно прочитал исследование о том, как и когда тренеру стоит давать обратную связь спортсменам.
Идея, которая меня особенно зацепила, феномен overcoaching.
Слишком частые и прямые указания мешают развитию, потому что спортсмен перестаёт слушать себя, ориентироваться на собственные ощущения и искать решения в динамичной среде.
В бизнесе, особенно в продажах или консалтинге, это встречается повсеместно.
Когда руководитель буквально разжёвывает каждую задачу или слишком часто даёт прямые комментарии и указания, исчезает пространство для творчества.
В итоге сотрудник делает вроде правильно, но без энергии, без внутреннего ощущения результата и часто совсем не то, что нужно. Это эмоционально выматывает и снижает эффективность.
Статья также подчёркивает: хороший тренинг строится не на количестве обратной связи, частоте и точности, а на дизайне ситуации.
То есть создаёшь такие условия, в которых человек сам получает естественный фидбек, через результат, реакцию клиента, рынок.
Роль лидера тут не решать задачу за подчинённого, а задавать рамки, иногда использовать метафору или вопрос и дать шанс на самостоятельный поиск.
Ещё одно важное наблюдение: коучинг сильно зависит от персональной совместимости.
Даже самые опытные и эмоционально зрелые люди не всегда могут быть хорошими коучами для всех.
Как в спорте: одному нужен жёсткий наставник, другому партнёрский стиль.
Поэтому универсального подхода не существует - важен баланс между поддержкой, свободой и личной химией.
@maxvotek | linkedin | substack
Идея, которая меня особенно зацепила, феномен overcoaching.
Слишком частые и прямые указания мешают развитию, потому что спортсмен перестаёт слушать себя, ориентироваться на собственные ощущения и искать решения в динамичной среде.
В бизнесе, особенно в продажах или консалтинге, это встречается повсеместно.
Когда руководитель буквально разжёвывает каждую задачу или слишком часто даёт прямые комментарии и указания, исчезает пространство для творчества.
В итоге сотрудник делает вроде правильно, но без энергии, без внутреннего ощущения результата и часто совсем не то, что нужно. Это эмоционально выматывает и снижает эффективность.
Статья также подчёркивает: хороший тренинг строится не на количестве обратной связи, частоте и точности, а на дизайне ситуации.
То есть создаёшь такие условия, в которых человек сам получает естественный фидбек, через результат, реакцию клиента, рынок.
Роль лидера тут не решать задачу за подчинённого, а задавать рамки, иногда использовать метафору или вопрос и дать шанс на самостоятельный поиск.
Ещё одно важное наблюдение: коучинг сильно зависит от персональной совместимости.
Даже самые опытные и эмоционально зрелые люди не всегда могут быть хорошими коучами для всех.
Как в спорте: одному нужен жёсткий наставник, другому партнёрский стиль.
Поэтому универсального подхода не существует - важен баланс между поддержкой, свободой и личной химией.
@maxvotek | linkedin | substack
👍31🔥12❤10👎1
Mira Murati выпустила Tinker: первый продукт после ухода из OpenAI.
Несколько лет она была CTO, руководила GPT-4 и DALL·E, участвовала в обсуждениях регулирования ИИ и создала свою собственную лабораторию Thinking Machines Lab.
Tinker должна стать новой волной fine-tuning.
Доучивание и донастройки моделей требуют сложной инженерной инфраструктуры, распределённого обучения, работы с железом.
Tinker упрощает это и даёт доступ к готовой инфраструктуре через API. Обещают, что контроль над данными и алгоритмами сохраняется, но исчезает 90% боли с инфраструктурой. Исследователь работает с данными и не заморачивается с DevOps.
Основные фичи:
• Работает с моделями от малых до гигантских MoE-систем (Qwen-235B)
• Переключение между ними - одна строка кода, похоже на OpenRouter
• LoRA для параллельных экспериментов и снижения затрат
• Open-source Tinker Cookbook с готовыми рецептами для пост-тренинга
Первые пользователи: Princeton (теоремы), Stanford (химия), Berkeley (multi-agent RL), Redwood Research (контроль).
Андрей Карпати говорил об этом на своей лекции: fine-tuning побеждает в узких, насыщенных данными задачах.
Вместо огромных prompt-based моделей выигрывают маленькие, точно настроенные.
Мы видим это в корпоративных проектах. Универсальные LLM хороши для широких задач, но когда нужна точность в специфичной области, то побеждают специализированные агенты.
RAG + fine-tuned модели дают контроль над данными и снижают галлюцинации.
Исходя из обзоров, например, для e-commerce: Picnic, Etsy, Mercado Libre используют узкоспециализированные модели для рекомендаций, визуального поиска, поддержки.
Также мы видим, что наши клиенты всегда используют высоко кастомизированные модели, например, для распознавания товаров на полках.
В целом задача выбора более умной модели в моменте времени для узкоспециализированного use case пока никак не решается на уровне больших компаний, и мы видим уже инвойсы на 400 тыс $ в месяц от OpenAI.
Думаю, мы наблюдаем важный сдвиг в корпоративном мире:
• От универсальных моделей к специализированным пайплайнам.
• От промптов к fine-tuning.
• От общего к точному.
С точки зрения инноваций: большое пространство для консалтинга по выбору моделей и fine-tuning моделей с открытыми весами.
@maxvotek | linkedin | substack
Несколько лет она была CTO, руководила GPT-4 и DALL·E, участвовала в обсуждениях регулирования ИИ и создала свою собственную лабораторию Thinking Machines Lab.
Tinker должна стать новой волной fine-tuning.
Доучивание и донастройки моделей требуют сложной инженерной инфраструктуры, распределённого обучения, работы с железом.
Tinker упрощает это и даёт доступ к готовой инфраструктуре через API. Обещают, что контроль над данными и алгоритмами сохраняется, но исчезает 90% боли с инфраструктурой. Исследователь работает с данными и не заморачивается с DevOps.
Основные фичи:
• Работает с моделями от малых до гигантских MoE-систем (Qwen-235B)
• Переключение между ними - одна строка кода, похоже на OpenRouter
• LoRA для параллельных экспериментов и снижения затрат
• Open-source Tinker Cookbook с готовыми рецептами для пост-тренинга
Первые пользователи: Princeton (теоремы), Stanford (химия), Berkeley (multi-agent RL), Redwood Research (контроль).
Андрей Карпати говорил об этом на своей лекции: fine-tuning побеждает в узких, насыщенных данными задачах.
Вместо огромных prompt-based моделей выигрывают маленькие, точно настроенные.
Мы видим это в корпоративных проектах. Универсальные LLM хороши для широких задач, но когда нужна точность в специфичной области, то побеждают специализированные агенты.
RAG + fine-tuned модели дают контроль над данными и снижают галлюцинации.
Исходя из обзоров, например, для e-commerce: Picnic, Etsy, Mercado Libre используют узкоспециализированные модели для рекомендаций, визуального поиска, поддержки.
Также мы видим, что наши клиенты всегда используют высоко кастомизированные модели, например, для распознавания товаров на полках.
В целом задача выбора более умной модели в моменте времени для узкоспециализированного use case пока никак не решается на уровне больших компаний, и мы видим уже инвойсы на 400 тыс $ в месяц от OpenAI.
Думаю, мы наблюдаем важный сдвиг в корпоративном мире:
• От универсальных моделей к специализированным пайплайнам.
• От промптов к fine-tuning.
• От общего к точному.
С точки зрения инноваций: большое пространство для консалтинга по выбору моделей и fine-tuning моделей с открытыми весами.
@maxvotek | linkedin | substack
❤20👍7🔥6
Об «Обществе мёртвых поэтов»
Посмотрели с дочерью фильм, который вроде бы про школу, стихи и эксцентричного учителя, а на самом деле про то, что сложнее всего решиться жить своей жизнью.
Carpe diem - лови момент. Вроде простая фраза, которую мы слышали сотни раз, но в фильме она перестаёт быть лозунгом и превращается в вызов.
Вызов системе образования, родителям, привычке идти по рельсам или привычным для окружающих дорогам.
Робин Уильямс и все актёры в фильме невероятно смело отражают то, как сложно идти своим путём и создавать свой момент, вдохновлять друзей и оставаться собой.
Мне близка мысль, что свободное мышление начинается не с того, чтобы спорить или ломать правила ради самого процесса, а с умения остановиться и задать себе вопрос:
Я писал ранее о своём школьном друге Антоне и о том, как его пример повлиял на свободу мышления и выбора, как вдохновил быть предпринимателем.
Фильм показывает и возможную цену за эту свободу. Иногда это конфликты с окружением, иногда одиночество, иногда трагедия. Но альтернатива ещё хуже: жизнь по чужому сценарию.
Carpe diem - про смелость быть собой, услышать свой внутренний голос и позволить себе шагнуть в неизвестность, пока есть шанс.
Посмотрите фильм, если ещё не смотрели.
Интересно вспомнить важные события из своей жизни: в какие моменты я вёл себя как ученик в классе Китинга, а в какие - как тот, кто боится выйти из ряда и встать на парту, чтобы твой голос был услышан.
Фильм напомнил: свобода начинается внутри, и каждый день - это новый шанс доказать себе, что ты им пользуешься.
@maxvotek | linkedin | substack
Посмотрели с дочерью фильм, который вроде бы про школу, стихи и эксцентричного учителя, а на самом деле про то, что сложнее всего решиться жить своей жизнью.
Carpe diem - лови момент. Вроде простая фраза, которую мы слышали сотни раз, но в фильме она перестаёт быть лозунгом и превращается в вызов.
Вызов системе образования, родителям, привычке идти по рельсам или привычным для окружающих дорогам.
Робин Уильямс и все актёры в фильме невероятно смело отражают то, как сложно идти своим путём и создавать свой момент, вдохновлять друзей и оставаться собой.
Мне близка мысль, что свободное мышление начинается не с того, чтобы спорить или ломать правила ради самого процесса, а с умения остановиться и задать себе вопрос:
«А я действительно этого хочу? Это мой выбор или навязанный?»
Я писал ранее о своём школьном друге Антоне и о том, как его пример повлиял на свободу мышления и выбора, как вдохновил быть предпринимателем.
Фильм показывает и возможную цену за эту свободу. Иногда это конфликты с окружением, иногда одиночество, иногда трагедия. Но альтернатива ещё хуже: жизнь по чужому сценарию.
Carpe diem - про смелость быть собой, услышать свой внутренний голос и позволить себе шагнуть в неизвестность, пока есть шанс.
Посмотрите фильм, если ещё не смотрели.
Интересно вспомнить важные события из своей жизни: в какие моменты я вёл себя как ученик в классе Китинга, а в какие - как тот, кто боится выйти из ряда и встать на парту, чтобы твой голос был услышан.
Фильм напомнил: свобода начинается внутри, и каждый день - это новый шанс доказать себе, что ты им пользуешься.
@maxvotek | linkedin | substack
❤33🔥14👍9😁3
Чему действительно стоит учить детей
Размышлял об образовании детей и о том, что навыки самостоятельного мышления и принятия решений системно задвинуты на второй план, и дисциплин, где учат думать, очень мало в программе.
Не просто воспроизводить алгоритмы, а разбирать сложные контексты, искать причинно-следственные связи и уметь принимать решения.
Школьные задания часто в большей степени - тренировка воспроизведения опыта решения однотипных задач и примеров на скорость.
Ты зубришь, как решаются задачи, повторяешь алгоритмы до автоматизма - сдаёшь экзамены и тесты. При этом в олимпиадах или конкурсах по программированию чаще встречаются задачи со звёздочкой - там нет готового и даже единственно правильного решения.
Именно такие задачи и развивают мышление: нужно придумать свой способ, соотнести несколько известных методов, выбрать лучший, модифицировать.
Вот почему я считаю, что вайбкодинг может стать мощным инструментом для обучения.
Он соединяет контекст и контент: заставляет не только применять готовые блоки, но и понимать, как устроена логика, как разные части системы взаимодействуют.
Это как собирать LEGO: сначала по инструкции, потом из деталей разных конструкторов - что-то своё. Именно в этот момент и начинается мышление: когда ты выходишь на уровень собственных экспериментов.
В школах, к сожалению, за «свои алгоритмы» чаще наказывают, чем поощряют. Хотя именно они и есть проявление гибкости ума - способности видеть по-своему, пробовать, ошибаться, искать путь.
Не могу согласиться с мнением, что вайбкодинг - это просто инструмент потребления технологий.
Это ещё и способ создавать. Только на другом уровне, где важно уметь проверять, собирать, доверять инструментам, придумывать новое.
Кроме того, в программу обучения я бы добавил не только программирование, но и современную философию, психологию, базовые медицинские знания.
Понимание базовых концепций здоровья и патофизиологии, а также банальная первая доврачебная помощь - явные проблемы в образовании.
Парадокс в том, что интегралы многим не пригодились, а вот простое знание о собственном организме спасло бы не одну жизнь.
Мы живём в эпоху, где важно уметь мыслить, сомневаться, видеть контекст и создавать новое: будь то код, текст, идея или технология.
@maxvotek | linkedin | substack
Размышлял об образовании детей и о том, что навыки самостоятельного мышления и принятия решений системно задвинуты на второй план, и дисциплин, где учат думать, очень мало в программе.
Не просто воспроизводить алгоритмы, а разбирать сложные контексты, искать причинно-следственные связи и уметь принимать решения.
Школьные задания часто в большей степени - тренировка воспроизведения опыта решения однотипных задач и примеров на скорость.
Ты зубришь, как решаются задачи, повторяешь алгоритмы до автоматизма - сдаёшь экзамены и тесты. При этом в олимпиадах или конкурсах по программированию чаще встречаются задачи со звёздочкой - там нет готового и даже единственно правильного решения.
Именно такие задачи и развивают мышление: нужно придумать свой способ, соотнести несколько известных методов, выбрать лучший, модифицировать.
Вот почему я считаю, что вайбкодинг может стать мощным инструментом для обучения.
Он соединяет контекст и контент: заставляет не только применять готовые блоки, но и понимать, как устроена логика, как разные части системы взаимодействуют.
Это как собирать LEGO: сначала по инструкции, потом из деталей разных конструкторов - что-то своё. Именно в этот момент и начинается мышление: когда ты выходишь на уровень собственных экспериментов.
В школах, к сожалению, за «свои алгоритмы» чаще наказывают, чем поощряют. Хотя именно они и есть проявление гибкости ума - способности видеть по-своему, пробовать, ошибаться, искать путь.
Не могу согласиться с мнением, что вайбкодинг - это просто инструмент потребления технологий.
Это ещё и способ создавать. Только на другом уровне, где важно уметь проверять, собирать, доверять инструментам, придумывать новое.
Кроме того, в программу обучения я бы добавил не только программирование, но и современную философию, психологию, базовые медицинские знания.
Понимание базовых концепций здоровья и патофизиологии, а также банальная первая доврачебная помощь - явные проблемы в образовании.
Парадокс в том, что интегралы многим не пригодились, а вот простое знание о собственном организме спасло бы не одну жизнь.
Мы живём в эпоху, где важно уметь мыслить, сомневаться, видеть контекст и создавать новое: будь то код, текст, идея или технология.
@maxvotek | linkedin | substack
🔥37👍31❤19👎1
Проезжая мимо кладбища в Бока-Ратоне, где земля стоит как золото, подумал, что там покоятся миллионы идей, книг и проектов, которые так и не были реализованы.
Большинство людей уходит, так и не воплотив то, что носили в себе.
Важно не просто мечтать, а разобраться и довести дело до конца.
Не нужно знать всё заранее. Начни, и по пути разберёшься.
Находчивость и действие всегда важнее идеальности.
Креатив - это не идеи, а результат.
Сделал - значит сделал. Не сделал - значит нет.
Не держи идеи в голове. Выпускай их в мир.
Если начал, доведи до конца.
Каждый завершённый шаг добавляет уверенности: если справился раньше, справишься и сейчас.
Выбор всегда один - листать чужое или делать своё.
Сегодня просто сделай одну вещь до конца и покажи миру.
Главный навык - уметь разобраться.
Главная привычка - доводить до конца.
@maxvotek | linkedin | substack
Большинство людей уходит, так и не воплотив то, что носили в себе.
Важно не просто мечтать, а разобраться и довести дело до конца.
Не нужно знать всё заранее. Начни, и по пути разберёшься.
Находчивость и действие всегда важнее идеальности.
Креатив - это не идеи, а результат.
Сделал - значит сделал. Не сделал - значит нет.
Не держи идеи в голове. Выпускай их в мир.
Если начал, доведи до конца.
Каждый завершённый шаг добавляет уверенности: если справился раньше, справишься и сейчас.
Выбор всегда один - листать чужое или делать своё.
Сегодня просто сделай одну вещь до конца и покажи миру.
Главный навык - уметь разобраться.
Главная привычка - доводить до конца.
@maxvotek | linkedin | substack
🔥59❤31👍20
Триллионы токенов ≠ реальная ценность
На недавней конференции OpenAI показала список компаний и людей, которые уже сожгли больше триллиона токенов.
Duolingo, OpenRouter, Indeed - цифры впечатляют, но это не про эффективность.
JetBrains тоже в списке - Денис уже похвастался наградой от OpenAI за триллион токенов.
Настоящее конкурентное преимущество сегодня - в оптимизации расходов на языковые модели.
Как когда-то AWS перевернул рынок, позволяя компаниям снижать стоимость вычислений, так теперь грамотный выбор LLM и продуманная архитектура запросов определяют маржинальность бизнеса.
Побеждает не тот, кто сжигает триллионы токенов, а тот, кто превращает каждый миллион в ощутимую ценность, продукт и прибыль.
Именно динамический выбор и переключение моделей под конкретные use case станут ключевой задачей токен-реселлеров ближайшего будущего - нового слоя игроков в экономике LLM, где эффективность важнее масштаба.
1 триллион токенов - это не просто цифра:
• на дешёвых моделях вроде GPT-4o mini ~$285 000,
• на продвинутых вроде o1-pro - уже много миллионов.
@maxvotek | linkedin | substack
На недавней конференции OpenAI показала список компаний и людей, которые уже сожгли больше триллиона токенов.
Duolingo, OpenRouter, Indeed - цифры впечатляют, но это не про эффективность.
JetBrains тоже в списке - Денис уже похвастался наградой от OpenAI за триллион токенов.
Настоящее конкурентное преимущество сегодня - в оптимизации расходов на языковые модели.
Как когда-то AWS перевернул рынок, позволяя компаниям снижать стоимость вычислений, так теперь грамотный выбор LLM и продуманная архитектура запросов определяют маржинальность бизнеса.
Побеждает не тот, кто сжигает триллионы токенов, а тот, кто превращает каждый миллион в ощутимую ценность, продукт и прибыль.
Именно динамический выбор и переключение моделей под конкретные use case станут ключевой задачей токен-реселлеров ближайшего будущего - нового слоя игроков в экономике LLM, где эффективность важнее масштаба.
1 триллион токенов - это не просто цифра:
• на дешёвых моделях вроде GPT-4o mini ~$285 000,
• на продвинутых вроде o1-pro - уже много миллионов.
@maxvotek | linkedin | substack
👍19🔥7❤6
Может ли LLM притвориться покупателем?
Новости о предсказаниях реакций на маркетинговые компании по мотивам Sydney Sweeney и джинс American Eagle вдохновляют исследователей использовать LLM вместо фокус групп.
PyMC Labs попросили LLM «притворяться» покупателем с определённым демографическим профилем, показали ей продукт и попросили поделиться впечатлением, которое потом оценивает другая модель.
Они проверили, может ли языковая модель предсказать, купит ли человек продукт. Без обучения, без данных продаж, просто на основе описания товара и роли, которую она играет.
Модель получает анкету: пол, возраст, доход, место жительства. Ей показывают карточку продукта, например, шампунь.
Просили ответить, как обычный человек: что думаешь, купишь ли, почему да или нет.
Потом другой ИИ переводит этот текст в оценку по шкале от «точно не куплю» до «скорее всего да».
Результат совпал с реальными опросами людей на 90%. Без fine-tuning.
Метод назвали semantic similarity rating - смысловое сопоставление, насколько ответ похож по смыслу на реальные человеческие формулировки: «вряд ли куплю» или «очень хочу попробовать».
Самое интересное - тексты этих виртуальных покупателей оказались глубже человеческих и более четко объясняют: что смущает, что нравится, чего боятся. Модель не просто рассчитывает вероятность, она воспроизводит сам процесс человеческого размышления.
По итогам для простых предсказаний можно использовать детальный промпт по мотивам исследования и не учить модели на больших объёмах. Точно стоит попробовать использовать для анализа маркетинговых гипотез.
@maxvotek | linkedin | substack
Новости о предсказаниях реакций на маркетинговые компании по мотивам Sydney Sweeney и джинс American Eagle вдохновляют исследователей использовать LLM вместо фокус групп.
PyMC Labs попросили LLM «притворяться» покупателем с определённым демографическим профилем, показали ей продукт и попросили поделиться впечатлением, которое потом оценивает другая модель.
Они проверили, может ли языковая модель предсказать, купит ли человек продукт. Без обучения, без данных продаж, просто на основе описания товара и роли, которую она играет.
Модель получает анкету: пол, возраст, доход, место жительства. Ей показывают карточку продукта, например, шампунь.
Просили ответить, как обычный человек: что думаешь, купишь ли, почему да или нет.
Потом другой ИИ переводит этот текст в оценку по шкале от «точно не куплю» до «скорее всего да».
Результат совпал с реальными опросами людей на 90%. Без fine-tuning.
Метод назвали semantic similarity rating - смысловое сопоставление, насколько ответ похож по смыслу на реальные человеческие формулировки: «вряд ли куплю» или «очень хочу попробовать».
Самое интересное - тексты этих виртуальных покупателей оказались глубже человеческих и более четко объясняют: что смущает, что нравится, чего боятся. Модель не просто рассчитывает вероятность, она воспроизводит сам процесс человеческого размышления.
По итогам для простых предсказаний можно использовать детальный промпт по мотивам исследования и не учить модели на больших объёмах. Точно стоит попробовать использовать для анализа маркетинговых гипотез.
@maxvotek | linkedin | substack
👍29🔥9❤7
Сегодня был в The Royal Institution в Лондоне - месте, где уже два века рождаются открытия, меняющие мир.
Здесь Майкл Фарадей доказал, что движение магнитного поля создаёт электричество, намотал вручную не одну катушку, из которых родились электродвигатель и генератор.
Он попал сюда почти случайно, после ссоры и драки двух лаборантов, которых уволили. Ему дали возможность поработать в лаборатории. Если бы не этот конфликт, возможно, электричество открыл бы кто-то другой и гораздо позже.
Фарадей не имел формального образования, но именно он сделал возможным всё, что сегодня питает цивилизацию. В этих же лабораториях он впервые получил наночастицы золота, а сейчас здесь исследуют магнитные наночастицы и их влияние на живые клетки.
Две сотни лет спустя - то же место, тот же дух первооткрывательства.
Здесь работает мой друг, учёный Михаил Бурцев, с темой, которая звучит как научная фантастика: «Как с помощью AI расшифровать язык жизни».
Он начал с экспериментов с живыми нейронами, потом перешёл к нейросетям, а сегодня строит GENA-LM - языковую модель для ДНК.
Если большие языковые модели научились понимать человеческий язык, почему бы не применить те же принципы к коду жизни - к геному длиной в 3 миллиарда букв?
Мы с Мишей и моим партнёром Николаем Щениным обсуждали, как оценивать большие языковые модели в индустриальных use cases и новом проекте Customertimes Induro.ai.
Интересно, что и здесь, и в науке о жизни принципы одни и те же: важно не просто обучить модель, а понять, где и как она действительно создаёт ценность - будь то лаборатория, фарма или реальный бизнес.
@maxvotek | linkedin | substack
Здесь Майкл Фарадей доказал, что движение магнитного поля создаёт электричество, намотал вручную не одну катушку, из которых родились электродвигатель и генератор.
Он попал сюда почти случайно, после ссоры и драки двух лаборантов, которых уволили. Ему дали возможность поработать в лаборатории. Если бы не этот конфликт, возможно, электричество открыл бы кто-то другой и гораздо позже.
Фарадей не имел формального образования, но именно он сделал возможным всё, что сегодня питает цивилизацию. В этих же лабораториях он впервые получил наночастицы золота, а сейчас здесь исследуют магнитные наночастицы и их влияние на живые клетки.
Две сотни лет спустя - то же место, тот же дух первооткрывательства.
Здесь работает мой друг, учёный Михаил Бурцев, с темой, которая звучит как научная фантастика: «Как с помощью AI расшифровать язык жизни».
Он начал с экспериментов с живыми нейронами, потом перешёл к нейросетям, а сегодня строит GENA-LM - языковую модель для ДНК.
Если большие языковые модели научились понимать человеческий язык, почему бы не применить те же принципы к коду жизни - к геному длиной в 3 миллиарда букв?
Мы с Мишей и моим партнёром Николаем Щениным обсуждали, как оценивать большие языковые модели в индустриальных use cases и новом проекте Customertimes Induro.ai.
Интересно, что и здесь, и в науке о жизни принципы одни и те же: важно не просто обучить модель, а понять, где и как она действительно создаёт ценность - будь то лаборатория, фарма или реальный бизнес.
@maxvotek | linkedin | substack
❤25🔥17👍13
Как я использую Claude Code - не для кода
Уверен, что большинство читателей моего канала постоянно используют ChatGPT или Anthropic в режиме чата и получают массу удовольствия от постоянно улучшающегося качества ответов, расширения возможностей памяти, анализа картинок, документов и т.п.
За последние пару месяцев вторым важным помощником, которого я использую только с компьютера, стал Claude Code.
Я уже писал ранее, что тарифный план Max Pro - это эквивалент тысяч долларов в токенах, и сейчас он продаётся за 200 долларов в месяц.
Программистам это даёт огромное ускорение, а при умелом и осмысленном использовании уже сейчас экономит драгоценные часы сидения за компьютером.
Мои сценарии использования Claude Code - не в программировании, а вокруг анализа больших объёмов документов, файлов и данных, которые удобно сложить в одну проектную папку, открыть терминал, запустить Клода в режиме:
Несколько примеров:
За последние пару месяцев я старался показать этот инструмент всем, кому он может помочь сэкономить время и вижу, что многим действительно помог.
@maxvotek | linkedin | substack
Уверен, что большинство читателей моего канала постоянно используют ChatGPT или Anthropic в режиме чата и получают массу удовольствия от постоянно улучшающегося качества ответов, расширения возможностей памяти, анализа картинок, документов и т.п.
За последние пару месяцев вторым важным помощником, которого я использую только с компьютера, стал Claude Code.
Я уже писал ранее, что тарифный план Max Pro - это эквивалент тысяч долларов в токенах, и сейчас он продаётся за 200 долларов в месяц.
Программистам это даёт огромное ускорение, а при умелом и осмысленном использовании уже сейчас экономит драгоценные часы сидения за компьютером.
Мои сценарии использования Claude Code - не в программировании, а вокруг анализа больших объёмов документов, файлов и данных, которые удобно сложить в одну проектную папку, открыть терминал, запустить Клода в режиме:
claude --dangerously-skip-permissions, чтобы он не задавал лишних вопросов, и начать давать задания, получая ответы в виде удобных файлов и на экране терминала.Несколько примеров:
• Выгрузка всей истории LinkedIn, фильтрация и анализ контактов по странам и городам, куда собираешься; приоритезация и сбор персонализированных подсказок для outreach.
• Анализ данных с Oura и Garmin в сочетании с выгрузкой и анализом генома. Теперь не нужно ждать разрешений у FDA или других компаний, чтобы узнать наследственные предрасположенности и наложить их на данные о сне, тренировках, стрессе и других полезных параметрах.
• При подготовке налоговых отчётов часто видишь несостыковки в данных. Claude помогает находить расхождения и несостыковки в цифрах, чтобы всё сошлось до цента, включая анализ выгрузок с криптобирж и других неудобных для анализа источников.
• Можно дать проанализировать записи разговоров из Plaud или Teams и попросить разобрать свои управленческие и поведенческие паттерны, а также увидеть в процентах, кто и сколько, и о чём говорит на встречах.
• Дать доступ к папке с чеками, разобрать их по любым критериям и составить отчёт.
• Дать почитать примеры стратегий или аналитических отчётов и приложить их к кейсу своей компании/задаче, используя ту же методологию, или последовательно наложить 2–3 самых популярных.
• Сделать сразу веб-страницу и лендинг с идеей прямо в процессе разговора, прикрутить контактную форму и базу прямо во время звонка по её обсуждению.
• Проверить доступность этих доменов и предложить 30 альтернатив по моим критериям.
За последние пару месяцев я старался показать этот инструмент всем, кому он может помочь сэкономить время и вижу, что многим действительно помог.
@maxvotek | linkedin | substack
❤37👍24🔥17
Рэй Далио о своих AI-клонах
Прочитал пост Рэя Далио: My AI Clone and What We Can Expect from AI Clones.
Он пишет о том, как создал собственный AI-клон - систему, которая не просто отвечает, а размышляет в духе конкретного человека с его принципами, ценностями и логикой принятия решений.
Часто перечитываю его книгу «Принципы» и считаю её одной из лучших в своём жанре.
Его клон - это не LLM общего назначения и не агент с преднастроенной логикой, а скорее продолжение мышления владельца.
Далио описывает идею довольно прагматично: такой клон позволяет вести бесконечные диалоги, масштабировать опыт и принимать решения в соответствии с собственными принципами, но быстрее и без эмоций. По сути, это шаг от ИИ к «персональному интеллекту».
В этом году Stanford и Google DeepMind создали simulation agents: цифровые реплики 1 052 человек, обученные на двухчасовых интервью.
AI-модели воспроизводили ответы людей в опросах и личностных тестах с точностью около 85%, но терялись там, где требовалось принимать сложные решения. AI уже умеет копировать поведение, но не всегда улавливает интуицию и контекст.
Я уже давно собираю свои мысли и заметки - привычка, которая появилась после вдохновения от Сергея Булаева и его идеи с Flashbacks.ai.
Работа при помощи агента со своей памятью часто даёт неожиданные инсайты и помогает лучше понять собственные паттерны мышления, находить в прошлых идеях неожиданные параллели.
В технологии Сo.Actor, которую создала компания Сергея Булаева, с которой мы сейчас работаем, используется не только моя личная память, но и память организации, когда система работает с контентом внутренних встреч и данных с конференций.
Добавление персонального взгляда, контекста и опыта организации превращает работу с контентом в бесконечное удовольствие.
Клон, который умеет думать через твой и коллективный опыт - это уже новый инструмент мышления.
Не просто помощник, а продолжение твоего интеллекта.
@maxvotek | linkedin | substack
Прочитал пост Рэя Далио: My AI Clone and What We Can Expect from AI Clones.
Он пишет о том, как создал собственный AI-клон - систему, которая не просто отвечает, а размышляет в духе конкретного человека с его принципами, ценностями и логикой принятия решений.
Часто перечитываю его книгу «Принципы» и считаю её одной из лучших в своём жанре.
Его клон - это не LLM общего назначения и не агент с преднастроенной логикой, а скорее продолжение мышления владельца.
Далио описывает идею довольно прагматично: такой клон позволяет вести бесконечные диалоги, масштабировать опыт и принимать решения в соответствии с собственными принципами, но быстрее и без эмоций. По сути, это шаг от ИИ к «персональному интеллекту».
В этом году Stanford и Google DeepMind создали simulation agents: цифровые реплики 1 052 человек, обученные на двухчасовых интервью.
AI-модели воспроизводили ответы людей в опросах и личностных тестах с точностью около 85%, но терялись там, где требовалось принимать сложные решения. AI уже умеет копировать поведение, но не всегда улавливает интуицию и контекст.
Я уже давно собираю свои мысли и заметки - привычка, которая появилась после вдохновения от Сергея Булаева и его идеи с Flashbacks.ai.
Работа при помощи агента со своей памятью часто даёт неожиданные инсайты и помогает лучше понять собственные паттерны мышления, находить в прошлых идеях неожиданные параллели.
В технологии Сo.Actor, которую создала компания Сергея Булаева, с которой мы сейчас работаем, используется не только моя личная память, но и память организации, когда система работает с контентом внутренних встреч и данных с конференций.
Добавление персонального взгляда, контекста и опыта организации превращает работу с контентом в бесконечное удовольствие.
Клон, который умеет думать через твой и коллективный опыт - это уже новый инструмент мышления.
Не просто помощник, а продолжение твоего интеллекта.
@maxvotek | linkedin | substack
❤20🔥13👍7
Когда болеешь, самое время экспериментировать с AI 🤒
Несколько дней восстанавливаюсь после Лондона, где-то подцепил вирус. Вечером самое время продолжить эксперименты с кольцом Oura и Claude Code.
Результат за два промта:
Дальше магия:
• Клод ушёл думать на несколько минут
• С первого раза подключился к API Aura
• Сам написал программу для автоматической синхронизации несколько раз в день
• Сам предложил визуализацию и создал дэшборды
• Сам проанализировал данные и дал рекомендации по здоровью
Работал в режиме
Claude способен самостоятельно:
• Понимать контекст задачи
• Писать рабочий код с первого раза
• Создавать визуализацию без уточнений
• Анализировать данные и давать инсайты
Все больше похоже на реального автономного агента, о которых мы уже год слышим в рекламе OpenAI, Anthropic, Salesforce
План восстановления после вирусной инфекции куда более консервативный, чем я себе спланировал.
@maxvotek | linkedin | substack
Несколько дней восстанавливаюсь после Лондона, где-то подцепил вирус. Вечером самое время продолжить эксперименты с кольцом Oura и Claude Code.
Результат за два промта:
Буквально сказал Клоду: Хочу соединить и синхронизировать моё кольцо на регулярной основе. Вот персональный токен.
Дальше магия:
• Клод ушёл думать на несколько минут
• С первого раза подключился к API Aura
• Сам написал программу для автоматической синхронизации несколько раз в день
• Сам предложил визуализацию и создал дэшборды
• Сам проанализировал данные и дал рекомендации по здоровью
Работал в режиме
--dangerously-skip-permissions - работает автономно, лишних вопросов не задает, чуть опасно звучит, но результат того стоит. Claude способен самостоятельно:
• Понимать контекст задачи
• Писать рабочий код с первого раза
• Создавать визуализацию без уточнений
• Анализировать данные и давать инсайты
Все больше похоже на реального автономного агента, о которых мы уже год слышим в рекламе OpenAI, Anthropic, Salesforce
План восстановления после вирусной инфекции куда более консервативный, чем я себе спланировал.
@maxvotek | linkedin | substack
🔥28❤15👍11😁3
YouTube
Julia Shaw: Criminal Psychology of Murder, Serial Killers, Memory & Sex | Lex Fridman Podcast #483
Julia Shaw is a criminal psychologist and author who in her books explores human nature, including psychopathy, violent crime, the psychology of evil, police interrogation, false memory manipulation, deception detection, and human sexuality.
Thank you for…
Thank you for…
О воспоминаниях, которых не было.
Часть интервью Лекса Фридмана с Джулией Шоу очень впечатлил меня. Там прозвучало простое, но тревожное замечание:
Память - не архив, а редактор. Каждый раз, когда мы вспоминаем, мы не извлекаем запись, а переписываем её заново. Добавляем детали, выкидываем лишнее, меняем контекст.
В итоге помним не то, что было, а то, что мы помним сейчас.
Отсюда и эффект «внутренней Википедии»: люди, с которыми мы делимся своими историями, становятся соавторами наших воспоминаний. Их версии постепенно вытесняют наши.
В какой-то момент ты уже не уверен - ты действительно это пережил или просто много раз рассказывал себе ту же историю.
Джулия говорит, что такое устройство памяти - не дефект, а инструмент выживания. Она делает нас пластичными, помогает смиряться и двигаться дальше.
Но в этом есть и другая грань, чем больше мы переписываем прошлое, тем дальше отходим от правды.
Здесь появляется очевидная новая угроза - AI как машина ложных воспоминаний.
Генеративные модели сегодня ведут себя как гиперверсия человеческого мозга: они не просто дополняют, а достраивают и додумывают - уверенно, красиво, с нужным тоном.
Если человек общается с AI, который «помнит» его прошлые ответы - начинается совместное редактирование памяти.
Ты и машина создаёте общую версию твоего прошлого, которую уже невозможно отделить от реальности.
Шоу называет это the ultimate false memory machine и добавляет:
Интересно, что в этом есть и надежда, если память - это соавторство, то, возможно, AI станет инструментом, который поможет нам лучше помнить, а не больше забывать.
@maxvotek | linkedin | substack
Часть интервью Лекса Фридмана с Джулией Шоу очень впечатлил меня. Там прозвучало простое, но тревожное замечание:
"Каждое наше воспоминание - ложное. Вопрос только - насколько."
Память - не архив, а редактор. Каждый раз, когда мы вспоминаем, мы не извлекаем запись, а переписываем её заново. Добавляем детали, выкидываем лишнее, меняем контекст.
В итоге помним не то, что было, а то, что мы помним сейчас.
Отсюда и эффект «внутренней Википедии»: люди, с которыми мы делимся своими историями, становятся соавторами наших воспоминаний. Их версии постепенно вытесняют наши.
В какой-то момент ты уже не уверен - ты действительно это пережил или просто много раз рассказывал себе ту же историю.
Джулия говорит, что такое устройство памяти - не дефект, а инструмент выживания. Она делает нас пластичными, помогает смиряться и двигаться дальше.
Но в этом есть и другая грань, чем больше мы переписываем прошлое, тем дальше отходим от правды.
Здесь появляется очевидная новая угроза - AI как машина ложных воспоминаний.
Генеративные модели сегодня ведут себя как гиперверсия человеческого мозга: они не просто дополняют, а достраивают и додумывают - уверенно, красиво, с нужным тоном.
Если человек общается с AI, который «помнит» его прошлые ответы - начинается совместное редактирование памяти.
Ты и машина создаёте общую версию твоего прошлого, которую уже невозможно отделить от реальности.
Шоу называет это the ultimate false memory machine и добавляет:
«Чтобы защититься, нужно помнить, что наш мозг - ненадёжный источник. Записывайте сразу. Не верьте себе на слово».
Интересно, что в этом есть и надежда, если память - это соавторство, то, возможно, AI станет инструментом, который поможет нам лучше помнить, а не больше забывать.
@maxvotek | linkedin | substack
🔥25👍14❤9