Кружок Пономаря
Вот от кого я точно не ожидал классических медийных спецпроектов, так это от Perplexity. А они вдруг фиганули спец/коллабу с самим Криштиану Роналду. Все интерактивные элементы на странице отправляют пользователя читать выдачу Perplexity по соответствующей…
Ха, оказывается, Криштиану вложился в Perplexity. Вряд ли он выписал прям большой чек, основные инвестиции скорее всего обеспечены его медийностью. Теперь понятно, чего он регулярно публично нахваливает Perplexity.
Какой дорогой спецпроект получился, однако!
Какой дорогой спецпроект получился, однако!
🤯2😱2
JavaScript исполнилось 30 лет. Тридцать лет назад Netscape и Sun Microsystems объявили о «языке объектного скриптинга для создания интерактивных веб-приложений».
Создатель языка, Бренден Эйх, пришёл в Netscape в апреле 1995-го с обещанием сделать Scheme в браузере. Scheme — академический Lisp-диалект, любимый среди программистов за элегантность. Но буквально через месяц Netscape заключили сделку с Sun Microsystems по Java, и всё изменилось. В конце концов Эйху дали 10 дней — с 6 по 15 мая — чтобы сделать прототип «маленького языка», который будет выглядеть как Java, но не конкурировать с ним. Так появился JavaScript.
Язык менял имя трижды — Mocha, LiveScript, JavaScript (последнее — чистый маркетинг под хайп Java).
За 30 лет много чего случилось. Все 28 компаний, поддержавших JavaScript в 1995-м, мертвы или поглощены. Netscape продался AOL в 1999-м за $4.2 млрд, и был разобран на запчасти. Марк Андриссен, который попал босиком на обложку Time в 1995-м как рок-звезда интернета, сейчас венчурный инвестор-миллиардер и советник Трампа (и благодаря этому попал в South Park). Сам Эйх после 10 лет в роли сооснователя Mozilla ушёл в 2014 после скандала с пожертвованиями против однополых браков и основал браузер Brave.
JavaScript пережил всех. Хотя его часто хейтят в dev-коммьюнити, используют его 62% разработчиков, это самый популярный язык уже 12 лет подряд.
—
Пономарь
Создатель языка, Бренден Эйх, пришёл в Netscape в апреле 1995-го с обещанием сделать Scheme в браузере. Scheme — академический Lisp-диалект, любимый среди программистов за элегантность. Но буквально через месяц Netscape заключили сделку с Sun Microsystems по Java, и всё изменилось. В конце концов Эйху дали 10 дней — с 6 по 15 мая — чтобы сделать прототип «маленького языка», который будет выглядеть как Java, но не конкурировать с ним. Так появился JavaScript.
Язык менял имя трижды — Mocha, LiveScript, JavaScript (последнее — чистый маркетинг под хайп Java).
За 30 лет много чего случилось. Все 28 компаний, поддержавших JavaScript в 1995-м, мертвы или поглощены. Netscape продался AOL в 1999-м за $4.2 млрд, и был разобран на запчасти. Марк Андриссен, который попал босиком на обложку Time в 1995-м как рок-звезда интернета, сейчас венчурный инвестор-миллиардер и советник Трампа (и благодаря этому попал в South Park). Сам Эйх после 10 лет в роли сооснователя Mozilla ушёл в 2014 после скандала с пожертвованиями против однополых браков и основал браузер Brave.
JavaScript пережил всех. Хотя его часто хейтят в dev-коммьюнити, используют его 62% разработчиков, это самый популярный язык уже 12 лет подряд.
—
Пономарь
🔥6❤3💯2
Ричард Саттон — один из отцов-основателей reinforcement learning, профессор Computer Science и исследователь DeepMind. Человек, который 40 с лишним лет наблюдает за развитием AI изнутри.
Его статья The Bitter Lesson («Горький урок») написана в 2019-м, но по-прежнему актуальна. Саттон формулирует горький урок из 70 лет AI-исследований: методы, которые масштабируются с ростом вычислительной мощности, всегда побеждают методы, основанные на человеческом знании предметной области. Горечь в том, что исследователи годами пытаются встроить свою экспертизу в системы, а потом приходит кто-то с большими GPU и перебивает их простым перебором.
Статья короткая — 5 минут чтения. Саттон приводит четыре примера:
1. Шахматы — Deep Blue победил Каспарова грубым перебором, а не "умными" эвристиками)
2. Go — AlphaGo сделала то же самое через 20 лет
3. Распознавание речи — сперва статистические методы победили лингвистические правила, а потом пришёл deep learning и всех переиграл
4. Компьютерное зрение — нейросети выкинули на помойку вообще все предыдущие разработки.
Паттерн одинаковый — сначала исследователи пытаются внедрить человеческое понимание задачи в алгоритм. Это даёт быстрый результат и приносит моральное удовлетворение. Но потом растёт вычислительная мощность, и оказывается, что простой метод (поиск + обучение) на больших мощностях работает лучше. Саттон не говорит, что человеческое знание бесполезно, оно полезно в краткосрочной перспективе (пока мощностей мало), но в долгосрочной становится тормозом.
Это и есть горький урок — исследователи тратят годы на изящные, основанные на понимании решения. А потом их обходит тупой brute force. Это больно для профессионального самолюбия.
Почему это важно сейчас
Статья написана за несколько месяцев до запуска GPT-3 и за три года до ChatGPT. Саттон тогда ещё не видел, насколько правильно всё предсказал. Современные LLM — идеальная иллюстрация bitter lesson: они ничего не "знают" о языке в классическом смысле. Это просто гигантские матрицы весов, натренированные на триллионах токенов. И они работают лучше всех систем, в которые пытались встроить лингвистику.
Можно читать как напоминание тем, кто строит AI-продукты или интегрирует AI в бизнес. Не переоценивайте важность доменной экспертизы в архитектуре модели. Лучше делайте ставку на масштабирование данных и вычислений. Экспертиза пригодится для промптов, пайплайнов, продуктовой обёртки, но не для того, чтобы залезать внутрь модели.
—
Пономарь
Его статья The Bitter Lesson («Горький урок») написана в 2019-м, но по-прежнему актуальна. Саттон формулирует горький урок из 70 лет AI-исследований: методы, которые масштабируются с ростом вычислительной мощности, всегда побеждают методы, основанные на человеческом знании предметной области. Горечь в том, что исследователи годами пытаются встроить свою экспертизу в системы, а потом приходит кто-то с большими GPU и перебивает их простым перебором.
Статья короткая — 5 минут чтения. Саттон приводит четыре примера:
1. Шахматы — Deep Blue победил Каспарова грубым перебором, а не "умными" эвристиками)
2. Go — AlphaGo сделала то же самое через 20 лет
3. Распознавание речи — сперва статистические методы победили лингвистические правила, а потом пришёл deep learning и всех переиграл
4. Компьютерное зрение — нейросети выкинули на помойку вообще все предыдущие разработки.
Паттерн одинаковый — сначала исследователи пытаются внедрить человеческое понимание задачи в алгоритм. Это даёт быстрый результат и приносит моральное удовлетворение. Но потом растёт вычислительная мощность, и оказывается, что простой метод (поиск + обучение) на больших мощностях работает лучше. Саттон не говорит, что человеческое знание бесполезно, оно полезно в краткосрочной перспективе (пока мощностей мало), но в долгосрочной становится тормозом.
Это и есть горький урок — исследователи тратят годы на изящные, основанные на понимании решения. А потом их обходит тупой brute force. Это больно для профессионального самолюбия.
Почему это важно сейчас
Статья написана за несколько месяцев до запуска GPT-3 и за три года до ChatGPT. Саттон тогда ещё не видел, насколько правильно всё предсказал. Современные LLM — идеальная иллюстрация bitter lesson: они ничего не "знают" о языке в классическом смысле. Это просто гигантские матрицы весов, натренированные на триллионах токенов. И они работают лучше всех систем, в которые пытались встроить лингвистику.
Можно читать как напоминание тем, кто строит AI-продукты или интегрирует AI в бизнес. Не переоценивайте важность доменной экспертизы в архитектуре модели. Лучше делайте ставку на масштабирование данных и вычислений. Экспертиза пригодится для промптов, пайплайнов, продуктовой обёртки, но не для того, чтобы залезать внутрь модели.
—
Пономарь
❤7👍1👏1
Андрей Карпаты(й) (погуглите, если не знаете кто это :) напомнил базовый принцип при работе с ИИ: нет смысла общаться с ним как с личностью, по ту сторону экрана точно никого нет. Думайте об ИИ как как о призме, которая покажет нужную вам часть спектра.
Поэтому вместо «Что ты думаешь о Х?» правильнее спрашивать «Какая группа экспертов могла бы обсудить Х? Что бы они сказали?». Модель может симулировать кучу разных точек зрения, но у неё нет своего мнения, которое формировалось бы со временем, как у человека.
Когда вы всё равно пишете « что ты думаешь…?», модель просто берёт усреднённый вектор личности из своих данных файнтюнинга и начинает играть эту роль. Работает, но никакой магии там нет — только статистика.
Ну и да, Карпатый не первый, кто подтверждает — назначение роли ИИ в промпте типа «ты звездный маркетолог» или «ты эксперт-инженер» уже можно пропускать, это пройденный этап. LLM сама себе назначит нужную роль в зависимости от вашего контекста.
—
Пономарь
Поэтому вместо «Что ты думаешь о Х?» правильнее спрашивать «Какая группа экспертов могла бы обсудить Х? Что бы они сказали?». Модель может симулировать кучу разных точек зрения, но у неё нет своего мнения, которое формировалось бы со временем, как у человека.
Когда вы всё равно пишете « что ты думаешь…?», модель просто берёт усреднённый вектор личности из своих данных файнтюнинга и начинает играть эту роль. Работает, но никакой магии там нет — только статистика.
Ну и да, Карпатый не первый, кто подтверждает — назначение роли ИИ в промпте типа «ты звездный маркетолог» или «ты эксперт-инженер» уже можно пропускать, это пройденный этап. LLM сама себе назначит нужную роль в зависимости от вашего контекста.
—
Пономарь
❤4
Вчера выкатили ChatGPT 5.2 и все тг-каналы про ИИ дружно отстрелялись дежурными восторгами, но мы же с вами тут собрались не пресс-релизы перепечатывать, правда? Вот что на текущий момент пишут в отзывах реальные пользователи.
Модель реально сильна на длинных аналитических задачах. Например, дали ей два часа на разбор финотчета. Проверила каждую формулу, каждую статью расходов за ноябрь и выдала структурированный отчет.
А вот с текстами — увы, средне. Тест на 50 писательских задач показал 74% против 80% у Opus 4.5 (но наравне с Sonnet 4.5). Плюс стало меньше штампов типа "It's not X, it's Y" (наконец-то). Хорошо следует инструкциям, но в креативности и находчивости проигрывает той же Opus 4.5.
Итого: если у вас ChatGPT Pro и нужно разобрать большой объем данных — попробуйте 5.2. Для повседневного чата и задач, где важна креативность и автономность, прорыва не ждите.
P.S. Увидел на реддите упоминание, что чатгпт теперь умеет делать видео, пошел проверять. Спросил у него — умеешь видео? Умею, говорит. Ок, попросил создать видео с котом (естественно). Чатгпт задал серию вопросов — какой длины? а в каком стиле? а камера как движется? а формат кадра? И потом сгенерировал статичную картинку. На мое недоумение ответил — не расстраивайся, мол, я могу тебе сгенерить 10 картинок и ты сам их склеишь в видос где-нибудь.
В общем, сравните два диалога:
Модель реально сильна на длинных аналитических задачах. Например, дали ей два часа на разбор финотчета. Проверила каждую формулу, каждую статью расходов за ноябрь и выдала структурированный отчет.
А вот с текстами — увы, средне. Тест на 50 писательских задач показал 74% против 80% у Opus 4.5 (но наравне с Sonnet 4.5). Плюс стало меньше штампов типа "It's not X, it's Y" (наконец-то). Хорошо следует инструкциям, но в креативности и находчивости проигрывает той же Opus 4.5.
Итого: если у вас ChatGPT Pro и нужно разобрать большой объем данных — попробуйте 5.2. Для повседневного чата и задач, где важна креативность и автономность, прорыва не ждите.
P.S. Увидел на реддите упоминание, что чатгпт теперь умеет делать видео, пошел проверять. Спросил у него — умеешь видео? Умею, говорит. Ок, попросил создать видео с котом (естественно). Чатгпт задал серию вопросов — какой длины? а в каком стиле? а камера как движется? а формат кадра? И потом сгенерировал статичную картинку. На мое недоумение ответил — не расстраивайся, мол, я могу тебе сгенерить 10 картинок и ты сам их склеишь в видос где-нибудь.
В общем, сравните два диалога:
😁9❤2
Кружок Пономаря
На ранних этапах развития ChatGPT произошёл странный инцидент: модель внезапно перестала отвечать на хорватском языке. ChatGPT и подобные модели обучаются с помощью метода RLHF (Reinforcement Learning from Human Feedback) — обучение с подкреплением на основе…
Помните, я рассказывал про восточноевропейский менталитет и чатгпт?
Разбирал архивы и нашел реальный отзыв к приложению Лайфхакера. Комментировать — только портить :)
Разбирал архивы и нашел реальный отзыв к приложению Лайфхакера. Комментировать — только портить :)
😁15
Merriam-Webster выбрал словом 2025 года slop.
Кто еще не знает, кроме прямого значения «помои», это массовый ИИ-контент низкого качества. Кривые видосы про котика, который спасает свинку из проруби и потом жарит ее на мангале (в прямом смысле, если что), реклама кока-колы с разным количеством колес, книги-однодневки и корпоративные отчёты, которые уже никто не читает.
Никогда еще в истории человечества говноконтент не производился настолько легко. И конечно, никогда еще он не был настолько популярен.
Кто еще не знает, кроме прямого значения «помои», это массовый ИИ-контент низкого качества. Кривые видосы про котика, который спасает свинку из проруби и потом жарит ее на мангале (в прямом смысле, если что), реклама кока-колы с разным количеством колес, книги-однодневки и корпоративные отчёты, которые уже никто не читает.
Никогда еще в истории человечества говноконтент не производился настолько легко. И конечно, никогда еще он не был настолько популярен.
😁5😢3💯2
Marfeel опубликовали данные мониторинга Google Discover, которые (опять) окончательно хоронят иллюзии о будущем медиа. Google Discover перестает быть площадкой для издателей и становится ИИ-платформой, где трафик гонится на YouTube и X, а паблишеры получают видимость без кликов.
Половина ленты теперь — это ИИ
В США, Бразилии и Мексике идет масштабный эксперимент — более половины позиций в Discover заменяются ИИ-выжимками и сгенерированными роликами на Youtube. Для издателей это означает структурное сокращение «слотов», где статья может получить клик. Пока что ИИ-контент распределен неравномерно, по принципу, чем дальше скроллишь, тем больше процент сгенерированного контента.
AI-саммари облеплены логотипами издателей, имитируя множественное цитирование, но основное действие, клик — одно. Результат — видимость бренда есть, трафика нет. Издателей цитируют, но путь пользователя заканчивается внутри экосистемы Google, а не у паблишера.
Данные показывают, что YouTube уже получает значительную долю позиций в Discover, кроме того, массово появляется контент из твиттера.
Discover эволюционирует из «распределителя трафика» в инструмент удержания внимания внутри экосистемы Google.
Почему это критично для экономики издателей
1. Трафик становится волатильным. AI-блоки не постепенно размывают трафик — они его заменяют. Потери идут целыми кластерами, а не процентами.
2. Привлечение и удержание аудитории падает. Видимость без кликов не растит базы email, не конвертит в подписки, не создаёт прямых отношений с аудиторией.
3. ROI редакционного контента падает. Статьи превращаются из источника монетизации в сырьевую базу AI-ответы без монетизируемого результата для редакции.
Что с этим делать? Агрессивно строить прямые каналы — email, Telegram, приложения. Всё, что не зависит от алгоритмов Google. Искать новую модель монетизации, рекламная модель через Google-трафик умерла, пора это принять.
В целом, время переговоров закончилось. Выбор простой — адаптироваться к новой реальности или окончательно стать поставщиком бесплатного сырья для чужих экосистем.
—
Пономарь
Половина ленты теперь — это ИИ
В США, Бразилии и Мексике идет масштабный эксперимент — более половины позиций в Discover заменяются ИИ-выжимками и сгенерированными роликами на Youtube. Для издателей это означает структурное сокращение «слотов», где статья может получить клик. Пока что ИИ-контент распределен неравномерно, по принципу, чем дальше скроллишь, тем больше процент сгенерированного контента.
AI-саммари облеплены логотипами издателей, имитируя множественное цитирование, но основное действие, клик — одно. Результат — видимость бренда есть, трафика нет. Издателей цитируют, но путь пользователя заканчивается внутри экосистемы Google, а не у паблишера.
Данные показывают, что YouTube уже получает значительную долю позиций в Discover, кроме того, массово появляется контент из твиттера.
Discover эволюционирует из «распределителя трафика» в инструмент удержания внимания внутри экосистемы Google.
Почему это критично для экономики издателей
1. Трафик становится волатильным. AI-блоки не постепенно размывают трафик — они его заменяют. Потери идут целыми кластерами, а не процентами.
2. Привлечение и удержание аудитории падает. Видимость без кликов не растит базы email, не конвертит в подписки, не создаёт прямых отношений с аудиторией.
3. ROI редакционного контента падает. Статьи превращаются из источника монетизации в сырьевую базу AI-ответы без монетизируемого результата для редакции.
Что с этим делать? Агрессивно строить прямые каналы — email, Telegram, приложения. Всё, что не зависит от алгоритмов Google. Искать новую модель монетизации, рекламная модель через Google-трафик умерла, пора это принять.
В целом, время переговоров закончилось. Выбор простой — адаптироваться к новой реальности или окончательно стать поставщиком бесплатного сырья для чужих экосистем.
—
Пономарь
❤2😢2💊2
Ходил тут к бывшим коллегам говорить про судьбы медиа. Лайфхакер снова планирует исследовать нативную рекламу, вот и позвали поболтать.
Как видим на фото, пока все сидели нога на ногу, я себе ни в чем не отказывал и всячески транслировал вайб «this is fine». Потому что дела у медиа не очень. И у агентств не очень. И у маркетинговых команд брендов не очень. И весь рекламный рынок, как бы радостно нам ни рассказывали про его безудержный рост, находится в слове из четырех букв, вторая «о».
Так что, дорогие коллеги по отрасли, продолжаем биться на арене во славу цезарей, а когда не бьемся, отчего бы не расслабиться с бокалом вина.
Как видим на фото, пока все сидели нога на ногу, я себе ни в чем не отказывал и всячески транслировал вайб «this is fine». Потому что дела у медиа не очень. И у агентств не очень. И у маркетинговых команд брендов не очень. И весь рекламный рынок, как бы радостно нам ни рассказывали про его безудержный рост, находится в слове из четырех букв, вторая «о».
Так что, дорогие коллеги по отрасли, продолжаем биться на арене во славу цезарей, а когда не бьемся, отчего бы не расслабиться с бокалом вина.
1😁13❤10🥰7🤣2
Мама, я не вабкойдил, честное слово, это пацаны вайбкодили, а я просто рядом стоял.
На выходных пересобрал свой воркфлоу работы с записями звонков. Решил сделать все максимально локальным, делиться мне в этом треке нечем и не с кем.
Работает так:
1. Команда sync вызывается через системный планировщик три раза в день (можно и вручную). Загружает все новые текстовые расшифровки звонков из Fireflies. Дополнительно в ту же папку кладу расшифровки встреч, которые сделаны локально (редко, но бывает и такое).
2. Дальше вызывается скрипт, который ходит в GPT-5 Nano (вроде пока самая дешевая и качественная модель на Openrouter). Он выписывает highlights и собирает все, что похоже на задачи и определяет их ответсвенных и срок исполнения из контекста разговора.
3. Список задач выводится сперва в консоль, чтобы я решил, добавлять их в список задач или нет. Бывает, что хайлайты звонка могут быть важны, а вот задачи — нет. Если да, то задачи складываются в файл в формате todo-md.
4. Все закрытые задачи вызовом отдельной команды taskdone перекидываются в отдельный архивный файл (можно автоматизировать, но я пока оставил вызов вручную).
Конечно, все скрипты написаны Claude Code, с меня только отладка и уточнения.
Кто бы мне сказал, что в 2025 году мой таск-менеджмент будет заключаться в вызове пары скриптов обработки текстового файла :)
В чем прикол такого формата? Я использую VS Code как интерфейс для Claude Сode и Codex (простите, мастера консоли), плюс Obsidian, для которого текстовые файлики это база. Поэтому и таски удобно вести в простом универсальном формате. Исключение — если что-то должно быть с напоминанием, то это отправляется в календарь или Reminders.
Расскажите в комментах, если у вас есть похожие воркфлоу, очень интересно, кто до чего уже додумался.
На выходных пересобрал свой воркфлоу работы с записями звонков. Решил сделать все максимально локальным, делиться мне в этом треке нечем и не с кем.
Работает так:
1. Команда sync вызывается через системный планировщик три раза в день (можно и вручную). Загружает все новые текстовые расшифровки звонков из Fireflies. Дополнительно в ту же папку кладу расшифровки встреч, которые сделаны локально (редко, но бывает и такое).
2. Дальше вызывается скрипт, который ходит в GPT-5 Nano (вроде пока самая дешевая и качественная модель на Openrouter). Он выписывает highlights и собирает все, что похоже на задачи и определяет их ответсвенных и срок исполнения из контекста разговора.
3. Список задач выводится сперва в консоль, чтобы я решил, добавлять их в список задач или нет. Бывает, что хайлайты звонка могут быть важны, а вот задачи — нет. Если да, то задачи складываются в файл в формате todo-md.
4. Все закрытые задачи вызовом отдельной команды taskdone перекидываются в отдельный архивный файл (можно автоматизировать, но я пока оставил вызов вручную).
Конечно, все скрипты написаны Claude Code, с меня только отладка и уточнения.
Кто бы мне сказал, что в 2025 году мой таск-менеджмент будет заключаться в вызове пары скриптов обработки текстового файла :)
В чем прикол такого формата? Я использую VS Code как интерфейс для Claude Сode и Codex (простите, мастера консоли), плюс Obsidian, для которого текстовые файлики это база. Поэтому и таски удобно вести в простом универсальном формате. Исключение — если что-то должно быть с напоминанием, то это отправляется в календарь или Reminders.
Расскажите в комментах, если у вас есть похожие воркфлоу, очень интересно, кто до чего уже додумался.
🔥9👍2
Как и большинство людей, я люблю копаться в деталях, хотя в при изучении нового важно начинать с основ. И вот нашел промпт «80/20 для обучения», который переворачивает процесс. ИИ выделяет 5 концепций, которые дают 80% результата, показывает частые ошибки и строит план практики.
Промпт:
Я сейчас немного интересуюсь Claude Skills и попросил пояснить за них. И получилось прям толково, пару кирпичиков в голове встали на свои места. Очень рекомендую.
—
Пономарь
Промпт:
Научи меня [тема] по правилу 80/20. OUTPUT: 5 концепций, которые дают большую часть результата, частые ошибки и 30-минутный план практики. BONUS: добавь простой пример и один быстрый проверочный вопрос по каждой концепции, чтобы я мог убедиться, что действительно понял.
Я сейчас немного интересуюсь Claude Skills и попросил пояснить за них. И получилось прям толково, пару кирпичиков в голове встали на свои места. Очень рекомендую.
—
Пономарь
👍15
Утро началось не с кофе, а с волны сообщений, что Perplexity cтал отключать Pro-подписки, которые покупались на маркетплейсах по бросовым ценам 100-200 рублей за год. Сижу жду, прилетит ли мне 🙂
А следом пришла новость, что в РФ перестал работать Openrouter.
Штож.
UPD. Openrouter починили, проблема была не связана с санкциями 🙃
А следом пришла новость, что в РФ перестал работать Openrouter.
Штож.
UPD. Openrouter починили, проблема была не связана с санкциями 🙃
🫡9😭3❤2
Журналистка Талия Лавин выпустила книгу Wild Faith: How the Christian Right Is Taking Over America — историю правых христиан в США с фокусом на насилие в семьях. Три года работы, сотня интервью с жертвами.
Через неделю после релиза она нашла на Amazon минимум пять AI-подделок с похожими названиями в форматах биографий, мотивационных руководств и т.д. Содержание — набор нейробреда, фактических ошибок и несвязного текста, собранного со страницы о ней в википедии.
Коллеги Лавин — писатели Сет Харп и Кори Доктороу — рассказывают то же самое. Жалобы в Amazon не помогают — на месте удаленной подделки через час появляются две новые.
Механика простая. TikTok полон туториалов «как делать $5000/месяц на Amazon KDP» (Kindle Direct Publishing). Берёшь классику из public domain или чужую новинку, прогоняешь через AI с незамысловатым промптом, меняешь обложку, выкладываешь. Fair use формально соблюдён — теперь это «образовательный материал».
Amazon, конечно, заявляет об ужесточении модерации, но бремя доказательства возлагает на автора. Крупнейший книжный ритейлер в мире также крупнейший рынок литературного мусора.
Для российских издателей и авторов это видится далёкой проблемой — наши основные книжные платформы работают иначе, а рынок самиздата несопоставим по масштабу. Но сам паттерн нам знаком — когда платформа перестаёт вкладываться в модерацию и перекладывает издержки на пользователей, количество мусора растёт экспоненциально.
Платформы выросли настолько, что больше не боятся последствий за любые собственные действия. Так что вопрос, утонет ли наш книжный рынок в нейрослопе, даже не стоит.
—
Пономарь
Через неделю после релиза она нашла на Amazon минимум пять AI-подделок с похожими названиями в форматах биографий, мотивационных руководств и т.д. Содержание — набор нейробреда, фактических ошибок и несвязного текста, собранного со страницы о ней в википедии.
Коллеги Лавин — писатели Сет Харп и Кори Доктороу — рассказывают то же самое. Жалобы в Amazon не помогают — на месте удаленной подделки через час появляются две новые.
Механика простая. TikTok полон туториалов «как делать $5000/месяц на Amazon KDP» (Kindle Direct Publishing). Берёшь классику из public domain или чужую новинку, прогоняешь через AI с незамысловатым промптом, меняешь обложку, выкладываешь. Fair use формально соблюдён — теперь это «образовательный материал».
Amazon, конечно, заявляет об ужесточении модерации, но бремя доказательства возлагает на автора. Крупнейший книжный ритейлер в мире также крупнейший рынок литературного мусора.
Для российских издателей и авторов это видится далёкой проблемой — наши основные книжные платформы работают иначе, а рынок самиздата несопоставим по масштабу. Но сам паттерн нам знаком — когда платформа перестаёт вкладываться в модерацию и перекладывает издержки на пользователей, количество мусора растёт экспоненциально.
Платформы выросли настолько, что больше не боятся последствий за любые собственные действия. Так что вопрос, утонет ли наш книжный рынок в нейрослопе, даже не стоит.
—
Пономарь
🤯6🔥3👾2
Пора признаться. Моя жизнь стала гораздо лучше после того, как я перестал заходить в твиттер.
😁17❤8👍7💯6
Прочитал интересный разбор того, почему большинство CLAUDE.md файлов не эфективны. Проблема не в том, что Claude их не читает — проблема в том, что мы их неправильно пишем.
Современные модели могут стабильно следовать примерно 150-200 инструкциям. Claude Code в системном промпте уже использует около 50 из них — то есть треть бюджета уходит до того, как модель увидит ваш код. При этом по мере роста числа инструкций качество их выполнения падает не точечно, а равномерно по всем пунктам.
Короче, держите CLAUDE.md коротким и универсальным. Вместо того чтобы описывать все команды сборки, настройки тестов и паттерны кода, используйте метод прогрессивного погружения: создайте папку agent_docs/ с отдельными файлами (building_project.md, testing_guidelines.md, architecture.md) и в CLAUDE.md просто перечислите их с кратким описанием. Пусть Claude сам решает, что ему нужно прочитать для текущей задачи.
Для повседневных задач это тожже работает. Я после прочтения статьи попросил агента разобрать мой CLAUDE.md и раскидать все не нужное по разным документам. И он сразу вынул из него примерно половину. Правда, выкинуть придется еще примерно 500 строк :)
Правда, авторы статьи категорически призывают не использовать /init для автогенерации CLAUDE.md и вообще писать там всё вручную. Но так далеко заходить я, конечно, не буду :)
—
Пономарь
Для контекста. CLAUDE.md — это файл-инструкция для Claude Code, который автоматически добавляется в начало каждой сессии. Многие воспринимают его как место, куда можно свалить все команды, стайл-гайды и архитектурные решения проекта. Результат — Claude начинает игнорировать инструкции.
Современные модели могут стабильно следовать примерно 150-200 инструкциям. Claude Code в системном промпте уже использует около 50 из них — то есть треть бюджета уходит до того, как модель увидит ваш код. При этом по мере роста числа инструкций качество их выполнения падает не точечно, а равномерно по всем пунктам.
Короче, держите CLAUDE.md коротким и универсальным. Вместо того чтобы описывать все команды сборки, настройки тестов и паттерны кода, используйте метод прогрессивного погружения: создайте папку agent_docs/ с отдельными файлами (building_project.md, testing_guidelines.md, architecture.md) и в CLAUDE.md просто перечислите их с кратким описанием. Пусть Claude сам решает, что ему нужно прочитать для текущей задачи.
Для повседневных задач это тожже работает. Я после прочтения статьи попросил агента разобрать мой CLAUDE.md и раскидать все не нужное по разным документам. И он сразу вынул из него примерно половину. Правда, выкинуть придется еще примерно 500 строк :)
Правда, авторы статьи категорически призывают не использовать /init для автогенерации CLAUDE.md и вообще писать там всё вручную. Но так далеко заходить я, конечно, не буду :)
—
Пономарь
👍4🔥3
А у всех же было такое представление в детстве, что рисованные мультики это радость, а кукольные — унылая тоска?
💯34❤2