JavaScript исполнилось 30 лет. Тридцать лет назад Netscape и Sun Microsystems объявили о «языке объектного скриптинга для создания интерактивных веб-приложений».
Создатель языка, Бренден Эйх, пришёл в Netscape в апреле 1995-го с обещанием сделать Scheme в браузере. Scheme — академический Lisp-диалект, любимый среди программистов за элегантность. Но буквально через месяц Netscape заключили сделку с Sun Microsystems по Java, и всё изменилось. В конце концов Эйху дали 10 дней — с 6 по 15 мая — чтобы сделать прототип «маленького языка», который будет выглядеть как Java, но не конкурировать с ним. Так появился JavaScript.
Язык менял имя трижды — Mocha, LiveScript, JavaScript (последнее — чистый маркетинг под хайп Java).
За 30 лет много чего случилось. Все 28 компаний, поддержавших JavaScript в 1995-м, мертвы или поглощены. Netscape продался AOL в 1999-м за $4.2 млрд, и был разобран на запчасти. Марк Андриссен, который попал босиком на обложку Time в 1995-м как рок-звезда интернета, сейчас венчурный инвестор-миллиардер и советник Трампа (и благодаря этому попал в South Park). Сам Эйх после 10 лет в роли сооснователя Mozilla ушёл в 2014 после скандала с пожертвованиями против однополых браков и основал браузер Brave.
JavaScript пережил всех. Хотя его часто хейтят в dev-коммьюнити, используют его 62% разработчиков, это самый популярный язык уже 12 лет подряд.
—
Пономарь
Создатель языка, Бренден Эйх, пришёл в Netscape в апреле 1995-го с обещанием сделать Scheme в браузере. Scheme — академический Lisp-диалект, любимый среди программистов за элегантность. Но буквально через месяц Netscape заключили сделку с Sun Microsystems по Java, и всё изменилось. В конце концов Эйху дали 10 дней — с 6 по 15 мая — чтобы сделать прототип «маленького языка», который будет выглядеть как Java, но не конкурировать с ним. Так появился JavaScript.
Язык менял имя трижды — Mocha, LiveScript, JavaScript (последнее — чистый маркетинг под хайп Java).
За 30 лет много чего случилось. Все 28 компаний, поддержавших JavaScript в 1995-м, мертвы или поглощены. Netscape продался AOL в 1999-м за $4.2 млрд, и был разобран на запчасти. Марк Андриссен, который попал босиком на обложку Time в 1995-м как рок-звезда интернета, сейчас венчурный инвестор-миллиардер и советник Трампа (и благодаря этому попал в South Park). Сам Эйх после 10 лет в роли сооснователя Mozilla ушёл в 2014 после скандала с пожертвованиями против однополых браков и основал браузер Brave.
JavaScript пережил всех. Хотя его часто хейтят в dev-коммьюнити, используют его 62% разработчиков, это самый популярный язык уже 12 лет подряд.
—
Пономарь
🔥6❤3💯2
Ричард Саттон — один из отцов-основателей reinforcement learning, профессор Computer Science и исследователь DeepMind. Человек, который 40 с лишним лет наблюдает за развитием AI изнутри.
Его статья The Bitter Lesson («Горький урок») написана в 2019-м, но по-прежнему актуальна. Саттон формулирует горький урок из 70 лет AI-исследований: методы, которые масштабируются с ростом вычислительной мощности, всегда побеждают методы, основанные на человеческом знании предметной области. Горечь в том, что исследователи годами пытаются встроить свою экспертизу в системы, а потом приходит кто-то с большими GPU и перебивает их простым перебором.
Статья короткая — 5 минут чтения. Саттон приводит четыре примера:
1. Шахматы — Deep Blue победил Каспарова грубым перебором, а не "умными" эвристиками)
2. Go — AlphaGo сделала то же самое через 20 лет
3. Распознавание речи — сперва статистические методы победили лингвистические правила, а потом пришёл deep learning и всех переиграл
4. Компьютерное зрение — нейросети выкинули на помойку вообще все предыдущие разработки.
Паттерн одинаковый — сначала исследователи пытаются внедрить человеческое понимание задачи в алгоритм. Это даёт быстрый результат и приносит моральное удовлетворение. Но потом растёт вычислительная мощность, и оказывается, что простой метод (поиск + обучение) на больших мощностях работает лучше. Саттон не говорит, что человеческое знание бесполезно, оно полезно в краткосрочной перспективе (пока мощностей мало), но в долгосрочной становится тормозом.
Это и есть горький урок — исследователи тратят годы на изящные, основанные на понимании решения. А потом их обходит тупой brute force. Это больно для профессионального самолюбия.
Почему это важно сейчас
Статья написана за несколько месяцев до запуска GPT-3 и за три года до ChatGPT. Саттон тогда ещё не видел, насколько правильно всё предсказал. Современные LLM — идеальная иллюстрация bitter lesson: они ничего не "знают" о языке в классическом смысле. Это просто гигантские матрицы весов, натренированные на триллионах токенов. И они работают лучше всех систем, в которые пытались встроить лингвистику.
Можно читать как напоминание тем, кто строит AI-продукты или интегрирует AI в бизнес. Не переоценивайте важность доменной экспертизы в архитектуре модели. Лучше делайте ставку на масштабирование данных и вычислений. Экспертиза пригодится для промптов, пайплайнов, продуктовой обёртки, но не для того, чтобы залезать внутрь модели.
—
Пономарь
Его статья The Bitter Lesson («Горький урок») написана в 2019-м, но по-прежнему актуальна. Саттон формулирует горький урок из 70 лет AI-исследований: методы, которые масштабируются с ростом вычислительной мощности, всегда побеждают методы, основанные на человеческом знании предметной области. Горечь в том, что исследователи годами пытаются встроить свою экспертизу в системы, а потом приходит кто-то с большими GPU и перебивает их простым перебором.
Статья короткая — 5 минут чтения. Саттон приводит четыре примера:
1. Шахматы — Deep Blue победил Каспарова грубым перебором, а не "умными" эвристиками)
2. Go — AlphaGo сделала то же самое через 20 лет
3. Распознавание речи — сперва статистические методы победили лингвистические правила, а потом пришёл deep learning и всех переиграл
4. Компьютерное зрение — нейросети выкинули на помойку вообще все предыдущие разработки.
Паттерн одинаковый — сначала исследователи пытаются внедрить человеческое понимание задачи в алгоритм. Это даёт быстрый результат и приносит моральное удовлетворение. Но потом растёт вычислительная мощность, и оказывается, что простой метод (поиск + обучение) на больших мощностях работает лучше. Саттон не говорит, что человеческое знание бесполезно, оно полезно в краткосрочной перспективе (пока мощностей мало), но в долгосрочной становится тормозом.
Это и есть горький урок — исследователи тратят годы на изящные, основанные на понимании решения. А потом их обходит тупой brute force. Это больно для профессионального самолюбия.
Почему это важно сейчас
Статья написана за несколько месяцев до запуска GPT-3 и за три года до ChatGPT. Саттон тогда ещё не видел, насколько правильно всё предсказал. Современные LLM — идеальная иллюстрация bitter lesson: они ничего не "знают" о языке в классическом смысле. Это просто гигантские матрицы весов, натренированные на триллионах токенов. И они работают лучше всех систем, в которые пытались встроить лингвистику.
Можно читать как напоминание тем, кто строит AI-продукты или интегрирует AI в бизнес. Не переоценивайте важность доменной экспертизы в архитектуре модели. Лучше делайте ставку на масштабирование данных и вычислений. Экспертиза пригодится для промптов, пайплайнов, продуктовой обёртки, но не для того, чтобы залезать внутрь модели.
—
Пономарь
❤7👍1👏1
Андрей Карпаты(й) (погуглите, если не знаете кто это :) напомнил базовый принцип при работе с ИИ: нет смысла общаться с ним как с личностью, по ту сторону экрана точно никого нет. Думайте об ИИ как как о призме, которая покажет нужную вам часть спектра.
Поэтому вместо «Что ты думаешь о Х?» правильнее спрашивать «Какая группа экспертов могла бы обсудить Х? Что бы они сказали?». Модель может симулировать кучу разных точек зрения, но у неё нет своего мнения, которое формировалось бы со временем, как у человека.
Когда вы всё равно пишете « что ты думаешь…?», модель просто берёт усреднённый вектор личности из своих данных файнтюнинга и начинает играть эту роль. Работает, но никакой магии там нет — только статистика.
Ну и да, Карпатый не первый, кто подтверждает — назначение роли ИИ в промпте типа «ты звездный маркетолог» или «ты эксперт-инженер» уже можно пропускать, это пройденный этап. LLM сама себе назначит нужную роль в зависимости от вашего контекста.
—
Пономарь
Поэтому вместо «Что ты думаешь о Х?» правильнее спрашивать «Какая группа экспертов могла бы обсудить Х? Что бы они сказали?». Модель может симулировать кучу разных точек зрения, но у неё нет своего мнения, которое формировалось бы со временем, как у человека.
Когда вы всё равно пишете « что ты думаешь…?», модель просто берёт усреднённый вектор личности из своих данных файнтюнинга и начинает играть эту роль. Работает, но никакой магии там нет — только статистика.
Ну и да, Карпатый не первый, кто подтверждает — назначение роли ИИ в промпте типа «ты звездный маркетолог» или «ты эксперт-инженер» уже можно пропускать, это пройденный этап. LLM сама себе назначит нужную роль в зависимости от вашего контекста.
—
Пономарь
❤4
Вчера выкатили ChatGPT 5.2 и все тг-каналы про ИИ дружно отстрелялись дежурными восторгами, но мы же с вами тут собрались не пресс-релизы перепечатывать, правда? Вот что на текущий момент пишут в отзывах реальные пользователи.
Модель реально сильна на длинных аналитических задачах. Например, дали ей два часа на разбор финотчета. Проверила каждую формулу, каждую статью расходов за ноябрь и выдала структурированный отчет.
А вот с текстами — увы, средне. Тест на 50 писательских задач показал 74% против 80% у Opus 4.5 (но наравне с Sonnet 4.5). Плюс стало меньше штампов типа "It's not X, it's Y" (наконец-то). Хорошо следует инструкциям, но в креативности и находчивости проигрывает той же Opus 4.5.
Итого: если у вас ChatGPT Pro и нужно разобрать большой объем данных — попробуйте 5.2. Для повседневного чата и задач, где важна креативность и автономность, прорыва не ждите.
P.S. Увидел на реддите упоминание, что чатгпт теперь умеет делать видео, пошел проверять. Спросил у него — умеешь видео? Умею, говорит. Ок, попросил создать видео с котом (естественно). Чатгпт задал серию вопросов — какой длины? а в каком стиле? а камера как движется? а формат кадра? И потом сгенерировал статичную картинку. На мое недоумение ответил — не расстраивайся, мол, я могу тебе сгенерить 10 картинок и ты сам их склеишь в видос где-нибудь.
В общем, сравните два диалога:
Модель реально сильна на длинных аналитических задачах. Например, дали ей два часа на разбор финотчета. Проверила каждую формулу, каждую статью расходов за ноябрь и выдала структурированный отчет.
А вот с текстами — увы, средне. Тест на 50 писательских задач показал 74% против 80% у Opus 4.5 (но наравне с Sonnet 4.5). Плюс стало меньше штампов типа "It's not X, it's Y" (наконец-то). Хорошо следует инструкциям, но в креативности и находчивости проигрывает той же Opus 4.5.
Итого: если у вас ChatGPT Pro и нужно разобрать большой объем данных — попробуйте 5.2. Для повседневного чата и задач, где важна креативность и автономность, прорыва не ждите.
P.S. Увидел на реддите упоминание, что чатгпт теперь умеет делать видео, пошел проверять. Спросил у него — умеешь видео? Умею, говорит. Ок, попросил создать видео с котом (естественно). Чатгпт задал серию вопросов — какой длины? а в каком стиле? а камера как движется? а формат кадра? И потом сгенерировал статичную картинку. На мое недоумение ответил — не расстраивайся, мол, я могу тебе сгенерить 10 картинок и ты сам их склеишь в видос где-нибудь.
В общем, сравните два диалога:
😁9❤2
Кружок Пономаря
На ранних этапах развития ChatGPT произошёл странный инцидент: модель внезапно перестала отвечать на хорватском языке. ChatGPT и подобные модели обучаются с помощью метода RLHF (Reinforcement Learning from Human Feedback) — обучение с подкреплением на основе…
Помните, я рассказывал про восточноевропейский менталитет и чатгпт?
Разбирал архивы и нашел реальный отзыв к приложению Лайфхакера. Комментировать — только портить :)
Разбирал архивы и нашел реальный отзыв к приложению Лайфхакера. Комментировать — только портить :)
😁15
Merriam-Webster выбрал словом 2025 года slop.
Кто еще не знает, кроме прямого значения «помои», это массовый ИИ-контент низкого качества. Кривые видосы про котика, который спасает свинку из проруби и потом жарит ее на мангале (в прямом смысле, если что), реклама кока-колы с разным количеством колес, книги-однодневки и корпоративные отчёты, которые уже никто не читает.
Никогда еще в истории человечества говноконтент не производился настолько легко. И конечно, никогда еще он не был настолько популярен.
Кто еще не знает, кроме прямого значения «помои», это массовый ИИ-контент низкого качества. Кривые видосы про котика, который спасает свинку из проруби и потом жарит ее на мангале (в прямом смысле, если что), реклама кока-колы с разным количеством колес, книги-однодневки и корпоративные отчёты, которые уже никто не читает.
Никогда еще в истории человечества говноконтент не производился настолько легко. И конечно, никогда еще он не был настолько популярен.
😁5😢3💯2
Marfeel опубликовали данные мониторинга Google Discover, которые (опять) окончательно хоронят иллюзии о будущем медиа. Google Discover перестает быть площадкой для издателей и становится ИИ-платформой, где трафик гонится на YouTube и X, а паблишеры получают видимость без кликов.
Половина ленты теперь — это ИИ
В США, Бразилии и Мексике идет масштабный эксперимент — более половины позиций в Discover заменяются ИИ-выжимками и сгенерированными роликами на Youtube. Для издателей это означает структурное сокращение «слотов», где статья может получить клик. Пока что ИИ-контент распределен неравномерно, по принципу, чем дальше скроллишь, тем больше процент сгенерированного контента.
AI-саммари облеплены логотипами издателей, имитируя множественное цитирование, но основное действие, клик — одно. Результат — видимость бренда есть, трафика нет. Издателей цитируют, но путь пользователя заканчивается внутри экосистемы Google, а не у паблишера.
Данные показывают, что YouTube уже получает значительную долю позиций в Discover, кроме того, массово появляется контент из твиттера.
Discover эволюционирует из «распределителя трафика» в инструмент удержания внимания внутри экосистемы Google.
Почему это критично для экономики издателей
1. Трафик становится волатильным. AI-блоки не постепенно размывают трафик — они его заменяют. Потери идут целыми кластерами, а не процентами.
2. Привлечение и удержание аудитории падает. Видимость без кликов не растит базы email, не конвертит в подписки, не создаёт прямых отношений с аудиторией.
3. ROI редакционного контента падает. Статьи превращаются из источника монетизации в сырьевую базу AI-ответы без монетизируемого результата для редакции.
Что с этим делать? Агрессивно строить прямые каналы — email, Telegram, приложения. Всё, что не зависит от алгоритмов Google. Искать новую модель монетизации, рекламная модель через Google-трафик умерла, пора это принять.
В целом, время переговоров закончилось. Выбор простой — адаптироваться к новой реальности или окончательно стать поставщиком бесплатного сырья для чужих экосистем.
—
Пономарь
Половина ленты теперь — это ИИ
В США, Бразилии и Мексике идет масштабный эксперимент — более половины позиций в Discover заменяются ИИ-выжимками и сгенерированными роликами на Youtube. Для издателей это означает структурное сокращение «слотов», где статья может получить клик. Пока что ИИ-контент распределен неравномерно, по принципу, чем дальше скроллишь, тем больше процент сгенерированного контента.
AI-саммари облеплены логотипами издателей, имитируя множественное цитирование, но основное действие, клик — одно. Результат — видимость бренда есть, трафика нет. Издателей цитируют, но путь пользователя заканчивается внутри экосистемы Google, а не у паблишера.
Данные показывают, что YouTube уже получает значительную долю позиций в Discover, кроме того, массово появляется контент из твиттера.
Discover эволюционирует из «распределителя трафика» в инструмент удержания внимания внутри экосистемы Google.
Почему это критично для экономики издателей
1. Трафик становится волатильным. AI-блоки не постепенно размывают трафик — они его заменяют. Потери идут целыми кластерами, а не процентами.
2. Привлечение и удержание аудитории падает. Видимость без кликов не растит базы email, не конвертит в подписки, не создаёт прямых отношений с аудиторией.
3. ROI редакционного контента падает. Статьи превращаются из источника монетизации в сырьевую базу AI-ответы без монетизируемого результата для редакции.
Что с этим делать? Агрессивно строить прямые каналы — email, Telegram, приложения. Всё, что не зависит от алгоритмов Google. Искать новую модель монетизации, рекламная модель через Google-трафик умерла, пора это принять.
В целом, время переговоров закончилось. Выбор простой — адаптироваться к новой реальности или окончательно стать поставщиком бесплатного сырья для чужих экосистем.
—
Пономарь
❤2😢2💊2
Ходил тут к бывшим коллегам говорить про судьбы медиа. Лайфхакер снова планирует исследовать нативную рекламу, вот и позвали поболтать.
Как видим на фото, пока все сидели нога на ногу, я себе ни в чем не отказывал и всячески транслировал вайб «this is fine». Потому что дела у медиа не очень. И у агентств не очень. И у маркетинговых команд брендов не очень. И весь рекламный рынок, как бы радостно нам ни рассказывали про его безудержный рост, находится в слове из четырех букв, вторая «о».
Так что, дорогие коллеги по отрасли, продолжаем биться на арене во славу цезарей, а когда не бьемся, отчего бы не расслабиться с бокалом вина.
Как видим на фото, пока все сидели нога на ногу, я себе ни в чем не отказывал и всячески транслировал вайб «this is fine». Потому что дела у медиа не очень. И у агентств не очень. И у маркетинговых команд брендов не очень. И весь рекламный рынок, как бы радостно нам ни рассказывали про его безудержный рост, находится в слове из четырех букв, вторая «о».
Так что, дорогие коллеги по отрасли, продолжаем биться на арене во славу цезарей, а когда не бьемся, отчего бы не расслабиться с бокалом вина.
1😁13❤10🥰7🤣2
Мама, я не вабкойдил, честное слово, это пацаны вайбкодили, а я просто рядом стоял.
На выходных пересобрал свой воркфлоу работы с записями звонков. Решил сделать все максимально локальным, делиться мне в этом треке нечем и не с кем.
Работает так:
1. Команда sync вызывается через системный планировщик три раза в день (можно и вручную). Загружает все новые текстовые расшифровки звонков из Fireflies. Дополнительно в ту же папку кладу расшифровки встреч, которые сделаны локально (редко, но бывает и такое).
2. Дальше вызывается скрипт, который ходит в GPT-5 Nano (вроде пока самая дешевая и качественная модель на Openrouter). Он выписывает highlights и собирает все, что похоже на задачи и определяет их ответсвенных и срок исполнения из контекста разговора.
3. Список задач выводится сперва в консоль, чтобы я решил, добавлять их в список задач или нет. Бывает, что хайлайты звонка могут быть важны, а вот задачи — нет. Если да, то задачи складываются в файл в формате todo-md.
4. Все закрытые задачи вызовом отдельной команды taskdone перекидываются в отдельный архивный файл (можно автоматизировать, но я пока оставил вызов вручную).
Конечно, все скрипты написаны Claude Code, с меня только отладка и уточнения.
Кто бы мне сказал, что в 2025 году мой таск-менеджмент будет заключаться в вызове пары скриптов обработки текстового файла :)
В чем прикол такого формата? Я использую VS Code как интерфейс для Claude Сode и Codex (простите, мастера консоли), плюс Obsidian, для которого текстовые файлики это база. Поэтому и таски удобно вести в простом универсальном формате. Исключение — если что-то должно быть с напоминанием, то это отправляется в календарь или Reminders.
Расскажите в комментах, если у вас есть похожие воркфлоу, очень интересно, кто до чего уже додумался.
На выходных пересобрал свой воркфлоу работы с записями звонков. Решил сделать все максимально локальным, делиться мне в этом треке нечем и не с кем.
Работает так:
1. Команда sync вызывается через системный планировщик три раза в день (можно и вручную). Загружает все новые текстовые расшифровки звонков из Fireflies. Дополнительно в ту же папку кладу расшифровки встреч, которые сделаны локально (редко, но бывает и такое).
2. Дальше вызывается скрипт, который ходит в GPT-5 Nano (вроде пока самая дешевая и качественная модель на Openrouter). Он выписывает highlights и собирает все, что похоже на задачи и определяет их ответсвенных и срок исполнения из контекста разговора.
3. Список задач выводится сперва в консоль, чтобы я решил, добавлять их в список задач или нет. Бывает, что хайлайты звонка могут быть важны, а вот задачи — нет. Если да, то задачи складываются в файл в формате todo-md.
4. Все закрытые задачи вызовом отдельной команды taskdone перекидываются в отдельный архивный файл (можно автоматизировать, но я пока оставил вызов вручную).
Конечно, все скрипты написаны Claude Code, с меня только отладка и уточнения.
Кто бы мне сказал, что в 2025 году мой таск-менеджмент будет заключаться в вызове пары скриптов обработки текстового файла :)
В чем прикол такого формата? Я использую VS Code как интерфейс для Claude Сode и Codex (простите, мастера консоли), плюс Obsidian, для которого текстовые файлики это база. Поэтому и таски удобно вести в простом универсальном формате. Исключение — если что-то должно быть с напоминанием, то это отправляется в календарь или Reminders.
Расскажите в комментах, если у вас есть похожие воркфлоу, очень интересно, кто до чего уже додумался.
🔥9👍2
Как и большинство людей, я люблю копаться в деталях, хотя в при изучении нового важно начинать с основ. И вот нашел промпт «80/20 для обучения», который переворачивает процесс. ИИ выделяет 5 концепций, которые дают 80% результата, показывает частые ошибки и строит план практики.
Промпт:
Я сейчас немного интересуюсь Claude Skills и попросил пояснить за них. И получилось прям толково, пару кирпичиков в голове встали на свои места. Очень рекомендую.
—
Пономарь
Промпт:
Научи меня [тема] по правилу 80/20. OUTPUT: 5 концепций, которые дают большую часть результата, частые ошибки и 30-минутный план практики. BONUS: добавь простой пример и один быстрый проверочный вопрос по каждой концепции, чтобы я мог убедиться, что действительно понял.
Я сейчас немного интересуюсь Claude Skills и попросил пояснить за них. И получилось прям толково, пару кирпичиков в голове встали на свои места. Очень рекомендую.
—
Пономарь
👍15
Утро началось не с кофе, а с волны сообщений, что Perplexity cтал отключать Pro-подписки, которые покупались на маркетплейсах по бросовым ценам 100-200 рублей за год. Сижу жду, прилетит ли мне 🙂
А следом пришла новость, что в РФ перестал работать Openrouter.
Штож.
UPD. Openrouter починили, проблема была не связана с санкциями 🙃
А следом пришла новость, что в РФ перестал работать Openrouter.
Штож.
UPD. Openrouter починили, проблема была не связана с санкциями 🙃
🫡9😭3❤2
Журналистка Талия Лавин выпустила книгу Wild Faith: How the Christian Right Is Taking Over America — историю правых христиан в США с фокусом на насилие в семьях. Три года работы, сотня интервью с жертвами.
Через неделю после релиза она нашла на Amazon минимум пять AI-подделок с похожими названиями в форматах биографий, мотивационных руководств и т.д. Содержание — набор нейробреда, фактических ошибок и несвязного текста, собранного со страницы о ней в википедии.
Коллеги Лавин — писатели Сет Харп и Кори Доктороу — рассказывают то же самое. Жалобы в Amazon не помогают — на месте удаленной подделки через час появляются две новые.
Механика простая. TikTok полон туториалов «как делать $5000/месяц на Amazon KDP» (Kindle Direct Publishing). Берёшь классику из public domain или чужую новинку, прогоняешь через AI с незамысловатым промптом, меняешь обложку, выкладываешь. Fair use формально соблюдён — теперь это «образовательный материал».
Amazon, конечно, заявляет об ужесточении модерации, но бремя доказательства возлагает на автора. Крупнейший книжный ритейлер в мире также крупнейший рынок литературного мусора.
Для российских издателей и авторов это видится далёкой проблемой — наши основные книжные платформы работают иначе, а рынок самиздата несопоставим по масштабу. Но сам паттерн нам знаком — когда платформа перестаёт вкладываться в модерацию и перекладывает издержки на пользователей, количество мусора растёт экспоненциально.
Платформы выросли настолько, что больше не боятся последствий за любые собственные действия. Так что вопрос, утонет ли наш книжный рынок в нейрослопе, даже не стоит.
—
Пономарь
Через неделю после релиза она нашла на Amazon минимум пять AI-подделок с похожими названиями в форматах биографий, мотивационных руководств и т.д. Содержание — набор нейробреда, фактических ошибок и несвязного текста, собранного со страницы о ней в википедии.
Коллеги Лавин — писатели Сет Харп и Кори Доктороу — рассказывают то же самое. Жалобы в Amazon не помогают — на месте удаленной подделки через час появляются две новые.
Механика простая. TikTok полон туториалов «как делать $5000/месяц на Amazon KDP» (Kindle Direct Publishing). Берёшь классику из public domain или чужую новинку, прогоняешь через AI с незамысловатым промптом, меняешь обложку, выкладываешь. Fair use формально соблюдён — теперь это «образовательный материал».
Amazon, конечно, заявляет об ужесточении модерации, но бремя доказательства возлагает на автора. Крупнейший книжный ритейлер в мире также крупнейший рынок литературного мусора.
Для российских издателей и авторов это видится далёкой проблемой — наши основные книжные платформы работают иначе, а рынок самиздата несопоставим по масштабу. Но сам паттерн нам знаком — когда платформа перестаёт вкладываться в модерацию и перекладывает издержки на пользователей, количество мусора растёт экспоненциально.
Платформы выросли настолько, что больше не боятся последствий за любые собственные действия. Так что вопрос, утонет ли наш книжный рынок в нейрослопе, даже не стоит.
—
Пономарь
🤯6🔥3👾2
Пора признаться. Моя жизнь стала гораздо лучше после того, как я перестал заходить в твиттер.
😁17❤8👍7💯6
Прочитал интересный разбор того, почему большинство CLAUDE.md файлов не эфективны. Проблема не в том, что Claude их не читает — проблема в том, что мы их неправильно пишем.
Современные модели могут стабильно следовать примерно 150-200 инструкциям. Claude Code в системном промпте уже использует около 50 из них — то есть треть бюджета уходит до того, как модель увидит ваш код. При этом по мере роста числа инструкций качество их выполнения падает не точечно, а равномерно по всем пунктам.
Короче, держите CLAUDE.md коротким и универсальным. Вместо того чтобы описывать все команды сборки, настройки тестов и паттерны кода, используйте метод прогрессивного погружения: создайте папку agent_docs/ с отдельными файлами (building_project.md, testing_guidelines.md, architecture.md) и в CLAUDE.md просто перечислите их с кратким описанием. Пусть Claude сам решает, что ему нужно прочитать для текущей задачи.
Для повседневных задач это тожже работает. Я после прочтения статьи попросил агента разобрать мой CLAUDE.md и раскидать все не нужное по разным документам. И он сразу вынул из него примерно половину. Правда, выкинуть придется еще примерно 500 строк :)
Правда, авторы статьи категорически призывают не использовать /init для автогенерации CLAUDE.md и вообще писать там всё вручную. Но так далеко заходить я, конечно, не буду :)
—
Пономарь
Для контекста. CLAUDE.md — это файл-инструкция для Claude Code, который автоматически добавляется в начало каждой сессии. Многие воспринимают его как место, куда можно свалить все команды, стайл-гайды и архитектурные решения проекта. Результат — Claude начинает игнорировать инструкции.
Современные модели могут стабильно следовать примерно 150-200 инструкциям. Claude Code в системном промпте уже использует около 50 из них — то есть треть бюджета уходит до того, как модель увидит ваш код. При этом по мере роста числа инструкций качество их выполнения падает не точечно, а равномерно по всем пунктам.
Короче, держите CLAUDE.md коротким и универсальным. Вместо того чтобы описывать все команды сборки, настройки тестов и паттерны кода, используйте метод прогрессивного погружения: создайте папку agent_docs/ с отдельными файлами (building_project.md, testing_guidelines.md, architecture.md) и в CLAUDE.md просто перечислите их с кратким описанием. Пусть Claude сам решает, что ему нужно прочитать для текущей задачи.
Для повседневных задач это тожже работает. Я после прочтения статьи попросил агента разобрать мой CLAUDE.md и раскидать все не нужное по разным документам. И он сразу вынул из него примерно половину. Правда, выкинуть придется еще примерно 500 строк :)
Правда, авторы статьи категорически призывают не использовать /init для автогенерации CLAUDE.md и вообще писать там всё вручную. Но так далеко заходить я, конечно, не буду :)
—
Пономарь
👍4🔥3
А у всех же было такое представление в детстве, что рисованные мультики это радость, а кукольные — унылая тоска?
💯35❤2