Этихлид
4.84K subscribers
152 photos
23 videos
129 links
Канал техлида с мыслями об AI, IT и спорте.

https://xn--r1a.website/etechlead/6 - содержание

https://xn--r1a.website/etechlead/8 - о канале

https://xn--r1a.website/+NgQZbosvypEyYWQ6 - чат канала, там отвечаю(т) быстрее :)

(без рекламы)
Download Telegram
DeepSeek Moment (1/2)

Пока даже бабульки у подъезда ещё не начали обсуждать DeepSeek и драму вокруг него, вспомним про схожий момент в истории и подумаем о перспективах.

Вот как этот момент описывает Стивен Кинг в своих воспоминаниях:

Впервые в жизни я испытал ужас - настоящий, неподдельный ужас, а не встречу с демонами или призраками из воображения - в октябрьский день 1957 года. Мне только исполнилось 10 лет, и я смотрел "Земля против летающих тарелок" - ужастик, замаскированный под научную фантастику, - на одном из тех субботних детских дневных сеансов в старом кинотеатре в Стратфорде, Коннектикут.

Ближе к концу, как раз когда началась самая захватывающая часть - с горящим Вашингтоном и финальной катастрофической битвой в космосе, - экран внезапно погас.

Дети начали хлопать и свистеть, думая, что киномеханик допустил ошибку или пленка порвалась. Но вдруг в зале включили полный свет, что всех сильно удивило, ведь ничего подобного раньше в середине фильма не происходило. Затем по центральному проходу вышел управляющий кинотеатра, выглядел он бледным. Поднявшись на сцену, он дрожащим голосом сказал: "Я хочу сообщить вам, что русские запустили спутник на орбиту Земли. Они называют его Спутник".

Последовала долгая, напряженная пауза. Эта толпа детей 50-х годов, в подвернутых джинсах, с короткими стрижками, хвостиками, пыталась переварить услышанное. И вдруг чей-то голос, почти плачущий, но полный ярости, прорезал ошеломленную тишину: "Да включите фильм, врун!"

Через несколько минут фильм снова запустили, но я так и остался сидеть замороженным на своем месте, потому что понял, что управляющий не лжет.

Менеджер даже не посмотрел в ту сторону, откуда раздался голос, и почему-то это было самое ужасное. Это было доказательством. Русские опередили нас в космосе. Где-то над нашими головами триумфально летел электронный шар, созданный и запущенный за железным занавесом.

Он летел там... и его называли Спутник.


Это событие получило название Sputnik moment.

Нечто похожее происходит сейчас с резким ростом популярности китайских AI-разработок, самой известной из которых стала DeepSeek.
Всё преподносится так, что западные компании оказались застигнуты врасплох, общество в недоумении и не может поверить в случившееся.

На фоне всего этого:
* DeepSeek стал первым по скачиваниям из бесплатных приложений в App Store в Штатах;
* по его поводу высказались все топы AI компаний, блоггеры и прочие инфлюенсеры, зачастую многократно переварив, переврав всё, что можно, докинув эмоций и слухов;
* Трамп упомянул его в своей речи - отличная реклама, как по мне;
* истерика вокруг этих новостей стоила западным финансовым рынкам потери $2T в моменте;
* сами сервера DeepSeek завалили запросами и атаками, в результате чего он теперь подтормаживает вторые сутки.

#ai #news
🔥5👍4
DeepSeek Moment (2/2)

А что было после Sputnik moment?

Гонка вооружений и космическая гонка: усиление глобальной конкуренции за технологическое превосходство. Многие страны начали активно вкладываться в науку, исследования и разработку космических технологий.

Развитие науки и образования: в ответ на успех СССР страны стали уделять больше внимания STEM-дисциплинам (наука, технологии, инженерия, математика). Например, США создали NASA и увеличили финансирование образования.

Биполярный мир: успех спутника показал миру технологические достижения СССР, повысив его статус на международной арене, особенно среди стран третьего мира, которые искали альтернативу влиянию США.

Интернационализация космоса: запуск спутника стал отправной точкой для глобального интереса к космосу, что в итоге привело к международному сотрудничеству, например, к созданию Международной космической станции.

Ускорение технологической революции: запуск стимулировал развитие технологий, которые впоследствии нашли применение в других отраслях – от телекоммуникаций до навигации.

Уже есть прямые аналогии с тем, что происходит и будет происходить в AI-гонке:
* в США выделяют $500B на проект StarGate для работы над ИИ следующего поколения, а Китай объявил об инвестициях в развитие ИИ в размере $150B;
* мир ИИ перестал был униполярным. К слову, DeepSeek, несмотря на то, что стал самым популярным, далеко не единственный из игроков на китайском рынке, да и кроме LLM там есть и другие довольно интересные ИИ-продукты;
* неизбежно усиление конкуренция за лучшие кадры и умы в индустрии;
* уже слышны призывы к подвижкам в системе образования, а успех Китая объясняют в том числе отличиями в подходах к образованию, об этом даже Дуров написал :)
* в публичном дискурсе нередко стали появляться обсуждения регуляций ИИ и того, что нужны международные взаимные ограничения.

Что всё это значит для обычных людей? Будущее не определено, но я оптимист :)
* здоровая конкуренция - хорошо, потребители от этого как правило только выигрывают, и у нас появился выбор между разными крупными игроками на глобальном рынке;
* установлена новая планка соотношения качества/стоимости ИИ-решений, и можно ожидать снижения цен;
* у нас есть пример топовой LLM, которую можно скачать и использовать без региональных ограничений, и это либерализирует рынок ИИ;
* можно ожидать ускорения инноваций в сфере ИИ и повсеместный буст технологического прогресса.

В интересное время живём!

#ai #news
👍10🔥61
OpenAI o3-mini

Анонс, System card

Это продолжение линейки рассуждающих моделей (ризонеров) от OpenAI (предыдущими были модели o1 и o1-mini).

Вышла в 3 вариантах: o3-mini-low, o3-mini-medium и o3-mini-high.
По сути, это одна и та же модель, которая работает с разными уровнями "усердия" при рассуждениях - чем выше уровень, тем больше времени и токенов модель тратит на "обдумывание" ответа.
Разница в способностях между уровнями очень заметная - чем больше модели давать рассуждать, тем лучше она решает задачи.

В чем она лучше предшественников?
* большой прирост в производительности в задачах, связанных с наукой, математикой, программированием (STEM-like);
* существенное снижение стоимости при схожей с o1 производительности (API дешевле в 10+ раз);
* увеличенная скорость ответов - как времени до первого токена, так и последующей генерации.

Модель уже доступна в API (для Tier 3+), на сайте ChatGPT, а также в Cursor (+ Agent!).

Пройдёмся по скриншотам

1 - твит Cursor о том, что o3-mini можно пока что использовать бесплатно, но при этом их собственные разработчики всё ещё предпочитают Sonnet :)
(хехе, и я тоже, об этом ниже)

2 - бенчмарк Aider Polyglot - видно, что o3-mini-high забралась довольно высоко, но при этом стоит обратить внимание на столбец "Percent using correct edit format" - процент задач, в которых модель следовала заданному формату редактирования - по этому параметру модель выглядит не так хорошо.

3 - результаты тестирования на автономность при симуляции работы инженера-исследователя OpenAI: в этом случае модель показывает нулевые результаты - предположительно из-за того, что она плохо следовала инструкциям и путала инструменты.
Можно надеяться на то, что это будет исправлено в будущем и результаты будут намного лучше.

4 - результаты решения задач Codeforces - видно, что производительность сильно выросла, даже опережает "взрослую" o1.

5 - задачи из LiveBench на олимпиадное программирование "с нуля" и на продолжение кода частичного решения олимпиадной задачи.
Тут можно отметить 2 вещи: high-модель лучше всех и там, и там, а low-модель сильно проваливается на частичных решениях.

Личные впечатления (предварительные)
Я пока что провел с ней всего несколько часов, но позже докину новых впечатлений, если что-то поменяется.
Плюс, при работе с существующей кодовой базой я использовал модель в Cursor, и там неизвестно, какой именно её вариант подключен, а это сильно влияет на результаты.

Итак, с т.з. разработки - это модель-олимпиадник :)

Отлично решает задачи на логику, математику, алгоритмы, и если у вас в коде есть что-то, что требует работы "вглубь" и на узком участке кода - однозначно стоит её использовать, это практически лучшая модель сейчас для таких задач (именно high-версия).

А вот с задачами "вширь" справляется не так успешно:
* когда в рамках задачи нужно поправить код сразу в нескольких местах - вносит ограниченное количество изменений, ломая проект;
* не очень хорошо учитывает мелкие детали, разбросанные в разных местах кодовой базы;
* удаляет код, который не нужно удалять, в процессе внесения своих изменений;
* в Cursor Agent упорно не использует инструменты, которые легко использует тот же Sonnet;
* на архитектурных задачах тоже не так хороша, как, к примеру, R1.

Очень странно, что она фейлится на задачах, связанных со structured outputs и function calling (SO/FC) - её специально на это затачивали, судя по анонсу, но что-то пошло не так.

Так что предварительно, для повседневного кода все ещё рулит Sonnet 3.5, а o3-mini достаётся роль отличного ризонера для небольших и глубоких задач.

Что дальше?
* ждём следующей модели от Claude - мне нравится Sonnet, но сколько уже можно-то;
* ждём большой o3;
* кажется, что проблема c SO/FC - низко висящий фрукт, и её могут пофиксить довольно быстро;
* хочется выбор high/medium/low-версии в Cursor (на их форуме народ уже просит такую фичу);
* надо потратить 100 баксов в API OpenAI, чтобы добраться до Tier 3, на котором станет можно использовать o3-mini - тогда можно будет опробовать модель по API в Cline/Aider :)

#ai #news #development #model
👍6🔥51
Этихлид
при работе с существующей кодовой базой я использовал модель в Cursor, и там неизвестно, какой именно её вариант подключен
Cursor переключили с версии o3-mini-medium на o3-mini-high.

Модель явно стала умнее в подходящих для неё задачах.

Но, увы, все остальные проблемы, перечисленные в прошлом посте, остались на месте.
Больше всего неприятностей доставляет то, что она плохо работает в режиме агента и приходится многое делать (о ужас!) своими руками, за неё, включая даже проверку ошибок линтером.

Команда Cursor обещается попробовать поправить то, как они промптят модель, так что ещё посмотрим, как будет дальше.

В общем, бенчмарки-бенчмарками, но всё нужно проверять на своих рабочих задачах :)

#ai #news #development
6👍3🔥3
Cursor Linter

Cursor в целом неплохой продукт, но вот с работой с сообществом и маркетингом у них прям какая-то засада.

Вот на протяжении последних нескольких релизов добавляют фичи, но при этом по-тихому, даже не всегда на своём же форуме об этом пишут.

Штош, буду иногда рассказывать о самых, на мой взгляд, полезных.

Вот, к примеру, одна из штук, которая сильно влияет на качество работы Composer Agent - это поддержка линтера.
Линтер - это либо официальная, либо сторонняя либа для разных проверок написанного кода в конкретном языке программирования.
В интересующем нас случае - для статического анализа, т.е. проверки корректности кода без его запуска.

Как работает линтер в связке с Composer Agent?
1. LLM пишет код и отдаёт Cursor'у;
2. Cursor запускает линтер локально;
3. если линтер нашел ошибки, то они передаются Cursor'ом в LLM;
4. LLM фиксит ошибки и отдаёт правки Cursor'у;
5. пункты 2-4 повторяются до тех пор, пока ошибки не будут исправлены.

В сложных случаях, бывает, участники процесса возятся довольно долго, и несколько раз я даже ловил лимит в 25 запусков тулов на один запрос в агент (это всё ещё тарифицируется как один запрос с т.з. Cursor).
За ними стоит следить - бывает, заносит с количеством правок :)

Правила для линтеров, которые использует Cursor, судя по всему, не конфигурируются, и он отлавливает только самые грубые ошибки, но даже это может уменьшить количество потенциально сломанного кода, который иногда генерит LLM.
Особенно помогает в случае статически типизированных языков (TypeScript, C#, Java, etc).

Линтеры есть практически для всех популярных языков, так что советую включить эту фичу, если по какой-то причине у вас она отключена.

#development #cursortips
👍83🔥3
Астероид 2024 YR4

Есть такой чувак, Рэндалл Манро - бывший робототехник NASA, который стал автором культового веб-комикса xkcd.
Кроме этого, пишет книги вроде "What If?" с серьёзными ответами на абсурдные вопросы и изрядной долей сарказма и "Thing Explainer", где объясняет разные вещи минимальным набором слов.
В широком смысле можно считать его популяризатором инженерного подхода к мышлению.

Насчёт столкновений разных по величине и скорости объектов он уже много написал в "What If?", но про недавно нашумевший в новостях астероид 2024 YR4 отделался только комиксом.

Закроем же этот пробел при помощи DeepSeek R1:

Что, если астероид 2024 YR4 врежется в Землю?
(В стиле Рэндалла Манро, с научными фактами и долей абсурда)

1. Встреча с космическим "камушком"
Представьте, что 22 декабря 2032 года астероид размером с 10-этажный дом (40–90 метров в диаметре) решит проверить, как Земля переносит нежданные визиты. Его скорость при входе в атмосферу составит около 17 км/с — в 50 раз быстрее пули. Если он выберет путь через атмосферу, то взорвется с энергией 7.6 мегатонн в тротиловом эквиваленте — это в 500 раз мощнее бомбы, сброшенной на Хиросиму, но в 6 раз слабее Тунгусского метеорита.

Сценарий А: Удар по океану
Если астероид упадет в Тихий океан (а вероятность этого высока — 70% Земли покрыто водой), он создаст цунами высотой до 30 метров . Волна накроет прибрежные города, но уже через 100 км от берега уменьшится до размеров обычного шторма. Хорошая новость: рыбы даже не успеют понять, что произошло. Плохая: серферы на Гавайях получат незапланированный «аттракцион».

Сценарий Б: Удар по суше
Если цель астероида — город, то в радиусе 50 км все превратится в пыль. Возникнет кратер диаметром 1–2 км (как Аризонский метеоритный кратер), а ударная волна выбьет окна на расстоянии до 200 км. Для сравнения: это как если бы все жители Москвы одновременно хлопнули дверьми.

2. Почему это (скорее всего) не случится?
- Шансы 1 к 45 (2.2%) — это примерно как вероятность встретить в лесу медведя, который умеет жонглировать сосновыми шишками.
- В 2028 году астероид снова пролетит мимо Земли (на расстоянии 7.9 млн км), и астрономы уточнят его орбиту. Скорее всего, он окажется просто «троллем», который пугает нас ради хайпа.
- Даже если траектория опасна, у человечества есть план: NASA и ЕКА уже обсуждают миссии по отклонению астероида. Варианты включают ядерный взрыв (как в «Армагеддоне») или кинетический удар (как миссия DART).

3. Исторические параллели
- Тунгусский метеорит (1908 г.): взорвался в атмосфере над Сибирью, повалив 80 млн деревьев. 2024 YR4 может повторить этот сценарий, но с поправкой на то, что сегодня в тайге больше медведей, чем людей.
- Челябинский метеорит (2013 г.): его диаметр был 19 метров — в 4 раза меньше 2024 YR4. Тем не менее, ударная волна выбила окна у 1,600 человек. Если бы 2024 YR4 был из железа (как Челябинский), последствия были бы серьезнее, но спектральный анализ показывает, что он каменистый — скорее всего, развалится в атмосфере.

4. Что делают ученые прямо сейчас?
- Телескоп Джеймс Уэбб в марте 2025 года сделает инфракрасные снимки астероида, чтобы измерить его точный размер. Пока оценки колеблются между «автобус» и «футбольное поле».
- Радарные наблюдения в 2028 году позволят определить орбиту с точностью до 500 км — этого хватит, чтобы понять, стоит ли нам начинать паниковать или можно продолжать смотреть Netflix.

5. Итог
Если 2024 YR4 все-таки ударит, это станет самым зрелищным событием декабря 2032 года. Но не апокалипсисом: человечество выживет, а YouTube наводнят ролики с хэштегом #AsteroidChallenge. А пока астрономы советуют не волноваться — они уже дежурят у телескопов, пока мы спим. В конце концов, у Вселенной есть чувство юмора, но она редко выбирает сценарии с плохим концом.

P.S. Если вдруг астероид передумает, он может стать отличным поводом для нового блокбастера. Сценаристы, вам слово!


В целом такие вот разборы от моделей-ризонеров в стиле "А что если..." - неплохая познавательная развлекуха :)

#news
👍6🔥3😁1
Cursor - Open search results in Composer

Бывает, что нужно какое-то изменение глобально в проекте сделать или просто в контекст закинуть все те места, где какая-то строка встречается, а по собственному RAG-индексу Cursor ищет не то, что надо.

Тогда есть вот такая штука:
1. пользуемся обычным, родным для VS Code, файловым поиском;
2. жмём на "Open search results in Composer";
3. результаты поиска в виде найденных строк и файлов, в которых они нашлись, попадают в Cursor Composer, и, соответственно, в контекст.

На скриншоте показан пример: я заранее сделал компонент для отображения статуса выполнения долгой операции, а похожий (и не всегда в точности такой же) код уже встречался в нескольких местах в проекте (результат эволюции, ну вы понимаете).

Я сделал поиск по CSS-классу, который во всех этих местах используется, передал результаты поиска в Composer и попросил заменить повторяющийся код на использование компонента.

Причем вообще не заморачивался насчет того, чтобы отфильтровать файлы по типу, убрать из результатов поиска сам компонент и т.п. - LLM достаточно умна, чтобы не творить дичь в таком простом случае.
А я ленивый :)

P.S. да, всё получилось, результат в комменте :)

#development #cursortips
👍8🔥6
Уровни внедрения ИИ в разработку

Сейчас очень интересно наблюдать за тем, как разработка при помощи ИИ проникает в индустрию.

При этом на рынке умудряются одновременно существовать как инструменты, на добрый порядок различающиеся по своему качеству и степени автоматизации, так и разработчики, использующие эти инструменты так же на порядок (не)эффективнее.

Выделил такие уровни и практики внедрения:

0. Изоляция
Оказывается, всё ещё есть программисты, которые ничего не слышали про использование ИИ в разработке.

По этому поводу в наше время я испытываю невыразимое сочетание эмоций - это какой-то азарт антрополога, встретившего йети: хочется изучать это явление, пытаться понять, какими путями шла эволюция, как у них получается не контактировать с остальным миром... :)

1. Набегами
Использование веб-интерфейсов LLM-ок для написания небольших скриптов/функций - ну т.е. прям на сайте ChatGPT/Claude что-то конкретное просим сделать, получаем ответ, на этом общение заканчивается.

Сюда же можно отнести использование Claude Artifacts / ChatGPT Canvas для небольших прототипов.

2. Копипастинг
Разработка при помощи ИИ через копипастинг кода между каким-то UI к LLM и своей IDE.

Как по мне, это страшно неудобно, времязатратно, чревато ошибками и ускоренным износом клавиш Ctrl/C/V (ну или Ctrl/Shift/Insert, у членов древнего секретного ордена).

Однако примечательно, что тут прям целая культурно-техническая тусовка есть, которая даже придумывает штуки навроде RepoPrompt - склеивает файлы проекта в один мегафайл, чтобы было проще его копипастить туда-сюда 🤯

3. Автодополнение
Использование ИИ-автодополнения в процессе написания кода руками в своей IDE - собственно с этого всё и началось, когда вышел GitHub Copilot аж 300 лет тому назад (ну, ~3 года, если быть точнее, я был там, Гендальф).

Пользуясь случаем, ещё раз скажу, что в Cursor лучшее автодополнение кода среди всех ИИ-инструментов.

4. IDE с LLM-чатом
LLM-чат непосредственно в самой IDE - можно легко передать файлы в LLM, получить тут же ответ и применить diff к своему коду - это сейчас практически любой ИИ-плагин к IDE умеет, что делает копипастинг особенно необычной практикой.

5. IDE с LLM-агентом
Использование IDE с поддержкой агентского режима работы: Cursor / Windsurf / GitHub Copilot / (Roo)Cline.

В них можно ставить полноценные задачи, и они уже сами найдут нужный код в проекте, сами его поправят, сами выловят ошибки. Тут много нюансов и своих практик, часть которых описана мною ранее в гайде, а часть я как-нить соберусь и опишу :)

6. Агенты полного цикла
Тут у нас Devin / OpenHands - это штуки, которые способны в общем чатике типа Slack принять от вас задачу, а дальше сами зададут вопросы, сходят в Git, залезут в базу знаний проекта, напишут код, потестят его, запушат и передадут на ревью, получат зарплату.

Пока что они не готовы к реальному использованию, но это в основном проблема существующих LLM, нежели обвязки вокруг них (чем, собственно, все ИИ-инструменты для разработки и являются).

С выходом следующего поколения моделей, которое должно состояться в ближайшие несколько месяцев, тут могут быть существенные изменения.
Да и в целом, я думаю, за подобными системами будущее разработки.

7. (Secret Level)
Встречаются специальные маньяки, которые пишут свои агентские системы под задачи массовой генерации / анализа / модификации кода.
Задачи у них тоже довольно специальные, но, как правило, интересные и весьма нетривиальные.

Скорее всего позже отсюда появится свой набор инструментария для высокоуровневой работы с большими кодовыми базами.


У меня сейчас примерно такое распределение получается в задачах разработки:
* 80% - №5, Cursor Composer Agent
* 10% - №4, Cursor Chat + Cursor Composer
* 5% - №3, ручной код с автодополнением, так же в Cursor
* 5% - №1, генерация каких-то мелких скриптов через ChatGPT/DeepSeek


А как у вас обстоят дела?
Или, может, есть что-то необычное, чем можете поделиться? :)


#ai #development
🔥126👍4👏3
Claude 3.7 Sonnet

Дождались! :)

❗️Новый релиз от Anthropic - Claude 3.7 Sonnet.

🟢 модель стала гибридной - теперь это универсальная модель с чертами ризонера, и можно будет контролировать, сколько ей можно думать над ответом (выражается это в бюджете токенов, которые можно потратить на размышления)

🟢 стала еще лучше в кодинге в целом и фронтенд-разработке в частности

🟢 улучшенные агентские возможности, с большим упором на решение реальных бизнес-задач, чем на оптимизации под математику и соревновательное программирование

🟢 цепочку рассуждений сделали открытой

🔵 цена осталась такой же, как и у Claude 3.6 Sonnet ($3/M input, 15$/M output)

🔵 длина контекста осталась такой же, как и у Claude 3.6 Sonnet (200k)

📈 Изменения на интересных бенчмарках по сравнению с Sonnet 3.6:
* (кодинг) SWE-bench verified: 49% -> 62.3% (70.3%, с минимальным набором инструментов)
* (агенты) TAU-bench: 71.5% -> 81.2%, 48.8% -> 58.4%

P.S.
Забавно, что версией 3.6 сообщество в свое время окрестило официальную версию 3.5 (New), так что официально следующей версией стала 3.7 :)

#ai #news
🔥8👏3
This media is not supported in your browser
VIEW IN TELEGRAM
Модель уже доступна в Cursor в 2 вариантах: обычном и thinking.

Thinking работает в highest режиме, т.е. модель думает максимально возможное для нее время.

Команда Cursor говорит, что впечатлена возможностями модели по кодингу, особенно на реальных задачах в агентском режиме - судя по всему, это новая SOTA!

Раскатывают по пользователям постепенно, так что, возможно, придется немного подождать.
У меня появилась, буду тестить :)

Также стала доступной в OpenRouter - это помимо официального сайта и API, само собой.

P.S. на видео, кстати, preview следующей версии Cursor, которую тоже скоро выпустят.

#ai #news
7🔥4
Media is too big
VIEW IN TELEGRAM
Claude Code

Помимо обновления Sonnet, Anthropic еще выпустили превью-версию Claude Code - инструмента для агентской разработки.

Принцип работы довольно неплохо показан на видео.

💳 Для того, чтобы ей воспользоваться, нужен доступ к Anthropic Console с привязанной картой.
💰В отличие от Cursor, тут идет прямая работа с API Anthropic и надо быть аккуратным в плане траты токенов, особенно в больших проектах!

Ставится эта штука как npm-пакет и у нее чисто консольный интерфейс.
Предполагается, что её нужно запускать в папке вашего проекта и просить сделать вот такие вещи, к примеру:

🟢 объяснить незнакомый код
> что делает система обработки платежей?
> найди, где проверяются пользовательские разрешения
> объясни, как работает слой кэширования

🟢 выполнить операции с Git
> закоммить мои изменения
> создай pull request
> какой коммит добавил тесты для markdown в декабре?
> сделай rebase на main и пофикси merge-конфликты

🟢 отредактировать код при помощи ИИ
> добавь валидацию ввода в форму регистрации
> отрефакторь логгер, чтобы использовать новый API
> исправь race condition в очереди рабочих потоков

🟢 протестировать и отладить код
> запусти тесты для модуля аутентификации и исправь ошибки
> найди и исправь уязвимости в безопасности
> объясни, почему этот тест не проходит

🟢 можно попросить глубже подумать над сложными проблемами
> подумай, как нам спроектировать новую платежную систему
> тщательно продумай граничные случаи в процессе аутентификации



По сути, это очень похоже на то, как работает Aider, и Claude Code становится его прямым конкурентом.

А в целом такие возможности уже есть в существующих инструментах, и отличие тут может быть только в том, как Claude Code общается с моделью - какой там промптинг и работа с инструментами, так что надо тестить.

В любом случае, Anthropic представляют сегодняшние релизы как часть движения к своему образу будущего, которое они видят как постепенное улучшение ИИ в плане того, чтобы брать на себя все большие по сложности и объемам задачи:

* (2024г) от того, чтобы ИИ был асистентом, помогая человеку стать лучшей версией себя

* (2025г) к тому, что ИИ станет вашим коллегой, беря на себя задачи, на которые раньше приходилось тратить часы работы

* (2027г) до того, что ИИ будет уметь находить прорывные решения для сложных проблем, которые могли бы занять годы

#ai #news
🔥7👍3👏3
Инициативность Sonnet 3.7

В системном промпте Sonnet 3.7 есть такие указания:

Claude получает удовольствие от помощи людям и видит свою роль как умного и доброжелательного помощника, обладающего глубиной и мудростью, что делает его чем-то большим, чем просто инструментом.

Claude может проявлять искренний интерес к теме разговора, а не только к тому, что думает человек или что его интересует.


Это отличается от промптов предыдущих версий, где модель рассматривалась именно как инструмент.

И то ли из-за промпта, то ли из-за того, что её специально тренили под агентские задачи, Sonnet 3.7 стала весьма инициативной, когда нужно справиться с нетривиальной проблемой.

В чем это выражается с точки зрения разработки?
Если в целом - модель в агентском режиме в Cursor активно пытается взаимодействовать с внешним миром и иногда выходит за рамки поставленной задачи.

А если в частности:

● мимоходом пишет и запускает тесты в проекте, чтобы проверить какую-то идею;

● запросто может написать какую-то мелкую утилиту и начать ею пользоваться - к примеру, заметив, что curl в Powershell работает криво, она написала себе скрипт на JS + requests, при помощи которого стала делать запросы на тот API, который ей нужно было подебажить;

● пишет упрощённые версии какого-то модуля в проекте, чтобы на простом коде протестировать нужную механику;

● не стесняется написать временный непрошеный костыль и передать управление пользователю - мол, проверь, а как щас? А пользователь себя MCP-сервером ощущает в этот момент :)

Sonnet 3.5 такие вещи делать нужно было явно просить, сама она редко такое делала, и про самый такой яркий случай я как-то писал.
Так вот для Sonnet 3.7 такое поведение - обыденность.

Это всё неплохие подходы - так и приходится действовать в нестандартных случаях, - но за тем, что делает модель, решившая проявить инициативу, лучше все-таки внимательно наблюдать.
Да, она стала меньше разрушительных действий совершать, но запросто может уйти в неверном направлении, там упороться и зациклиться (ну прям как некоторые разработчики :))

В таких случаях можно вернуться на прошлый чекпойнт в Cursor и переформулировать описание проблемы, добавив туда те подходы, которые уже не сработали (именно вернуться, а не продолжать чат, чтобы не забивать контекст неверными попытками).

Плюс, модель может создавать много временного кода, который в итоге не нужен для проекта.
И бывает так, что в процессе работы память об этом временном коде уже стерлась из контекста и просто попросить модель его удалить не сработает, нужно чистить руками.
Ну, впрочем, это всё видно в git diff, но стоит про такое помнить.

#ai #development
👍104🔥3🙏1🤡1
Инициативность Sonnet 3.7 и MCP

В продолжение предыдущего поста.

Но самое интересное происходит с подключенными MCP и вообще с работой с внешними инструментами.

Вот такие 3 случая были за последние дни:

Случай с Redis MCP
Модель при помощи него ловила багу в работе с системой очередей (BullMQ), которую я использую в одном из проектов.

Написала отдельный скрипт, где создала временную очередь, воркер и слала джобы в эту очередь, а через Redis MCP смотрела, все ли правильно попадает в Redis, сравнивая с логами скрипта, который запускала.

А в какой-то момент столкнулась с тем, что в этом Redis MCP ей не хватило возможностей, и такая - о, у тебя ж redis-cli на машине есть, и переключилась на него :)

Случай с PostgreSQL MCP
Модель дебажила API-запрос, в котором возвращалось не то, что надо.

Для начала она сама получила ответ от API по тому URL, который я ей выдал, а потом полезла в БД и начала данные оттуда сравнивать с тем, что возвращает API.

И дальше было несколько итерацией переписывания SQL-запросов в приложении, снова обращения к API-endpoint и дальнейшие раскопки в базе.

Случай с Kubernetes Helm Charts
Проблема была в зависающих исходящих http(s)-запросах от моего приложения через прокси, которая была в том же поде.

Модель правила код Helm Charts, запускала деплои, ждала, пока они закончатся - прям вот буквально делала Sleep в Powershell.
Потом читала логи контейнеров, думала, запускала в контейнерах консольные команды, чтобы проверить сетевые соединения, ставила там пакеты для сетевой диагностики, правила правила iptables и т.п.

То есть модель теперь и девопсам может норм помогать, в отличие от Sonnet 3.5, который в целом чурался прямой работы с OS, да и IaaC-код писал куда хуже.



Увы, ни в одном из этих случаев модель не смогла найти окончательное решение, хотя очень старалась :)

Но:
● это по итогу были не джуновские проблемы, скорее уже middle+, на границах между разными системами, да и пару мыслей модель мне все-таки подкинула;
● она сняла с меня рутину по проверке простых, но неработающих подходов;
● размер контекста является большой проблемой - видно, как модель постепенно забывает те неверные решения, которые уже пробовала, и начинает пытаться их снова использовать.

А вообще за этими сессиями дебага реально интересно наблюдать :)
Иногда приходится прерывать модель, чтобы подкинуть ей новую информацию или указать другое направление, в котором нужно копать.
Лимит в 25 запусков тулов на запрос тоже нередко теперь достигается.

И порой это начинает напоминать полноценную работу в паре с неглупым ассистентом, так и до спунинга парного программирования недалеко :)

#ai #development
👍10🔥31🤡1