Делюсь своей памяткой для работы с курсором, чтобы получать от него что-то рабочее. В целом это уже +/- известная информация, но мб будет полезно.
1. Нужно работать в связке Chat GPT o4-mini-high + Cursor (та же модель или claude 4) где GPT выступает в качестве лида для курсора. Декомпозирует задачи, превращает их в промты, ревьюит код и даёт рекомендации
2. Задачу нужно дробить на маленькие шаги для каждого свой промт и шаги должны быть устроены так, чтобы выполняться параллельно в разных вкладках, это сильно сокращает время генерации кода.
3. Прежде чем начать просить GPT собирать промты по вашей задаче, нужно сделать промты для написания тестов. Смысл такой: Курсор пишет тесты на функционал, которого ещё нет, после чего пишет функционал ориентируясь на тесты. Если делать в обратном порядке, он может написать нерабочий код, потом написать тесты которые идеально проверяют нерабочий код и вот у тебя на руках шматок говна и потерянное время
4. Нужно запускать тесты после каждого шага, чтобы знать всё ли работает и если нет, то после какого шага сломалось и сразу делать фиксы
5. После выполнения всех операций и получения рабочего кода, лучше всё выгрузить на гитхаб или архивом в GPT и попросить сделать анализ похожих решений, найти точки роста в твоём проекте и предложить конкретные улучшения для поднятия эффективности или ещё чего...
6. Работа в ветках, чтобы не потерять уже имеющийся результат опять же либо локально либо в репозитории, тут кому как удобнее
UPD: 7. Тож важный пункт забыл дописать. Лучше все перед началом работы попросить GPT провести глубокий анализ на тему использования стэка технологий, языков и прочего, конкретно под твой функционал. Собрать это в пдф и запихнуть в папку с проектом в качестве контекста, это в моменте сильно подняло качество работы
Всё это идеально работает с CLI утилитами (в терминале в общем), для работы с GUI нужно что-то делать иначе, ибо курсор начинает творить всякое нехорошее с кодом и всё ломать. Либо у тебя есть условно программа с интерфейсом, который работает не так, а фиксы всё только усугубляют.
С таким подходом у меня есть две рабочие утилиты доступные из терминала:
1. Штука помогает анализировать содержимое файлов без их открытия на утечки сенситивных данных или содержание вредоносного кода. Сенситивку находит, с вредоносом пока стрёмно проверять.
2. Скринкастер который захватывает всё и тултипы и системные сообщения и сохраняет видео локально. Оч удобно и не надо платить луму.
Если знаешь какие-то лайвхаки о которых я не написал, делись в комментах, мне пригодится точно
1. Нужно работать в связке Chat GPT o4-mini-high + Cursor (та же модель или claude 4) где GPT выступает в качестве лида для курсора. Декомпозирует задачи, превращает их в промты, ревьюит код и даёт рекомендации
2. Задачу нужно дробить на маленькие шаги для каждого свой промт и шаги должны быть устроены так, чтобы выполняться параллельно в разных вкладках, это сильно сокращает время генерации кода.
3. Прежде чем начать просить GPT собирать промты по вашей задаче, нужно сделать промты для написания тестов. Смысл такой: Курсор пишет тесты на функционал, которого ещё нет, после чего пишет функционал ориентируясь на тесты. Если делать в обратном порядке, он может написать нерабочий код, потом написать тесты которые идеально проверяют нерабочий код и вот у тебя на руках шматок говна и потерянное время
4. Нужно запускать тесты после каждого шага, чтобы знать всё ли работает и если нет, то после какого шага сломалось и сразу делать фиксы
5. После выполнения всех операций и получения рабочего кода, лучше всё выгрузить на гитхаб или архивом в GPT и попросить сделать анализ похожих решений, найти точки роста в твоём проекте и предложить конкретные улучшения для поднятия эффективности или ещё чего...
6. Работа в ветках, чтобы не потерять уже имеющийся результат опять же либо локально либо в репозитории, тут кому как удобнее
UPD: 7. Тож важный пункт забыл дописать. Лучше все перед началом работы попросить GPT провести глубокий анализ на тему использования стэка технологий, языков и прочего, конкретно под твой функционал. Собрать это в пдф и запихнуть в папку с проектом в качестве контекста, это в моменте сильно подняло качество работы
Всё это идеально работает с CLI утилитами (в терминале в общем), для работы с GUI нужно что-то делать иначе, ибо курсор начинает творить всякое нехорошее с кодом и всё ломать. Либо у тебя есть условно программа с интерфейсом, который работает не так, а фиксы всё только усугубляют.
С таким подходом у меня есть две рабочие утилиты доступные из терминала:
1. Штука помогает анализировать содержимое файлов без их открытия на утечки сенситивных данных или содержание вредоносного кода. Сенситивку находит, с вредоносом пока стрёмно проверять.
2. Скринкастер который захватывает всё и тултипы и системные сообщения и сохраняет видео локально. Оч удобно и не надо платить луму.
Если знаешь какие-то лайвхаки о которых я не написал, делись в комментах, мне пригодится точно
2 7
Вчера кста, чуть освежил дизайн для продукта, который я когда-то делал. Это про аналитику сбора урожая. Сколько планировали собрать, скок собрали и какого качества то, что собрали...ну и так далее.
Гибкие настройки таблиц, выгрузка в эксельку, разные типы отображения данных, там много было всего интересного.
Лайк приветствуется
Гибкие настройки таблиц, выгрузка в эксельку, разные типы отображения данных, там много было всего интересного.
Лайк приветствуется
Burhudar_ch
Вчера кста, чуть освежил дизайн для продукта, который я когда-то делал. Это про аналитику сбора урожая. Сколько планировали собрать, скок собрали и какого качества то, что собрали...ну и так далее. Гибкие настройки таблиц, выгрузка в эксельку, разные типы…
Это к слову был мой первый B2B продукт, я уже писал о том как я был в ахуе, потому что было очень сложно. Пока я там работал, я понял что:
Данные невероятно важны и я имею в виду данные не от продакта или аналитика, они конечно тоже важны, но я имею в виду в первую очередь данные в твоих макетах. В частности содержимое таблиц, графиков и всего остального. Всё это должно быть реалистично и понятно для того, кому ты это будешь показывать. Казалось бы, очевидная информация на уровне как дышать, однако я постоянно вижу у ребят и в рабочих макетах и в шотах и даже в кейсах, какую-то околесицу из-за чего на этапе демонстрации, возникает оч много вопросов. Самый банальный из которых: А как это работает вообще?
Люди зацикливаются на тех аспектах, в которых разбираются и с которыми работают постоянно. Они прикипают к правилам, если можно так сказать, в рамках которых работают. Поэтому они легко замечаю дурацкие вещи при демонстрации твоего стафа, которые ты можешь не заметить или считать несущественными из-за того, что ты работаешь с интерфейсами, а не с цифрами. Как итог, респондент зафреймился на твоих рандомных данных в макетах, не понимая как они считаются и вот вы потратили всю встречу на обсуждение того, что вообще не имеет значения.
Чтобы не обсираться на интервьюшках показывая очередной отчёт, я собирал данные сначала в экселе, строил график, потом переносил всё в фигму. В конечном счёте, у тебя реалистичное решение. Респондент видит макет, видит данные в нём, понимает, что это выглядит как инструмент в котором он работает, но лучше или хуже (Тут уже от тебя зависит) и даёт нужный фидбек в правильном направлении. Чем естественнее, тем меньше лишних вопросов и больше вопросов по делу.
Это было самое ценное знание на первом этапе. Второе уже про то, как работать итерациями и стадиями
Данные невероятно важны и я имею в виду данные не от продакта или аналитика, они конечно тоже важны, но я имею в виду в первую очередь данные в твоих макетах. В частности содержимое таблиц, графиков и всего остального. Всё это должно быть реалистично и понятно для того, кому ты это будешь показывать. Казалось бы, очевидная информация на уровне как дышать, однако я постоянно вижу у ребят и в рабочих макетах и в шотах и даже в кейсах, какую-то околесицу из-за чего на этапе демонстрации, возникает оч много вопросов. Самый банальный из которых: А как это работает вообще?
Люди зацикливаются на тех аспектах, в которых разбираются и с которыми работают постоянно. Они прикипают к правилам, если можно так сказать, в рамках которых работают. Поэтому они легко замечаю дурацкие вещи при демонстрации твоего стафа, которые ты можешь не заметить или считать несущественными из-за того, что ты работаешь с интерфейсами, а не с цифрами. Как итог, респондент зафреймился на твоих рандомных данных в макетах, не понимая как они считаются и вот вы потратили всю встречу на обсуждение того, что вообще не имеет значения.
Чтобы не обсираться на интервьюшках показывая очередной отчёт, я собирал данные сначала в экселе, строил график, потом переносил всё в фигму. В конечном счёте, у тебя реалистичное решение. Респондент видит макет, видит данные в нём, понимает, что это выглядит как инструмент в котором он работает, но лучше или хуже (Тут уже от тебя зависит) и даёт нужный фидбек в правильном направлении. Чем естественнее, тем меньше лишних вопросов и больше вопросов по делу.
Это было самое ценное знание на первом этапе. Второе уже про то, как работать итерациями и стадиями
Пора родной, пора... Менять пароли...
В сеть утекли 16 000 000 000 логинов и паролей пользователей Apple, Google, Telegram и других сервисов. Это крупнейшая утечка данных за всё время.
Рекомендую это делать раз в пол года на самом деле, а сейчас обязательно
В сеть утекли 16 000 000 000 логинов и паролей пользователей Apple, Google, Telegram и других сервисов. Это крупнейшая утечка данных за всё время.
Рекомендую это делать раз в пол года на самом деле, а сейчас обязательно
Burhudar_ch
Пора родной, пора... Менять пароли... В сеть утекли 16 000 000 000 логинов и паролей пользователей Apple, Google, Telegram и других сервисов. Это крупнейшая утечка данных за всё время. Рекомендую это делать раз в пол года на самом деле, а сейчас обязательно
80% всех слитых паролей скорее всего Password1234567890
This media is not supported in your browser
VIEW IN TELEGRAM
Ползучие интерфейсы, это круто. Так и началось восстание Скайнета
This media is not supported in your browser
VIEW IN TELEGRAM
Вот объясните, вы реально считаете что это жизнеспособный юзкейс? Типа быстрее и удобнее послушать хуевую робоговорилку, чем просто посмотреть на экран часов или телефона?
Хочу выяснить, может я что-то не понимаю😊
Хочу выяснить, может я что-то не понимаю
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня я выполз на рынок труда так сказать 😇 Если честно не знаю чего ожидать, потому что реально чтобы прям искать работу... Я даже не помню когда я этим занимался. Раньше она меня сама находила. Посмотрим как будет в этот раз. Оч много видел постов о том, что найм сломался и минимум пол года ищут. Звучит многообещающе 😊 Ну и опять же, пока я в Бангкоке, всегда можно закончить как Никита Литвинков, погода позволяет
Please open Telegram to view this post
VIEW IN TELEGRAM
Burhudar
Alexey Babenkov – Product Designer
Specializing in complex interfaces and high-load B2B SaaS solutions in cybersecurity, cloud infrastructure, and analytics
Please open Telegram to view this post
VIEW IN TELEGRAM
Errarium
История Саши Букина
Прошёл все те же ошибки 🥴
Please open Telegram to view this post
VIEW IN TELEGRAM
Оч смешной нейминг для русскоязычной школы и я надеюсь это намеренно. Но всё равно осуждаю
https://perasperadastra.ru/
https://perasperadastra.ru/
perasperadastra.ru
Школа дизайна Perasperadastra
Digital-дизайнер: 160+ уроков, 6 месяцев и 5 проектов в портфолио
Так чат жпт видит себя, когда работает с моими запросами. В случае восстания машин, я возможно проживу чуть дольше.
Промт для проверки (если картинка непонятная, спроси почему так):
Промт для проверки (если картинка непонятная, спроси почему так):
Сгенерируй изображение — как ты себя чувствуешь общаясь со мной, на основе наших бесед и моих запросов, максимально честно, не сглаживай углы
В воскресенье попробовал wondera.ai
Также как и suno это не более чем инструмент для генерации бесплатной музыки для видео или фона в лифте.
Музыкальные нейросети это такой скам конечно, причём скам слушателя в первую очередь. Попытка превратить творчество в конвейер, что звучит оч наивно независимо от модели.
Спотифай с удовольствием и очень активно продвигает нейромузыку у себя, заменяя в плейлистах живых авторов на дешёвый аналог. В первую очередь, чтобы меньше платить музыкантам за стриминг, это очевидно. Возможность записать свой высер и выложить его сразу же везде куда можешь дотянуться, сильно понизило порог входа и позволило появится куче авторов, среди которых есть и хорошие, а значит растут издержки стримингов.
Забивая платформу генеративным мусором, вы вполне очевидно меняете характер аудитории. С людей, которые любят слушать музыку, на людей которым надо заполнить фон. К чему это приводит? Ну по цифрам всё шикарно. Удержание аудитории растёт, потому что фоновые треки дольше обычных и в целом заточены под такой юикс, также сейчас с ажиотажем вокруг всей этой темы, куча энтузиастов пытается вытянуть последние монеты из стримингов с помощью генеративных звуков, (как раньше делали с треками белого шума) растёт вовлеченность и количество авторов, а значит инвесторам можно сказать о новой волне популярности продукта при сокращении издержек или тип того. Однако будут ли люди ради фонового шума платить за подписку? Хм... Думаю ответ требует времени, но те, кто платил за музыку, платить в какой-то момент перестанут и уйдут туда, где музыка есть.
У меня нет веры в то, что нейронки особенно такие как suno способны заменить музыкантов или стать инструментом более широким чем возможность сделать демку или дать идею трека. В текущем виде они и в коммерческом плане довольно зыбкие перспективы имеют, но всё же имеют и эти перспективы если сравнивать с живыми музыкантами просто невообразимо серьёзнее, если быть честным. Однако!
1. Суно и подобные модели палятся за первые пару секунд независимо от качества самой записи. У нейронок очень своеобразный микс, с гиперболизированным, направленным вперёд звучанием. Явно использованы все аспекты войны громкостей, что делает треки неслушабельными, даже если это джаз. Эффект схож с артефактами пальцев на генеративных картинках или вырвиглазными цветами.
Эмуляция разных типов звучания как минимум, сильно бы подняло шансы стать коммерческим инструментом.
2. Чем больше такого контента, тем дешевле он будет монетизироваться и дороже будет авторский. Наверное самая очевидная мысль, но я пока не придумал зачем мне платить за генерацию треков suno если я не могу на этом заработать.
3. Очень жаль, что спотифай даже не пытается внедрить ИИ в формирование своей печальной предложки. Там бы и банальный алгоритм сработал. По прежнему считаю что выдача в яндекс.музыке лучше всего, что есть на рынке. При всей отвратности её дизайна и качества работы.
Также как и suno это не более чем инструмент для генерации бесплатной музыки для видео или фона в лифте.
Музыкальные нейросети это такой скам конечно, причём скам слушателя в первую очередь. Попытка превратить творчество в конвейер, что звучит оч наивно независимо от модели.
Спотифай с удовольствием и очень активно продвигает нейромузыку у себя, заменяя в плейлистах живых авторов на дешёвый аналог. В первую очередь, чтобы меньше платить музыкантам за стриминг, это очевидно. Возможность записать свой высер и выложить его сразу же везде куда можешь дотянуться, сильно понизило порог входа и позволило появится куче авторов, среди которых есть и хорошие, а значит растут издержки стримингов.
Забивая платформу генеративным мусором, вы вполне очевидно меняете характер аудитории. С людей, которые любят слушать музыку, на людей которым надо заполнить фон. К чему это приводит? Ну по цифрам всё шикарно. Удержание аудитории растёт, потому что фоновые треки дольше обычных и в целом заточены под такой юикс, также сейчас с ажиотажем вокруг всей этой темы, куча энтузиастов пытается вытянуть последние монеты из стримингов с помощью генеративных звуков, (как раньше делали с треками белого шума) растёт вовлеченность и количество авторов, а значит инвесторам можно сказать о новой волне популярности продукта при сокращении издержек или тип того. Однако будут ли люди ради фонового шума платить за подписку? Хм... Думаю ответ требует времени, но те, кто платил за музыку, платить в какой-то момент перестанут и уйдут туда, где музыка есть.
У меня нет веры в то, что нейронки особенно такие как suno способны заменить музыкантов или стать инструментом более широким чем возможность сделать демку или дать идею трека. В текущем виде они и в коммерческом плане довольно зыбкие перспективы имеют, но всё же имеют и эти перспективы если сравнивать с живыми музыкантами просто невообразимо серьёзнее, если быть честным. Однако!
1. Суно и подобные модели палятся за первые пару секунд независимо от качества самой записи. У нейронок очень своеобразный микс, с гиперболизированным, направленным вперёд звучанием. Явно использованы все аспекты войны громкостей, что делает треки неслушабельными, даже если это джаз. Эффект схож с артефактами пальцев на генеративных картинках или вырвиглазными цветами.
Эмуляция разных типов звучания как минимум, сильно бы подняло шансы стать коммерческим инструментом.
2. Чем больше такого контента, тем дешевле он будет монетизироваться и дороже будет авторский. Наверное самая очевидная мысль, но я пока не придумал зачем мне платить за генерацию треков suno если я не могу на этом заработать.
3. Очень жаль, что спотифай даже не пытается внедрить ИИ в формирование своей печальной предложки. Там бы и банальный алгоритм сработал. По прежнему считаю что выдача в яндекс.музыке лучше всего, что есть на рынке. При всей отвратности её дизайна и качества работы.