Гуд монинг!
Hedra + Eleven Labs (теперь говорит по русски)
Hedra + ChatGPT Advanced Voice Mode
#КриповаяСуббота
Сергей Булаев AI 🤖 - об AI и не только
Hedra + Eleven Labs (теперь говорит по русски)
Hedra + ChatGPT Advanced Voice Mode
#КриповаяСуббота
Сергей Булаев AI 🤖 - об AI и не только
Forwarded from Сергей Булаев 😎🐊🦩
Собрал подборочку цитат из интервью:
Cool things are attractive
You need to loose control and things will happen
Control freaks get bad trips
You need discipline to keep doing it
Start asking for money from very beginning (ask for at least $30)
You can just email companies and just say: Can you give me discount cause just too expensive and they say: “Sure, 50%”
Man, I love cronjobs
About valuations: 3 years is nothing. I can wait.
I woke up 2 pm because I was coding. I was finding some new AI shit. I was studying it. And it was amazing and I can’t sleep because it’s too important.
I am still shower you know
The more I think the more I am filtering myself
I’ve met so many weirdos while travelling. That’s how travel works, if you really let loose you meat the craziest people. And the most interesting people.
Lex Friedman: Sometime I just feel dumber after I’ve used TikTok
Сергей Булаев 🏝️ - о жизни на острове и вдохновляющих люди
Cool things are attractive
You need to loose control and things will happen
Control freaks get bad trips
You need discipline to keep doing it
Start asking for money from very beginning (ask for at least $30)
You can just email companies and just say: Can you give me discount cause just too expensive and they say: “Sure, 50%”
Man, I love cronjobs
About valuations: 3 years is nothing. I can wait.
I woke up 2 pm because I was coding. I was finding some new AI shit. I was studying it. And it was amazing and I can’t sleep because it’s too important.
I am still shower you know
The more I think the more I am filtering myself
I’ve met so many weirdos while travelling. That’s how travel works, if you really let loose you meat the craziest people. And the most interesting people.
Lex Friedman: Sometime I just feel dumber after I’ve used TikTok
Сергей Булаев 🏝️ - о жизни на острове и вдохновляющих люди
26 11 8
Андрей Карпаты (Andrej Karpathy) 🧠
#ИИНЦИКЛОПЕДИЯ
Выдающийся исследователь в области искусственного интеллекта, один из основателей OpenAI, бывший директор Tesla по ИИ и автор концепции Software 2.0, которая переопределила наше понимание разработки программного обеспечения.
Родился в 1986 году в Братиславе (Чехословакия), в 15 лет переехал в Канаду. Получил докторскую степень в Стэнфорде под руководством Фей-Фей Ли с диссертацией "Connecting Images and Natural Language". В 2015 году стал одним из основателей OpenAI, в 2017 перешёл в Tesla, где руководил командой компьютерного зрения для автопилота, а в 2023 ненадолго вернулся в OpenAI для работы над GPT-4. В 2024 основал Eureka Labs — образовательную платформу, сфокусированную на обучении работе с языковыми моделями.
Почему это важно
Карпаты находится на переднем крае технологической революции, связывая академические исследования с практическим применением. Его работы по компьютерному зрению и языковым моделям легли в основу современных систем автопилота и ИИ-ассистентов. Кроме того, его образовательные материалы и выступления сделали сложные концепции ИИ доступными для миллионов людей по всему миру.
Тематика:
Применение на практике
В Tesla Карпаты возглавлял команду, разрабатывающую системы компьютерного зрения для автопилота, которые сегодня используются в миллионах автомобилей. В OpenAI он участвовал в создании GPT-моделей, которые революционизировали обработку естественного языка. Его концепция Software 2.0 стала основой для множества современных подходов к разработке ИИ-систем, где инженеры больше фокусируются на данных и архитектуре, чем на написании явных алгоритмов.
Я очень люблю его обучающие материалы — особенно видео, где он с нуля показывает, как построить языковую модель. Оно клёво структурированное и позволяет понять, как работает GPT изнутри. Даже если вы никогда не писали код на Python, после этого видео многие вещи станут гораздо яснее.
Подводные камни
Несмотря на значительный вклад в демократизацию знаний об ИИ, работа Карпаты также служит примером того, насколько быстро развивается эта область. Многие концепции, которые он разрабатывал всего несколько лет назад, уже считаются базовыми, а технологии продвинулись намного дальше. Это подчёркивает необходимость постоянного обучения для всех, кто занимается ИИ.
Интересное:
- Построение токенизатора GPT
- Создание GPT с нуля (мне очень понравилось)
- Давайте воспроизведём GPT-2
- Эксперимент по генерации видео с контентом
X, GitHub, Личный сайт.
Сергей Булаев AI 🤖
#ИИНЦИКЛОПЕДИЯ
Выдающийся исследователь в области искусственного интеллекта, один из основателей OpenAI, бывший директор Tesla по ИИ и автор концепции Software 2.0, которая переопределила наше понимание разработки программного обеспечения.
Родился в 1986 году в Братиславе (Чехословакия), в 15 лет переехал в Канаду. Получил докторскую степень в Стэнфорде под руководством Фей-Фей Ли с диссертацией "Connecting Images and Natural Language". В 2015 году стал одним из основателей OpenAI, в 2017 перешёл в Tesla, где руководил командой компьютерного зрения для автопилота, а в 2023 ненадолго вернулся в OpenAI для работы над GPT-4. В 2024 основал Eureka Labs — образовательную платформу, сфокусированную на обучении работе с языковыми моделями.
Почему это важно
Карпаты находится на переднем крае технологической революции, связывая академические исследования с практическим применением. Его работы по компьютерному зрению и языковым моделям легли в основу современных систем автопилота и ИИ-ассистентов. Кроме того, его образовательные материалы и выступления сделали сложные концепции ИИ доступными для миллионов людей по всему миру.
Тематика:
- Software 2.0 — предложенная им концепция, описывающая переход от традиционного программирования к системам, где код "пишется" с помощью данных и нейросетей
- CS231n — разработанный им курс по свёрточным нейронным сетям в Стэнфорде, ставший одним из самых популярных учебных материалов по глубокому обучению
- Образовательная деятельность — его YouTube-лекции, блог и видеоуроки помогли тысячам разработчиков освоить нейросети
- Практический опыт — успешно применял глубокое обучение в индустриальных масштабах в Tesla и OpenAI
Применение на практике
В Tesla Карпаты возглавлял команду, разрабатывающую системы компьютерного зрения для автопилота, которые сегодня используются в миллионах автомобилей. В OpenAI он участвовал в создании GPT-моделей, которые революционизировали обработку естественного языка. Его концепция Software 2.0 стала основой для множества современных подходов к разработке ИИ-систем, где инженеры больше фокусируются на данных и архитектуре, чем на написании явных алгоритмов.
Я очень люблю его обучающие материалы — особенно видео, где он с нуля показывает, как построить языковую модель. Оно клёво структурированное и позволяет понять, как работает GPT изнутри. Даже если вы никогда не писали код на Python, после этого видео многие вещи станут гораздо яснее.
Подводные камни
Несмотря на значительный вклад в демократизацию знаний об ИИ, работа Карпаты также служит примером того, насколько быстро развивается эта область. Многие концепции, которые он разрабатывал всего несколько лет назад, уже считаются базовыми, а технологии продвинулись намного дальше. Это подчёркивает необходимость постоянного обучения для всех, кто занимается ИИ.
Интересное:
- Построение токенизатора GPT
- Создание GPT с нуля (мне очень понравилось)
- Давайте воспроизведём GPT-2
- Эксперимент по генерации видео с контентом
X, GitHub, Личный сайт.
Сергей Булаев AI 🤖
Думаю, не все знают, что такое коммиты, но те, кому они важны, - точно знают. Это такое сохранение текущего состояния проекта во время разработки для того, чтобы иметь возможность всегда к нему вернуться, если что-то пойдет не так.
Не будучи профессиональным программистом, я не знаю, как часто их надо делать. Я стараюсь делать каждый раз, как очередная функция заработала (иногда даже частично). Но очень часто забываю.
В процессе работы с Cursor Composer дела могут пойти не так в любой момент, и коммиты становятся ещё важнее. Андрей Карпаты уже третий день работает с Cursor и, видимо, тоже задумался об этой проблеме.
В итоге он написал простую функцию gcm (git commit -m), которая, используя программу командного доступа к LLM, llm (кстати, сам по себе очень крутой инструмент), генерит комментарии к коммитам на основе разницы между старым и новым кодом. Изящное, простое, полезное решение.
Нужно просто установить llm, использовать ключ от OpenAI или же одну из моделей, которые смогут работать на вашем компе, и добавить в ваш .bashrc (или .zshrc) исходный код команды. Я всё сделал, работает супер.
Добавил ещё себе туда же:
и теперь каждый раз пишу save для сохранения.
Сергей Булаев AI 🤖 - об AI и не только
Не будучи профессиональным программистом, я не знаю, как часто их надо делать. Я стараюсь делать каждый раз, как очередная функция заработала (иногда даже частично). Но очень часто забываю.
В процессе работы с Cursor Composer дела могут пойти не так в любой момент, и коммиты становятся ещё важнее. Андрей Карпаты уже третий день работает с Cursor и, видимо, тоже задумался об этой проблеме.
В итоге он написал простую функцию gcm (git commit -m), которая, используя программу командного доступа к LLM, llm (кстати, сам по себе очень крутой инструмент), генерит комментарии к коммитам на основе разницы между старым и новым кодом. Изящное, простое, полезное решение.
Нужно просто установить llm, использовать ключ от OpenAI или же одну из моделей, которые смогут работать на вашем компе, и добавить в ваш .bashrc (или .zshrc) исходный код команды. Я всё сделал, работает супер.
Добавил ещё себе туда же:
alias save="git add . && gcm && git push"
и теперь каждый раз пишу save для сохранения.
Сергей Булаев AI 🤖 - об AI и не только
В Information вышла новая статья про Q* (Q star), я полностью её не видел, но видел скриншоты кусков, твиты о ней и вот есть статья на Decoder про статью.
Основные моменты:
Согласно информации, из этой статьи, со ссылкой на двух человек, участвующих в проекте, OpenAI может выпустить чат-бот версию Strawberry уже этой осенью, возможно, в составе ChatGPT.
Q* (Strawberry) может решать сложные математические задачи, с которыми не справляются современные LLM. В ходе внутренних демонстраций Q* успешно решил популярную головоломку "Connections" от New York Times, что подчеркивает его мощные аналитические и языковые способности. Модель способна не только генерировать контент, но и выполнять сложные действия, требующие продуманных решений. Кроме того, Q* может обрабатывать вопросы, связанные с субъективными темами, такими как маркетинговые стратегии продуктов, и давать точные ответы после дополнительного анализа.
Reuters ранее сообщало, что OpenAI уже тестировала AI, который набрал более 90 процентов на MATH benchmark (коллекция задач по математическому мастерству).
Основной причиной, по которой Q* еще не был выпущен, вероятно, является огромная вычислительная мощность, необходимая для его работы. Это давно обсуждается, и Сэм Альтман был недоволен этим, так как Q* был бы излишне мощным для повседневного использования. OpenAI планирует поднимать ещё денег ради решения этой проблемы.
Вокруг Q* было много опасений. Сотрудники OpenAI написали письмо в Reuters, предупреждая о серьезных рисках, связанных с новой технологией. Это подтверждает, что шутка о том, что Илья Суцкевер "увидел что-то пугающее", может иметь под собой реальную основу.
Q* уже был представлен американским властям. Есть предположения, что был сделан сознательный выбор не объявлять о проекте публично до окончания выборов по соображениям безопасности.
Основные разработчики Q* — Якуб Пачоцки и Шимон Сидор — построили модель на основе исследований Ильи Суцкевера, бывшего главного научного сотрудника OpenAI. Пачоцки, благодаря своему вкладу в разработку Q*, стал непосредственным преемником Суцкевера
Подход Q* напоминает метод "Self-Taught Reasoner" (STaR), предложенный исследователями Стэнфордского университета. Он направлен на улучшение способностей ИИ к рассуждению, что позволяет моделям учиться на собственных выводах и улучшать их точность без необходимости в обширном наборе внешних данных. Такой подход существенно повышает гибкость и автономность ИИ.
Долгое время Q* воспринимался как миф, но теперь очевидно, что он существует и уже используется для создания синтетических данных для обучения будущих моделей, таких как "Orion" .
Проект "Orion" является флагманской языковой моделью OpenAI, которая должна превзойти GPT-4. Q*, играет ключевую роль в этом проекте, генерируя высококачественные синтетические данные для его обучения. Эта комбинация может значительно снизить количество галлюцинаций и повысить общую производительность модели Orion.
Сергей Булаев AI 🤖 - об AI и не только
Основные моменты:
Согласно информации, из этой статьи, со ссылкой на двух человек, участвующих в проекте, OpenAI может выпустить чат-бот версию Strawberry уже этой осенью, возможно, в составе ChatGPT.
Q* (Strawberry) может решать сложные математические задачи, с которыми не справляются современные LLM. В ходе внутренних демонстраций Q* успешно решил популярную головоломку "Connections" от New York Times, что подчеркивает его мощные аналитические и языковые способности. Модель способна не только генерировать контент, но и выполнять сложные действия, требующие продуманных решений. Кроме того, Q* может обрабатывать вопросы, связанные с субъективными темами, такими как маркетинговые стратегии продуктов, и давать точные ответы после дополнительного анализа.
Reuters ранее сообщало, что OpenAI уже тестировала AI, который набрал более 90 процентов на MATH benchmark (коллекция задач по математическому мастерству).
Основной причиной, по которой Q* еще не был выпущен, вероятно, является огромная вычислительная мощность, необходимая для его работы. Это давно обсуждается, и Сэм Альтман был недоволен этим, так как Q* был бы излишне мощным для повседневного использования. OpenAI планирует поднимать ещё денег ради решения этой проблемы.
Вокруг Q* было много опасений. Сотрудники OpenAI написали письмо в Reuters, предупреждая о серьезных рисках, связанных с новой технологией. Это подтверждает, что шутка о том, что Илья Суцкевер "увидел что-то пугающее", может иметь под собой реальную основу.
Q* уже был представлен американским властям. Есть предположения, что был сделан сознательный выбор не объявлять о проекте публично до окончания выборов по соображениям безопасности.
Основные разработчики Q* — Якуб Пачоцки и Шимон Сидор — построили модель на основе исследований Ильи Суцкевера, бывшего главного научного сотрудника OpenAI. Пачоцки, благодаря своему вкладу в разработку Q*, стал непосредственным преемником Суцкевера
Подход Q* напоминает метод "Self-Taught Reasoner" (STaR), предложенный исследователями Стэнфордского университета. Он направлен на улучшение способностей ИИ к рассуждению, что позволяет моделям учиться на собственных выводах и улучшать их точность без необходимости в обширном наборе внешних данных. Такой подход существенно повышает гибкость и автономность ИИ.
Долгое время Q* воспринимался как миф, но теперь очевидно, что он существует и уже используется для создания синтетических данных для обучения будущих моделей, таких как "Orion" .
Проект "Orion" является флагманской языковой моделью OpenAI, которая должна превзойти GPT-4. Q*, играет ключевую роль в этом проекте, генерируя высококачественные синтетические данные для его обучения. Эта комбинация может значительно снизить количество галлюцинаций и повысить общую производительность модели Orion.
Сергей Булаев AI 🤖 - об AI и не только
The Information
OpenAI Shows ‘Strawberry’ AI to the Feds and Uses It to Develop ‘Orion’
In case you were wondering why Sam Altman cryptically posted a picture of strawberries earlier this month, the answer almost certainly has to do with Strawberry, a mysterious technical breakthrough that could help OpenAI’s models complete complex tasks such…
14 19 8 2
This media is not supported in your browser
VIEW IN TELEGRAM
Подробный рассказ о создании простого Mac приложения с нуля при помощи моего любимого Cursor Composer.
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В догонку ещё примеры работы с курсором.
- Курсор работает по todo списку
- Создание Chrome плагина
- Создание игры
- Figma плагин
- Создание приложения для телефона (ну весьма образно)
- Пара лайфхаков по оптимизации работы с ним
Сергей Булаев AI 🤖 - об AI и не только
- Курсор работает по todo списку
- Создание Chrome плагина
- Создание игры
- Figma плагин
- Создание приложения для телефона (ну весьма образно)
- Пара лайфхаков по оптимизации работы с ним
Сергей Булаев AI 🤖 - об AI и не только
15 августа я написал, что придумал нового бота и завтра покажу. Прошло ровно две недели. За это время я дважды съездил на Пхукет, слетал в Бангкок, ко мне приехали сначала одни друзья, потом другие. Каждый день я что-то делал по этому проекту. Понимал что рано показывать.
Думаю, теперь я готов (хотя показывать всё ещё особо нечего). Это даже нельзя назвать MVP, это скорее скелет будущего продукта. Первые инструменты.
Наша личность во многом состоит из воспоминаний, которые со временем превращаются в опыт, как-то влияющий на нас и изменяющий нас. Я очень хочу создать некую базу своих воспоминаний. Понимаю, что записать все воспоминания невозможно. Но если не записывать ничего, то точно ничего не получится 🙂
Цель: создать помощника для своей памяти, которая, безусловно, будет слабеть с годами (неизвестно ещё с какой скоростью), и который так или иначе будет помогать мне вспоминать важные для меня вещи.
Я много думал об этом и понял ещё один очевидный момент — чем больше воспоминаний удастся записать, тем лучше LLM сможет имитировать личность человека. Например, для написания текста от его лица. Ведь что такое текст — это информация, полученная из какого-то источника, пропущенная через призму собственного опыта.
Дальше я вспомнил, что у меня как минимум есть свои телеграм-каналы, посты из которых можно превращать в воспоминания. Поэтому я решил написать очередного бота.
Причём просто записывать воспоминания неинтересно. Интересно сразу как-то с ними работать, поэтому бота сразу два:
Сохранитель
- Запоминает всё, что вы ему пришлёте: текстовые сообщения, вложения, картинки, аудио.
- Может записывать сообщения из телеграм-каналов, в которые вы его добавите.
- Транскрибирует аудиосообщения в текст.
- Переводит тексты в векторы (embeddings) и сохраняет их в векторную базу данных.
- Уже умеет также превращать картинки в текст, но пока этот текст не векторизирует.
Отвечатель
- Выбираете, с информацией из какого канала работаете.
- Пишете ему любой вопрос или просто предложение.
- Он преобразует это в векторы.
- Выбирает 5 наиболее близких воспоминаний.
- Отправляет всё это LLM-модели.
- Присылает вам ответ.
Есть простая админ-панель. Она позволяет удалять/редактировать все записанные воспоминания. Всем этим может пользоваться любой подписчик моего канала. Есть небольшие ограничения, чтобы я внезапно не разорился, но вряд ли вы в них упрётесь.
Как я это буду использовать?
Добавил бота ко всем своим публичным каналам, и процесс сохранения информации начался. Кроме того, у меня есть два приватных канала только для себя, куда я пишу важные для меня заметки. Также создал аналог Saved Messages, но с доп возможностями — туда шлю всё новое, что хочу, чтобы бот запомнил (например, ссылки на статьи и файлы, хотя они ещё не парсятся).
Пока смогу просто искать по этой информации и получать ответы на её основе. Просто хотелось поскорее начать копить данные.
Планы примерно такие:
- Скачивание статей для векторизации, парсинг файлов.
- Аналог человеческого сна — некая систематизация впечатлений за день, формирование воспоминаний на основе новой информации, векторизация воспоминаний.
- Группирование информации с помощью LLM.
- Поиск старых воспоминаний, связанных с новыми (как работает память).
- Случайные воспоминания и напоминания - флэшбэки!
Кроме того, придумано практическое использование для авторов каналов:
- Возможность собрать информацию по теме, высказать мнение, а бот свяжет это с прошлыми воспоминаниями и напишет пост на основе всего этого.
- Дать ему пост, а он найдёт в нём якоря, которые можно залинковать на старые посты.
На самом деле можно придумать ещё много применений. Главное — начать копить информацию. Что думаете?
P.S. Если что, я в курсе, что существуют Obsidian, Roam, Notion, Evernote, Apple Notes и т.д. Я пробовал их все, и некоторые из них даже использую. Но память, как мне кажется, работает немного по-другому.
Сергей Булаев AI 🤖 - об AI и не только
Думаю, теперь я готов (хотя показывать всё ещё особо нечего). Это даже нельзя назвать MVP, это скорее скелет будущего продукта. Первые инструменты.
Наша личность во многом состоит из воспоминаний, которые со временем превращаются в опыт, как-то влияющий на нас и изменяющий нас. Я очень хочу создать некую базу своих воспоминаний. Понимаю, что записать все воспоминания невозможно. Но если не записывать ничего, то точно ничего не получится 🙂
Цель: создать помощника для своей памяти, которая, безусловно, будет слабеть с годами (неизвестно ещё с какой скоростью), и который так или иначе будет помогать мне вспоминать важные для меня вещи.
Я много думал об этом и понял ещё один очевидный момент — чем больше воспоминаний удастся записать, тем лучше LLM сможет имитировать личность человека. Например, для написания текста от его лица. Ведь что такое текст — это информация, полученная из какого-то источника, пропущенная через призму собственного опыта.
Дальше я вспомнил, что у меня как минимум есть свои телеграм-каналы, посты из которых можно превращать в воспоминания. Поэтому я решил написать очередного бота.
Причём просто записывать воспоминания неинтересно. Интересно сразу как-то с ними работать, поэтому бота сразу два:
Сохранитель
- Запоминает всё, что вы ему пришлёте: текстовые сообщения, вложения, картинки, аудио.
- Может записывать сообщения из телеграм-каналов, в которые вы его добавите.
- Транскрибирует аудиосообщения в текст.
- Переводит тексты в векторы (embeddings) и сохраняет их в векторную базу данных.
- Уже умеет также превращать картинки в текст, но пока этот текст не векторизирует.
Отвечатель
- Выбираете, с информацией из какого канала работаете.
- Пишете ему любой вопрос или просто предложение.
- Он преобразует это в векторы.
- Выбирает 5 наиболее близких воспоминаний.
- Отправляет всё это LLM-модели.
- Присылает вам ответ.
Есть простая админ-панель. Она позволяет удалять/редактировать все записанные воспоминания. Всем этим может пользоваться любой подписчик моего канала. Есть небольшие ограничения, чтобы я внезапно не разорился, но вряд ли вы в них упрётесь.
Как я это буду использовать?
Добавил бота ко всем своим публичным каналам, и процесс сохранения информации начался. Кроме того, у меня есть два приватных канала только для себя, куда я пишу важные для меня заметки. Также создал аналог Saved Messages, но с доп возможностями — туда шлю всё новое, что хочу, чтобы бот запомнил (например, ссылки на статьи и файлы, хотя они ещё не парсятся).
Пока смогу просто искать по этой информации и получать ответы на её основе. Просто хотелось поскорее начать копить данные.
Планы примерно такие:
- Скачивание статей для векторизации, парсинг файлов.
- Аналог человеческого сна — некая систематизация впечатлений за день, формирование воспоминаний на основе новой информации, векторизация воспоминаний.
- Группирование информации с помощью LLM.
- Поиск старых воспоминаний, связанных с новыми (как работает память).
- Случайные воспоминания и напоминания - флэшбэки!
Кроме того, придумано практическое использование для авторов каналов:
- Возможность собрать информацию по теме, высказать мнение, а бот свяжет это с прошлыми воспоминаниями и напишет пост на основе всего этого.
- Дать ему пост, а он найдёт в нём якоря, которые можно залинковать на старые посты.
На самом деле можно придумать ещё много применений. Главное — начать копить информацию. Что думаете?
P.S. Если что, я в курсе, что существуют Obsidian, Roam, Notion, Evernote, Apple Notes и т.д. Я пробовал их все, и некоторые из них даже использую. Но память, как мне кажется, работает немного по-другому.
Сергей Булаев AI 🤖 - об AI и не только
28 44 16 6
Сын, который у меня по совместительству со школой - рисует, самостоятельно натренировал LoRA с целью превращения его эскизов в реальные комиксы, в стиле его любимой манхвы. Тут подробности. На 110 картинках как я понял. Удивительно на сколько это реально работает. Типа набросал драфт, получил готовую иллюстрацию.
Как вы наверное слышали, недельку назад основатель Procreate высказался против использования ИИ, я с ним категорически не согласен.
Хочу тоже попробовать натренировать свою. Особенно учитывая рассказы Питера (кто то кроме меня смотерел?). Вопрос на какую тему, думаю может почерк мой попробовать оцифровать?
#ЮзКейсыИИ
Сергей Булаев AI 🤖 - об AI и не только
Как вы наверное слышали, недельку назад основатель Procreate высказался против использования ИИ, я с ним категорически не согласен.
Хочу тоже попробовать натренировать свою. Особенно учитывая рассказы Питера (кто то кроме меня смотерел?). Вопрос на какую тему, думаю может почерк мой попробовать оцифровать?
#ЮзКейсыИИ
Сергей Булаев AI 🤖 - об AI и не только
В продолжение вчерашней темы разбирался сегодня с тренировкой LoRA. Создавал собственного персонажа - добермана с розовыми волосами по имени Добби.
Оказалось всё просто!
Тренировка заняла несколько минут. В сумме вышло где-то $2.5. Получилось, можно пользоваться (тоже там же)!
Примеры промптов:
dobbie and his wife family photo
dobbie with his pink hair wearing swimming pants with his wife in the beach club having fun photorealistic
dobbie drinking whisky at the bar
two dobbies with pink and silver hair walking on the Thai street with people around
P.S. Ну и учитывая фотореализм Flux понимаю что с виртуальным человеком будет работать гораздо лучше чем с виртуальной нереалистичной собакой.
#КриповаяСуббота
Сергей Булаев AI 🤖 - об AI и не только
6 Dobbies with different hairstyle and different jackets in diferent mood looking to different sides
Оказалось всё просто!
1. Генерим во
Flux серию фоток в одной картинке с помощью промпта вроде:
Grid of quirky photorealistic, doberman photos. It has pink silver hair and is wearing hipster clothes. 16 times square photos, grid of four by four of suares. per line and with each line expressions: neutral, very sad, smilng, roaring, barking, all photos from different angels around.
2. Апскейлим индексное фото. Мне больше всего понравилась fal-ai/creative-upscaler
3. Режем на части
4. Решил дополнительно проапскейлить каждое, для этого уже выбрал fal-ai/aura-sr (так понимаю можно не делать, но очень хотелось)
5. Тренируем LoRA прямо там же - я просто дал архив из 16 картинок и выбрал триггер для упоминания - dobbie.
Тренировка заняла несколько минут. В сумме вышло где-то $2.5. Получилось, можно пользоваться (тоже там же)!
Примеры промптов:
dobbie and his wife family photo
dobbie with his pink hair wearing swimming pants with his wife in the beach club having fun photorealistic
dobbie drinking whisky at the bar
two dobbies with pink and silver hair walking on the Thai street with people around
P.S. Ну и учитывая фотореализм Flux понимаю что с виртуальным человеком будет работать гораздо лучше чем с виртуальной нереалистичной собакой.
#КриповаяСуббота
Сергей Булаев AI 🤖 - об AI и не только
6 14 10 4