Я не знаю, было в новостях или нет, но Open AI тихо и без шума раскатал доступ к Deep Research через API.
Unlike ChatGPT where this process is abstracted away, the API provides direct programmatic access.
По ссылке дока, как управляться с запросами к:
o3-deep-research-2025-06-26: Optimized for in-depth synthesis and higher-quality output
o4-mini-deep-research-2025-06-26: Lightweight and faster, ideal for latency-sensitive use cases
https://cookbook.openai.com/examples/deep_research_api/introduction_to_deep_research_api
Unlike ChatGPT where this process is abstracted away, the API provides direct programmatic access.
По ссылке дока, как управляться с запросами к:
o3-deep-research-2025-06-26: Optimized for in-depth synthesis and higher-quality output
o4-mini-deep-research-2025-06-26: Lightweight and faster, ideal for latency-sensitive use cases
https://cookbook.openai.com/examples/deep_research_api/introduction_to_deep_research_api
Openai
Introduction to deep research in the OpenAI API | OpenAI Cookbook
The Deep Research API enables you to automate complex research workflows that require reasoning, planning, and synthesis across real-worl...
👍30🔥13❤9👎1😁1
Кто устал ломать глаза в ComfyUI, прикручивая Flux Kontext, - есть первые экстеншены для Forge + Kontext:
https://github.com/DenOfEquity/forge2_flux_kontext
@cgevent
https://github.com/DenOfEquity/forge2_flux_kontext
@cgevent
👍57🔥18😁4❤3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Играемся с CV
Зацените, что нашёл на выходные:
Вот вам пара небольших, несложных и практически бесполезных штуковин, в которые просто интересно поиграться.
Концепт интересный и, думаю, многим приходил в голову. Здесь у нас реалитайм-трекинг рук, который привязан к паре заранее записанных дорожек их параметрам. Всё работает на three.js, MediaPipe, HTML/CSS/JS. Подобных проектов там ещё 7. Кроме этого мне больше всех зашёл генератор шейдеров.
Для новичков вообще топ, гайды по сборке своей похожей CV-игрушки доступны за 10 баксов. Но, кажется, здесь и Gemini сравится, хотя от этого играть не менее интересно)
На видео, кстати, балуется с демкой co-founder Hugging Face.
линк
@ai_newz
Зацените, что нашёл на выходные:
Вот вам пара небольших, несложных и практически бесполезных штуковин, в которые просто интересно поиграться.
Концепт интересный и, думаю, многим приходил в голову. Здесь у нас реалитайм-трекинг рук, который привязан к паре заранее записанных дорожек их параметрам. Всё работает на three.js, MediaPipe, HTML/CSS/JS. Подобных проектов там ещё 7. Кроме этого мне больше всех зашёл генератор шейдеров.
Для новичков вообще топ, гайды по сборке своей похожей CV-игрушки доступны за 10 баксов. Но, кажется, здесь и Gemini сравится, хотя от этого играть не менее интересно)
На видео, кстати, балуется с демкой co-founder Hugging Face.
линк
@ai_newz
❤20👍10👎4😱2😁1
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
На сей раз от подписчика Владимира:
С чего всё началось:
Песня, несмотря на социально-философский посыл, показалась мне немного наивной и детской — и именно это определило форму. Я решил сделать клип в стилистике игрушечного мира, почти как лего-мультфильм.
«Пластмассовый мир победил» — буквально.
Это помогает иронично, но точно подчеркнуть саму идею трека.
🎯 Задача:
Создать визуальный сюжет, который развивается.
Клип — не просто эстетичная нарезка, а мини-фильм, где есть герой, конфликт, движение, и в последней трети — даже батальная сцена.
По времени заняло - много. Мне сложно подсчитать. Это несколько месяцев(было много еще дел). Но если брать плотную работу - пару недель точно наберется.
🔧 Инструменты:
Все изображения я генерировал в Midjourney, так же использовал Runway reference.
Видео начинал делать ещё в эпоху Rungen 3, на безлимитке.
Частично использовал Kling 1.6 и MiniMax.
Закончил проект уже в Rungen 4, Kling 2.1 и MiniMax 2.0 — за время работы всё обновилось. По бюджету сложно считать.
Но примерно
4 месяца безлимитки Runway -400 долларов
3 месяца Мidjourney -90 долларов
Минимакс – 60 долларов
Kling - 30 долларов
@cgevent
На сей раз от подписчика Владимира:
С чего всё началось:
Песня, несмотря на социально-философский посыл, показалась мне немного наивной и детской — и именно это определило форму. Я решил сделать клип в стилистике игрушечного мира, почти как лего-мультфильм.
«Пластмассовый мир победил» — буквально.
Это помогает иронично, но точно подчеркнуть саму идею трека.
🎯 Задача:
Создать визуальный сюжет, который развивается.
Клип — не просто эстетичная нарезка, а мини-фильм, где есть герой, конфликт, движение, и в последней трети — даже батальная сцена.
По времени заняло - много. Мне сложно подсчитать. Это несколько месяцев(было много еще дел). Но если брать плотную работу - пару недель точно наберется.
🔧 Инструменты:
Все изображения я генерировал в Midjourney, так же использовал Runway reference.
Видео начинал делать ещё в эпоху Rungen 3, на безлимитке.
Частично использовал Kling 1.6 и MiniMax.
Закончил проект уже в Rungen 4, Kling 2.1 и MiniMax 2.0 — за время работы всё обновилось. По бюджету сложно считать.
Но примерно
4 месяца безлимитки Runway -400 долларов
3 месяца Мidjourney -90 долларов
Минимакс – 60 долларов
Kling - 30 долларов
@cgevent
🔥52👎14👍10❤3
ByteDance бахнул XVerse, новую модель text2image, позволяющую управлять несколькими людьми и атрибутами в одном кадре.
Вы вводите промпт, а затем настраиваете личность, позу, стиль или освещение каждого объекта, не нарушая при этом остальную часть сцены.
Под капотом используется DiT flow modulation конвейер с учетом истории, чтобы каждое лицо и объект были согласованы даже в сложных многосубъектных макетах.
https://bytedance.github.io/XVerse/
@cgevent
Вы вводите промпт, а затем настраиваете личность, позу, стиль или освещение каждого объекта, не нарушая при этом остальную часть сцены.
Под капотом используется DiT flow modulation конвейер с учетом истории, чтобы каждое лицо и объект были согласованы даже в сложных многосубъектных макетах.
https://bytedance.github.io/XVerse/
@cgevent
🔥39👍7😱5❤2
Media is too big
VIEW IN TELEGRAM
Адобченко: Халява закончилась
Оказывается Адобченко тихой сапой прикрыл лавочку бесконечного использования своих нейроинструментов на подписке.
Еще точнее, система кредитов у них была, но использовалась она для "замедления", а не для прекращения работы:
"После того как определенное планом количество генеративных кредитов будет достигнуто, вы сможете продолжать использовать генеративные действия ИИ для создания векторной графики или изображений стандартного разрешения, но использование этих функций генеративного ИИ может быть медленнее", - заявила Adobe в июне 2024 года, отметив при этом, что генеративный ИИ в Photoshop и Lightroom никогда не будет ограничен.
Но теперь пользователи начали получать одноразовые уведомления в приложении об использовании генеративных кредитов, и они стали появляться у всех пользователей только на прошлой неделе. Технически Adobe начала применять генеративные кредиты в феврале, когда представила отдельные планы Firefly, но пользователи Photoshop только недавно начали получать уведомления об этом в самом приложении.
Придется докупать кредиты...
Подробнее тут:
https://helpx.adobe.com/creative-cloud/help/generative-credits-access-and-use.html
@cgevent
Оказывается Адобченко тихой сапой прикрыл лавочку бесконечного использования своих нейроинструментов на подписке.
Еще точнее, система кредитов у них была, но использовалась она для "замедления", а не для прекращения работы:
"После того как определенное планом количество генеративных кредитов будет достигнуто, вы сможете продолжать использовать генеративные действия ИИ для создания векторной графики или изображений стандартного разрешения, но использование этих функций генеративного ИИ может быть медленнее", - заявила Adobe в июне 2024 года, отметив при этом, что генеративный ИИ в Photoshop и Lightroom никогда не будет ограничен.
Но теперь пользователи начали получать одноразовые уведомления в приложении об использовании генеративных кредитов, и они стали появляться у всех пользователей только на прошлой неделе. Технически Adobe начала применять генеративные кредиты в феврале, когда представила отдельные планы Firefly, но пользователи Photoshop только недавно начали получать уведомления об этом в самом приложении.
Придется докупать кредиты...
Подробнее тут:
https://helpx.adobe.com/creative-cloud/help/generative-credits-access-and-use.html
@cgevent
👎64😁19😱11❤7👍3🙏1
ComfyUI OmniGen2 Native Workflow Examples
Не Flux Kontextoм единым.
Для тех гиков, кто сидит в Комфи и кто слышал про OmniGen2 - теперь есть нативная поддержка и примеры воркфлоу прямо на сайте Комфи.
Редиторы приподвзварчивают на качество, остается только самим тестировать.
https://docs.comfy.org/tutorials/image/omnigen/omnigen2
@cgevent
Не Flux Kontextoм единым.
Для тех гиков, кто сидит в Комфи и кто слышал про OmniGen2 - теперь есть нативная поддержка и примеры воркфлоу прямо на сайте Комфи.
Редиторы приподвзварчивают на качество, остается только самим тестировать.
https://docs.comfy.org/tutorials/image/omnigen/omnigen2
@cgevent
❤16👍9
Пока у нас небольшая передышка перед 4 июля (Маск обещает Grok 4, который уничтожит всех и вся, OpenAI объявил каникулы для сотрудников: у них сманили 4-8 ключевых сотрудников в Мету на фоне 80 часовой рабочей недели) позволю пару диванных постов.
Тут вот телеграмчик пестрит мемом про апендицит слева. А в коментах ниспровергатели ИИ частенько используют аргумент: "а вы будете доверять хирургу\летчику, которые использует chatGPT\ИИ?"
Ответ: да.
В медицине есть диагностика, а есть лечение.
Нейродед за свою жизнь получил немалое количество смертельных диагнозов, которые потом магическим образом превращались в несмертельные просто методом second opinion. Но вот эта вот способность раздавать ацкие диагнозы сильно повлияла на мое отношение к кожаным дохтурам. И если с лечением особых вопросов не было, то с диагностикой постоянно была игра в кальмара.
Это я к чему: в плане диагностики я бы сильно больше доверял доктору, который использует "гибридную модель". Ставит свои кожаные диагнозы, сравнивает их с диагнозами ИИ, не чурается вводить данные и спрашивать обобщенный или специализированный chatGPT. Короче, использует ИИ, как second opinion.
Ибо ум хорошо, а 1+N - лучше.
Так что можно и дальше пилить мемы, но я за гибридную модель.
Это же относится и к учителям.
@cgevent
Тут вот телеграмчик пестрит мемом про апендицит слева. А в коментах ниспровергатели ИИ частенько используют аргумент: "а вы будете доверять хирургу\летчику, которые использует chatGPT\ИИ?"
Ответ: да.
В медицине есть диагностика, а есть лечение.
Нейродед за свою жизнь получил немалое количество смертельных диагнозов, которые потом магическим образом превращались в несмертельные просто методом second opinion. Но вот эта вот способность раздавать ацкие диагнозы сильно повлияла на мое отношение к кожаным дохтурам. И если с лечением особых вопросов не было, то с диагностикой постоянно была игра в кальмара.
Это я к чему: в плане диагностики я бы сильно больше доверял доктору, который использует "гибридную модель". Ставит свои кожаные диагнозы, сравнивает их с диагнозами ИИ, не чурается вводить данные и спрашивать обобщенный или специализированный chatGPT. Короче, использует ИИ, как second opinion.
Ибо ум хорошо, а 1+N - лучше.
Так что можно и дальше пилить мемы, но я за гибридную модель.
Это же относится и к учителям.
@cgevent
1❤64👍57😁22🔥13👎2
Forwarded from Education Scaling Club (Alexander Laryanovskiy)
Если тебе предлагают пройти тренинг, а ты хочешь сбежать — тебе, блин, точно на него надо.
Возможно, ты просто ещё не дошёл до зеркала. А может стоишь к нему спиной. И думаешь, что никого там нет. А он там.
То есть я там.
Всё завертелось, когда я решил накормить нейросеть собственными текстами — и попросил диагноз — составить глубокий психологический портрет автора и рекомендуемые зоны ближайшего развития.
Шаг 1. Скачал архив заметок с Медиума, это было быстрее всего.
Шаг 2. Попросил раскопать, какая методология исследования личностных характеристик подходит для составления портрета на основании анализа текста.
На выходе получил рекомендации, что методики можно ограниченно использовать для понимания общих личностных тенденций и выявления зон развития.
Шаг 3. Попросил на основании выбранных методик составить глубокий психологический портрет автора статей, его сильные и слабые стороны.
Определить, что он скрывает от себя, предположить его мотивацию выявить, какие внутренние преграды мешают его развитию.
И вот эта болтливая Матрица выдала мне на 30 страниц (!) анализ с эволюцией мышления, паттернами поведения и личностными проявлениями.
Богатый урожай собрал, чо уж тут. Рассчитывал поржать, а получил очень глубокую рефлексию.
Я прочитал. Вздохнул. Признал: ну да, всё по делу. Глубоко, метко, местами даже обидно.
И в этот момент у меня возникло ложное ощущение завершённости.
Как будто часть мозга такая:
— Окей, я увидел. Этого достаточно. Пошли другими делами заниматься.
Взял себя в руки и заставил дойти путь до конца.
И тут всё сломалось.
Шаг 4. По рекомендациям зон роста попросил подготовить методики и литературу для самообучения, курсы и тд. В общем, кто виноват, я уже увидел, осталось понять что делать.
И вот тут… меня не зацепило вообще ничего. Как будто вместо списка рекомендаций нейросеть прислала мне каталог IKEA.
Никакого отклика.
Ну, думаю, бывает, промт кривой, отправил запрос в две другие нейросетки.
Результат тот же. Ни один пункт не вызвал у меня внутреннего отклика.
Вообще.
Мозг включил защиту. Типа: ну просто не моё. Я же вообще не про это. Пропущу.
Но три нейросети не могут одновременно ошибаться. И тут до меня дошло.
Когда ничего не резонирует — это не потому, что ты просветлён. Это и есть тот самый момент, когда тебе говорят, куда надо смотреть, а ты отвечаешь:
— Не, я туда не хочу.
Это самый тревожный маркер.
Потому что, брат, именно на этот тренинг тебе и надо — со скидкой по промокоду «Я-в-отрицании».
Ну, думаю, сейчас проверю.
Взял первую книжку из рекомендуемых. Про самосострадание.
Если бы я составлял себе список самых бесполезных книжек, эта была бы в топе только по одному названию. «Самосострадание шаг за шагом».
Шаг 5. Начал читать… И вот сидит сегодня Саша, который кричал:
— Это галлюцинации нейросетей, а не рекомендации, — и тихонько шуршит страничками под звуки ломающейся брони.
— Ну наконец-то, дружище. Мы тебя потеряли между контролем и сарказмом. Заходи, чувствуй себя как дома. Только туфли сними, здесь — эмоции.
.
.
.
.
И напоследок — несколько здравых оговорок, чтобы не делать из этого мистику.
Я хорошо знаю границы своей некомпетентности и поэтому лишь частично понимаю реальные ограничения данного метода и применимость результатов.
Понимаю, что публичные тексты и уклон в профессиональную тематику могут не отражать полную личность автора.
Тем не менее я думаю, что результат можно использовать для понимания общих личностных тенденций, выявления зон развития софт-скиллов и отправной точки для дальнейшего развития.
Чем я хуже Зощенко с его «Перед восходом солнца».
Постскриптум.
Если у вас со школы есть незакрытый гештальт на тему «что хотел сказать автор своим произведением на самом деле» — этот метод вполне может вам помочь ответить.
:-)
Возможно, ты просто ещё не дошёл до зеркала. А может стоишь к нему спиной. И думаешь, что никого там нет. А он там.
То есть я там.
Всё завертелось, когда я решил накормить нейросеть собственными текстами — и попросил диагноз — составить глубокий психологический портрет автора и рекомендуемые зоны ближайшего развития.
Шаг 1. Скачал архив заметок с Медиума, это было быстрее всего.
Шаг 2. Попросил раскопать, какая методология исследования личностных характеристик подходит для составления портрета на основании анализа текста.
На выходе получил рекомендации, что методики можно ограниченно использовать для понимания общих личностных тенденций и выявления зон развития.
Шаг 3. Попросил на основании выбранных методик составить глубокий психологический портрет автора статей, его сильные и слабые стороны.
Определить, что он скрывает от себя, предположить его мотивацию выявить, какие внутренние преграды мешают его развитию.
И вот эта болтливая Матрица выдала мне на 30 страниц (!) анализ с эволюцией мышления, паттернами поведения и личностными проявлениями.
Богатый урожай собрал, чо уж тут. Рассчитывал поржать, а получил очень глубокую рефлексию.
Я прочитал. Вздохнул. Признал: ну да, всё по делу. Глубоко, метко, местами даже обидно.
И в этот момент у меня возникло ложное ощущение завершённости.
Как будто часть мозга такая:
— Окей, я увидел. Этого достаточно. Пошли другими делами заниматься.
Взял себя в руки и заставил дойти путь до конца.
И тут всё сломалось.
Шаг 4. По рекомендациям зон роста попросил подготовить методики и литературу для самообучения, курсы и тд. В общем, кто виноват, я уже увидел, осталось понять что делать.
И вот тут… меня не зацепило вообще ничего. Как будто вместо списка рекомендаций нейросеть прислала мне каталог IKEA.
Никакого отклика.
Ну, думаю, бывает, промт кривой, отправил запрос в две другие нейросетки.
Результат тот же. Ни один пункт не вызвал у меня внутреннего отклика.
Вообще.
Мозг включил защиту. Типа: ну просто не моё. Я же вообще не про это. Пропущу.
Но три нейросети не могут одновременно ошибаться. И тут до меня дошло.
Когда ничего не резонирует — это не потому, что ты просветлён. Это и есть тот самый момент, когда тебе говорят, куда надо смотреть, а ты отвечаешь:
— Не, я туда не хочу.
Это самый тревожный маркер.
Потому что, брат, именно на этот тренинг тебе и надо — со скидкой по промокоду «Я-в-отрицании».
Ну, думаю, сейчас проверю.
Взял первую книжку из рекомендуемых. Про самосострадание.
Если бы я составлял себе список самых бесполезных книжек, эта была бы в топе только по одному названию. «Самосострадание шаг за шагом».
Шаг 5. Начал читать… И вот сидит сегодня Саша, который кричал:
— Это галлюцинации нейросетей, а не рекомендации, — и тихонько шуршит страничками под звуки ломающейся брони.
— Ну наконец-то, дружище. Мы тебя потеряли между контролем и сарказмом. Заходи, чувствуй себя как дома. Только туфли сними, здесь — эмоции.
.
.
.
.
И напоследок — несколько здравых оговорок, чтобы не делать из этого мистику.
Я хорошо знаю границы своей некомпетентности и поэтому лишь частично понимаю реальные ограничения данного метода и применимость результатов.
Понимаю, что публичные тексты и уклон в профессиональную тематику могут не отражать полную личность автора.
Тем не менее я думаю, что результат можно использовать для понимания общих личностных тенденций, выявления зон развития софт-скиллов и отправной точки для дальнейшего развития.
Чем я хуже Зощенко с его «Перед восходом солнца».
Постскриптум.
Если у вас со школы есть незакрытый гештальт на тему «что хотел сказать автор своим произведением на самом деле» — этот метод вполне может вам помочь ответить.
:-)
👍56❤22👎11🔥7😁4
Media is too big
VIEW IN TELEGRAM
Нейропрожарка
📽 Нейровидеоклип от Артема
Марина Цветаева - Прохожий
Все таки как могут стихи заиграть новыми красками с помощью ИИ.
Инструменты: suno, imagen 4, runway, kling, higgsfield, hailuo 02.
Основные изображения imagen 4, немного ранвей референс.
Видео 90% клинг 2.1 про и 2.1 мастер. Немного higgsfield и hailuo.
Липсинг ранвей act-one.
По времени около 25 часов.
По деньгам примерно 10-15т₽.
@cgevent
📽 Нейровидеоклип от Артема
Марина Цветаева - Прохожий
Все таки как могут стихи заиграть новыми красками с помощью ИИ.
Инструменты: suno, imagen 4, runway, kling, higgsfield, hailuo 02.
Основные изображения imagen 4, немного ранвей референс.
Видео 90% клинг 2.1 про и 2.1 мастер. Немного higgsfield и hailuo.
Липсинг ранвей act-one.
По времени около 25 часов.
По деньгам примерно 10-15т₽.
@cgevent
2👍106🔥54👎32❤11
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Тут, мне кажется, можно выпить за Affter Effects, титры, и вот эти вот все текстовые эффекты.
Veo3 просто удивительно неплохо справляется со шрифтами, эффектами и вообще "понимает", о чем идет речь.
Вспомните, ведь еще где-то полгода-год назад текст на картинках был набором иероглифов.
А сейчас мы смотрим на то, как видеогенераторы бахают титры и логосы.
What a time to be alive!
Автор
@cgevent
Veo3 просто удивительно неплохо справляется со шрифтами, эффектами и вообще "понимает", о чем идет речь.
Вспомните, ведь еще где-то полгода-год назад текст на картинках был набором иероглифов.
А сейчас мы смотрим на то, как видеогенераторы бахают титры и логосы.
What a time to be alive!
Автор
@cgevent
🔥74👍12😱9❤6😁6👎4
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
OmniAvatar: Efficient Audio-Driven Avatar Video Generation with Adaptive Body Animation
Аватары постепенно обрастают плечами, руками, жестами, половиной тулова, скоро грань между Аватарогенераторами и видеогенераторами будет истончаться.
Но самоего главное, несмотря на то, что это Алибабищенко, - это опен сорс!
https://github.com/omni-avatar/OmniAvatar
В OmniAvatar задействованы WAN 2.1 и Wav2Vec.
Требования будут как у Вана.
Оно умеет в жесты, управляемые эмоции, натуральные движения, работу с фоном и даже предметами и, по мнению авторов, ultra-accurate lip-sync
Но вот липсинк-то мне не очень нравится. И вообще опенсорсные липсинки, конечно, здорово отстают от коммерческих решений.
Но это я придираюсь. Певцы поют, как умеют. Это опен-сорс.
Репозитарий выглядит адово, не уверен, что полезу ставить.
Тьма видосов и подробностей тут:
https://omni-avatar.github.io/
@cgevent
Аватары постепенно обрастают плечами, руками, жестами, половиной тулова, скоро грань между Аватарогенераторами и видеогенераторами будет истончаться.
Но самоего главное, несмотря на то, что это Алибабищенко, - это опен сорс!
https://github.com/omni-avatar/OmniAvatar
В OmniAvatar задействованы WAN 2.1 и Wav2Vec.
Требования будут как у Вана.
Оно умеет в жесты, управляемые эмоции, натуральные движения, работу с фоном и даже предметами и, по мнению авторов, ultra-accurate lip-sync
Но вот липсинк-то мне не очень нравится. И вообще опенсорсные липсинки, конечно, здорово отстают от коммерческих решений.
Но это я придираюсь. Певцы поют, как умеют. Это опен-сорс.
Репозитарий выглядит адово, не уверен, что полезу ставить.
Тьма видосов и подробностей тут:
https://omni-avatar.github.io/
@cgevent
👍17🔥10👎5