Минимах разродился генератором картинок.
Это стало уже трендом, когда видеогенераторы порождают субпродукт - генерация изображений.
Обсуждать особо нечего, надо тестировать. Есть только минимум настроек - улучшайзер промпта и аспект.
На первый взгляд, как у всех, шарахание от анатомии, очень хорошее понимание промпта, кожа - не айс.
Я погенерил бутылочек и X-Ray - на стилях и абстракциях ведет себя хорошо.
visualized as an X-Ray Crystalline Structure, revealing internal geometries and hidden patterns. Employ stark white lines and shapes on a deep black background to mimic the look of scientific imaging
За 10 баксов - 1000 картинок в месяц (малавата).
За 0 баксов - есть бесплатные ежедневные кредиты (пока)
Есть апи под запрос.
Кстати, на сайте есть навернутый, но странно оформленный в ноушене юзер гайд.
@cgevent
Это стало уже трендом, когда видеогенераторы порождают субпродукт - генерация изображений.
Обсуждать особо нечего, надо тестировать. Есть только минимум настроек - улучшайзер промпта и аспект.
На первый взгляд, как у всех, шарахание от анатомии, очень хорошее понимание промпта, кожа - не айс.
Я погенерил бутылочек и X-Ray - на стилях и абстракциях ведет себя хорошо.
visualized as an X-Ray Crystalline Structure, revealing internal geometries and hidden patterns. Employ stark white lines and shapes on a deep black background to mimic the look of scientific imaging
За 10 баксов - 1000 картинок в месяц (малавата).
За 0 баксов - есть бесплатные ежедневные кредиты (пока)
Есть апи под запрос.
Кстати, на сайте есть навернутый, но странно оформленный в ноушене юзер гайд.
@cgevent
👍16❤11🔥1
Я как-то пропустил, но в Gemini добавили Deep Research.
У Гугла в принципе поиск в интернете были так не плохой (в отличие от chatGPT). Но как будет ресерчить, надо проверять.
Вроде как 5 запросов на ресерч в месяц на бесплатном тарифе. И какой-то конский контекст чуть ли не в миллион токенов.
@cgevent
У Гугла в принципе поиск в интернете были так не плохой (в отличие от chatGPT). Но как будет ресерчить, надо проверять.
Вроде как 5 запросов на ресерч в месяц на бесплатном тарифе. И какой-то конский контекст чуть ли не в миллион токенов.
@cgevent
👍36❤8😱5🔥1
Адобченко сделал удалятор фона отдельной веб-фишкой. Проблема в том, что у меня не работает. Проверьте у себя:
https://www.adobe.com/express/feature/ai/image/remove-background
https://www.adobe.com/express/feature/ai/image/remove-background
Adobe
Free AI Background Remover | Adobe Express
Remove backgrounds from your images quickly and easily with the free AI background remover from Adobe Express. Upload your image to the AI background remover and download your new image in seconds.
👍17👎1
Минимах разродился генератором картинок - дифчонки
Он не ругается на промпты, он просто прячет картинки. Слегка одетая анатомия - норм.
@cgevent
Он не ругается на промпты, он просто прячет картинки. Слегка одетая анатомия - норм.
@cgevent
🔥41😁16👍8👎3❤2😱1
Языковая 3Д-генерация.
У нас есть некоторое количество сервисов для 3Д-генерации, о которых я неоднократно писал.
Проблема там в основном в топологии (каша) и в качестве текстур. Плюс в ограниченности сцены - как правило это один объект.
Уже неделю как интернет бомбит от связки Блендора и Клода 3.7 через MCP, о которой я тоже писал.
Ну и действительно, поглядите на пример.
Все, что потребовалось здесь, это сгенерировать картинку, а потом сказать Клюду:
"Recognize any elements of this scene individually. Describe them precisely, then build them in a scene."
"Распознай все элементы этой сцены по отдельности. Опишите их точно, а затем сделай из них сцену".
"Традиционные" 3Д-генераторы тоже пытаются распознать картинку, потом сгенерить ее с разных ракурсов, а потом восстановить 3Д из нескольких картинок. А Клод пытается "собрать\отрендерить сцену" с помощью, грубо говоря, скриптов для Блендора - запуская разные команды, о которых он в курсе. Процедурное моделирование на стрероидах LLM.
Понятно, что пока довольно примитивные сцены, понятно, что замоделить голову неведомого ему персонажа будет сложновато, но дайте время.
Интересно подумать, над специальным файнтюном как для распознавания картинок, так и для (и особенно) для Блендора. Файнтьюн, который обучен на последовательностях действий и сценах.
Просто сцены, которые генерит Клод, отлично редактируются, анимируются - это нормальная геометрия, а не обмылки из 3Д-генераторов.
Интересно, посмотреть, что будет дальше.
@cgevent
У нас есть некоторое количество сервисов для 3Д-генерации, о которых я неоднократно писал.
Проблема там в основном в топологии (каша) и в качестве текстур. Плюс в ограниченности сцены - как правило это один объект.
Уже неделю как интернет бомбит от связки Блендора и Клода 3.7 через MCP, о которой я тоже писал.
Ну и действительно, поглядите на пример.
Все, что потребовалось здесь, это сгенерировать картинку, а потом сказать Клюду:
"Recognize any elements of this scene individually. Describe them precisely, then build them in a scene."
"Распознай все элементы этой сцены по отдельности. Опишите их точно, а затем сделай из них сцену".
"Традиционные" 3Д-генераторы тоже пытаются распознать картинку, потом сгенерить ее с разных ракурсов, а потом восстановить 3Д из нескольких картинок. А Клод пытается "собрать\отрендерить сцену" с помощью, грубо говоря, скриптов для Блендора - запуская разные команды, о которых он в курсе. Процедурное моделирование на стрероидах LLM.
Понятно, что пока довольно примитивные сцены, понятно, что замоделить голову неведомого ему персонажа будет сложновато, но дайте время.
Интересно подумать, над специальным файнтюном как для распознавания картинок, так и для (и особенно) для Блендора. Файнтьюн, который обучен на последовательностях действий и сценах.
Просто сцены, которые генерит Клод, отлично редактируются, анимируются - это нормальная геометрия, а не обмылки из 3Д-генераторов.
Интересно, посмотреть, что будет дальше.
@cgevent
4👍41🔥8❤3😁1
Thera: Aliasing-Free Arbitrary-Scale Super-Resolution with Neural Heat Fields
Держите новый апскейлер на Горячих Нейронных Полях.
Во-первых, он не китайский, а швейцарский.
Во-вторых, упор на anti-aliasing, ну то есть упор на совсем убитые картинки или чистый апскейл.
Я проверил на генерации из Minimax - он честно разгоняет разрешение в 6(раз!), он не добавляет деталей, но он и не добавляет резкости. Он просто честно апскейлит.
Там аж шесть моделей, но вас интересует Про в двух вариантах EDSR\RDN (разница на глаз не замечена).
Конечно, они побивают все другие апскейлеры по их же тестам.
Есть код и демо, можно пробовать.
Но никакой интеграции в Фордж и Комфи я пока не увидел.
P.S. Он очень НЕ любит джипеги. Просто апскейлит все jpg-артефакты, получается не сильно красиво
https://therasr.github.io/
@cgevent
Держите новый апскейлер на Горячих Нейронных Полях.
Во-первых, он не китайский, а швейцарский.
Во-вторых, упор на anti-aliasing, ну то есть упор на совсем убитые картинки или чистый апскейл.
Я проверил на генерации из Minimax - он честно разгоняет разрешение в 6(раз!), он не добавляет деталей, но он и не добавляет резкости. Он просто честно апскейлит.
Там аж шесть моделей, но вас интересует Про в двух вариантах EDSR\RDN (разница на глаз не замечена).
Конечно, они побивают все другие апскейлеры по их же тестам.
Есть код и демо, можно пробовать.
Но никакой интеграции в Фордж и Комфи я пока не увидел.
P.S. Он очень НЕ любит джипеги. Просто апскейлит все jpg-артефакты, получается не сильно красиво
https://therasr.github.io/
@cgevent
5👍35🔥10
Описание и расшифровка происходящего на видео с ютюба без использования субтитров.
Увидел вот такой твит от Демиса Хассабиса (главный в DeepMind).
Я уже постил про то, что в chatGPT можно кидать не только картинки, но и целые видосы, и просить описать происходящее.
А в Google AI Studio можно кидать ссылки на Ютюб.
Специально взял видео, где нет субтитров и где из названия видео нельзя, например, достать цвет песка.
https://www.youtube.com/watch?v=E7qRkUYu580
Кинул эту ссылку в AI Studio, оно справилось.
Видел примеры, как народ спрашивает "а с какой минуты начинает говорить товарищ N", но там есть баги с точностью тайм кодов.
В общем мультимодальность на марше - модель реально "понимает происходящее на видео". Причем все это можно использовать и через API.
Вероятно будет полезно некоторым стартапам.
@cgevent
Увидел вот такой твит от Демиса Хассабиса (главный в DeepMind).
Я уже постил про то, что в chatGPT можно кидать не только картинки, но и целые видосы, и просить описать происходящее.
А в Google AI Studio можно кидать ссылки на Ютюб.
Специально взял видео, где нет субтитров и где из названия видео нельзя, например, достать цвет песка.
https://www.youtube.com/watch?v=E7qRkUYu580
Кинул эту ссылку в AI Studio, оно справилось.
Видел примеры, как народ спрашивает "а с какой минуты начинает говорить товарищ N", но там есть баги с точностью тайм кодов.
В общем мультимодальность на марше - модель реально "понимает происходящее на видео". Причем все это можно использовать и через API.
Вероятно будет полезно некоторым стартапам.
@cgevent
👍36🔥22❤3
Better Call Mike. Про поиск людей.
Если ищете исполнителей или закрываете вакансии, то есть Майк Волков (@mikevolkov).
Он умеет закрывать сложнейшие позиции в AI и IT в целом.
Майк не просто рекрутер. Он находит тех, кто реально решает задачи бизнеса.
Приводит людей, которые не ищут работу, но готовы делать сильный продукт.
В общем Better Call Mike, если вам нужно реальное усиление команды, напишите Майку.
А вообще, если тема найма, поиска людей и сильных кандидатов вам интересна, то можно подписаться на канал Майка @huntermikevolkov.
Там он пишет о хантинге, рынке IT и реальных кейсах – коротко, полезно, без лишнего мусора.
Особенно полезно фаундерам, HR и тем, кто сам ищет работу.
Как привлекать сильных людей и не терять их.
Как работает найм в топовых IT-компаниях.
Кейсы, фейлы, успешные истории – только практика.
Подписывайтесь – @huntermikevolkov.
#промо
Если ищете исполнителей или закрываете вакансии, то есть Майк Волков (@mikevolkov).
Он умеет закрывать сложнейшие позиции в AI и IT в целом.
Майк не просто рекрутер. Он находит тех, кто реально решает задачи бизнеса.
Приводит людей, которые не ищут работу, но готовы делать сильный продукт.
В общем Better Call Mike, если вам нужно реальное усиление команды, напишите Майку.
А вообще, если тема найма, поиска людей и сильных кандидатов вам интересна, то можно подписаться на канал Майка @huntermikevolkov.
Там он пишет о хантинге, рынке IT и реальных кейсах – коротко, полезно, без лишнего мусора.
Особенно полезно фаундерам, HR и тем, кто сам ищет работу.
Как привлекать сильных людей и не терять их.
Как работает найм в топовых IT-компаниях.
Кейсы, фейлы, успешные истории – только практика.
Подписывайтесь – @huntermikevolkov.
#промо
Telegram
Mike | IT Recruitment Expert
Best IT recruiter. Hard, executive hiring. I'll save your time and nerves, and grow your business. Superpowers for satisfied clients.
👎37😱7👍5🔥3
Russian AI: GigaChat 2 MAX vs. YandexGPT 5 Pro.
На днях вышло тестирование двух ведущих российских нейросетей — GigaChat 2 MAX от Сбера и YandexGPT 5 Pro. Автор эксперимента сравнивал ответы по 10 вопросам и сделал упор на скорость, но при этом упустил важный момент — глубину анализа.
Что показал тест?
• GigaChat 2 MAX выдает развернутые и детализированные ответы, лучше понимая контекст.
• YandexGPT 5 Pro отвечает быстрее, но при этом иногда упрощает информацию.
На первый взгляд кажется, что скорость — это ключевой параметр. Но если запрос сложный, требует пояснений или анализа, важнее не просто ответить быстро, а выдать действительно полезную информацию. Здесь у GigaChat 2 MAX заметное преимущество.
Например, в сценариях, где нужно не просто выдать справочную информацию, а сформировать рекомендации, предложить несколько вариантов решения или проанализировать сложные данные, GigaChat 2 MAX справляется лучше.
Кроме того, он более гибкий в обработке нестандартных формулировок и уточняющих вопросов, что делает его ближе к роли интеллектуального ассистента, а не просто генератора ответов.
Стоит ли считать это избыточностью? Вопрос субъективный. Но если важна не просто скорость, а глубина и релевантность информации, GigaChat 2 MAX определенно выглядит увереннее среди других аналогов на рынке.
@cgevent
На днях вышло тестирование двух ведущих российских нейросетей — GigaChat 2 MAX от Сбера и YandexGPT 5 Pro. Автор эксперимента сравнивал ответы по 10 вопросам и сделал упор на скорость, но при этом упустил важный момент — глубину анализа.
Что показал тест?
• GigaChat 2 MAX выдает развернутые и детализированные ответы, лучше понимая контекст.
• YandexGPT 5 Pro отвечает быстрее, но при этом иногда упрощает информацию.
На первый взгляд кажется, что скорость — это ключевой параметр. Но если запрос сложный, требует пояснений или анализа, важнее не просто ответить быстро, а выдать действительно полезную информацию. Здесь у GigaChat 2 MAX заметное преимущество.
Например, в сценариях, где нужно не просто выдать справочную информацию, а сформировать рекомендации, предложить несколько вариантов решения или проанализировать сложные данные, GigaChat 2 MAX справляется лучше.
Кроме того, он более гибкий в обработке нестандартных формулировок и уточняющих вопросов, что делает его ближе к роли интеллектуального ассистента, а не просто генератора ответов.
Стоит ли считать это избыточностью? Вопрос субъективный. Но если важна не просто скорость, а глубина и релевантность информации, GigaChat 2 MAX определенно выглядит увереннее среди других аналогов на рынке.
@cgevent
2👍57👎54😁14❤6😱6🔥2