Не так давно Manus улучшили свою работу с презентациями.
У меня уже есть работающий пайплайн с созданием презентаций в Gamma.app. Купленная подписка, генерация презентаций до 20 слайдов по предоставленному до этого описанию каждого слайда. И вполне устраивающее качество после нескольких итераций редактирования.
Поэтому в Manus я шёл с некоторым скепсисом.
Тем приятнее то удивление, которое Manus вызвал.
Я не знаю, как его создатели это сделали, но AI-агент в Manus обладает хорошим вкусом. Что в сайтах, что в презентациях. Размещает элементы гармонично, понимает, где можно добавить медиа, а где и инфографику прикрутить. Сравните в медиа слайды по идентичным промптам от Manus и Gamma (Manus использует красные акценты). Как по мне, Manus заметно впереди.
Также Manus хорошо работает с текстами, которые нужно использовать в презентации. "Хорошо работает" – это в смысле он их сам не редактирует. Ибо какой смысл в том, что я работаю с планом презентации, если потом мой посыл может изменить AI? Собственно, такую проблему я часто встречал у Gamma. А ещё она может просто потерять часть информации, если вдруг что-то не вошло на слайд.
Наконец-то Manus честно выполняет работу до конца. Без вопросов в стиле "Я сделал 10 слайдов, мне продолжать?". Презентацию из 16 слайдов он генерирует и перегенерирует полностью с одного запроса. То есть адекватно понимает, какую работу надо выполнить, чтобы отчитаться о завершении задачи.
Генерация выходит достаточно дешёвой. За мою презентацию из 16 слайдов Manus снял чуть больше 300 кредитов. Правда, есть минус – если я захочу сменить оформление (тему) презентации на какую-то другую из числа предложенных, то Manus проведёт генерацию заново и потратит 300+ кредитов ещё раз.
Manus - это прежде всего AI-агент, поэтому он может сам найти какую-то дополнительную информацию в интернете и добавить её в презентацию. Или, например, поставить в слайд настоящую фотографию, а не сгенерированную через AI (у Gamma все изображения исключительно AI-generated).
Однозначных минусов для меня у Manus (в сравнении с Gamma) три:
1. Отсутствие возможностей генерировать что-либо в презентации через интерфейс. Приходится либо в HTML-код слайда лезть, либо просить AI что-то менять. И тут уже на мелких правках через AI можно потратить сильно больше кредитов, чем планировалось.
2. Время. Генерация занимает сильно больше времени, чем в Gamma. Особенно это заметно на процессе смены темы. В Gamma это происходит почти мгновенно, тогда как Manus может уйти на 10-15 минут, чтобы всю презентацию создать заново, но с обновлённым визуалом. Понятно, что у Manus другой процесс работы над презентациями, но времени всё равно много уходит.
3. В моём случае, за всю презентацию Manus не использовал ни одного изображения. Только графики и диаграммы. Думаю, причина в том, что в изначальном плане презентации нужно указывать, что вот в этом слайде должна быть определённая картинка или фотография.
Итог: Manus всё ещё хорошо чувствует себя на рынке. И происходит это, во многом, благодаря качественным обновлениям, в которых разработчики предлагают готовые пайплайны по работе с контентом. И, судя по работе с презентациями, у них это весьма неплохо получается.
У меня уже есть работающий пайплайн с созданием презентаций в Gamma.app. Купленная подписка, генерация презентаций до 20 слайдов по предоставленному до этого описанию каждого слайда. И вполне устраивающее качество после нескольких итераций редактирования.
Поэтому в Manus я шёл с некоторым скепсисом.
Тем приятнее то удивление, которое Manus вызвал.
Я не знаю, как его создатели это сделали, но AI-агент в Manus обладает хорошим вкусом. Что в сайтах, что в презентациях. Размещает элементы гармонично, понимает, где можно добавить медиа, а где и инфографику прикрутить. Сравните в медиа слайды по идентичным промптам от Manus и Gamma (Manus использует красные акценты). Как по мне, Manus заметно впереди.
Также Manus хорошо работает с текстами, которые нужно использовать в презентации. "Хорошо работает" – это в смысле он их сам не редактирует. Ибо какой смысл в том, что я работаю с планом презентации, если потом мой посыл может изменить AI? Собственно, такую проблему я часто встречал у Gamma. А ещё она может просто потерять часть информации, если вдруг что-то не вошло на слайд.
Наконец-то Manus честно выполняет работу до конца. Без вопросов в стиле "Я сделал 10 слайдов, мне продолжать?". Презентацию из 16 слайдов он генерирует и перегенерирует полностью с одного запроса. То есть адекватно понимает, какую работу надо выполнить, чтобы отчитаться о завершении задачи.
Генерация выходит достаточно дешёвой. За мою презентацию из 16 слайдов Manus снял чуть больше 300 кредитов. Правда, есть минус – если я захочу сменить оформление (тему) презентации на какую-то другую из числа предложенных, то Manus проведёт генерацию заново и потратит 300+ кредитов ещё раз.
Manus - это прежде всего AI-агент, поэтому он может сам найти какую-то дополнительную информацию в интернете и добавить её в презентацию. Или, например, поставить в слайд настоящую фотографию, а не сгенерированную через AI (у Gamma все изображения исключительно AI-generated).
Однозначных минусов для меня у Manus (в сравнении с Gamma) три:
1. Отсутствие возможностей генерировать что-либо в презентации через интерфейс. Приходится либо в HTML-код слайда лезть, либо просить AI что-то менять. И тут уже на мелких правках через AI можно потратить сильно больше кредитов, чем планировалось.
2. Время. Генерация занимает сильно больше времени, чем в Gamma. Особенно это заметно на процессе смены темы. В Gamma это происходит почти мгновенно, тогда как Manus может уйти на 10-15 минут, чтобы всю презентацию создать заново, но с обновлённым визуалом. Понятно, что у Manus другой процесс работы над презентациями, но времени всё равно много уходит.
3. В моём случае, за всю презентацию Manus не использовал ни одного изображения. Только графики и диаграммы. Думаю, причина в том, что в изначальном плане презентации нужно указывать, что вот в этом слайде должна быть определённая картинка или фотография.
Итог: Manus всё ещё хорошо чувствует себя на рынке. И происходит это, во многом, благодаря качественным обновлениям, в которых разработчики предлагают готовые пайплайны по работе с контентом. И, судя по работе с презентациями, у них это весьма неплохо получается.
1👍5🔥4❤2
Бесполезный Google Stitch.
Stitch – это генератор дизайнов от Google. Попробовать его можно здесь.
Пример сервиса, который создавался исключительно ради рекламного "вау-эффекта".
Потому что, в моём случае, он применим только для очень небольших задач. А именно – когда надо сгенерировать одну страницу в каком-то конкретном состоянии.
Всё. Больше никакой пользы.
Потому что есть два фундаментальных минуса:
1. При генерации нескольких страниц сайта, у них нет между собой согласованности. То есть стиль внутри проекта отличается от страницы к странице. Общие элементы, вроде header и footer, также не одинаковы. Попросить сделать разные состояния одной и той же страницы – бесперспективная задача.
2. Нет инструмента для AI-редактирования конкретного макета. Можно попросить что-то изменить, но в таком случае Stitch ведёт себя как ChatGPT при генерации картинок. То есть перерисовывает дизайн с нуля. При этом может потерять цвета, изменить какие-то элементы и, в качестве бонуса, – не выполнить поставленную задачу.
Думаю, в этом причина, почему Stitch доступен без ограничений. Просто он не особо-то нужен. Прошёл, как разовый информационный повод, не став рабочим инструментом ни для кого.
Если вдруг вы всё-таки сумели встроить Google Stitch в свой рабочий пайплайн, расскажите в комментариях, как вам это удалось. И, самое главное, почему не подошли другие инструменты.
Stitch – это генератор дизайнов от Google. Попробовать его можно здесь.
Пример сервиса, который создавался исключительно ради рекламного "вау-эффекта".
Потому что, в моём случае, он применим только для очень небольших задач. А именно – когда надо сгенерировать одну страницу в каком-то конкретном состоянии.
Всё. Больше никакой пользы.
Потому что есть два фундаментальных минуса:
1. При генерации нескольких страниц сайта, у них нет между собой согласованности. То есть стиль внутри проекта отличается от страницы к странице. Общие элементы, вроде header и footer, также не одинаковы. Попросить сделать разные состояния одной и той же страницы – бесперспективная задача.
2. Нет инструмента для AI-редактирования конкретного макета. Можно попросить что-то изменить, но в таком случае Stitch ведёт себя как ChatGPT при генерации картинок. То есть перерисовывает дизайн с нуля. При этом может потерять цвета, изменить какие-то элементы и, в качестве бонуса, – не выполнить поставленную задачу.
Думаю, в этом причина, почему Stitch доступен без ограничений. Просто он не особо-то нужен. Прошёл, как разовый информационный повод, не став рабочим инструментом ни для кого.
Если вдруг вы всё-таки сумели встроить Google Stitch в свой рабочий пайплайн, расскажите в комментариях, как вам это удалось. И, самое главное, почему не подошли другие инструменты.
2❤6👍3🔥3🤝2
Сегодня AI-агент от OpenAI становится доступен для пользователей с подпиской Plus.
Я уже опробовал его в нескольких сценариях и вот что хочу сказать:
1. Manus – отличный AI-агент, который может выполнять в сети достаточно сложные задачи. От создания сайтов (с публикацией по одному клику) до работы с презентациями и визуализациями. Также умеет в генерацию изображений и видео.
2. Genspark.ai – конкурент для Manus. Умеет плюс-минус то же самое. Плюс – может за вас скачивать данные из интернета и даже совершать звонки. Отдельный обзор на него я ещё сделаю на этом канале. Кстати, у них ещё и AI-браузер есть, который лучше, чем Dia.
3. Perplexity Labs – бюджетный вариант для тех, кто не хочет оплачивать AI-агентов от Manus или Genspark. За $5/месяц можно получить годовой премиум и запросы в Labs, по которым вы скорее всего не упрётесь в лимит.
AI-агент от OpenAI – это очень сырой продукт, который они разрабатывали, судя по всему, пока всей компанией ходили в недельный отпуск.
Я уже опробовал его в нескольких сценариях и вот что хочу сказать:
1. Manus – отличный AI-агент, который может выполнять в сети достаточно сложные задачи. От создания сайтов (с публикацией по одному клику) до работы с презентациями и визуализациями. Также умеет в генерацию изображений и видео.
2. Genspark.ai – конкурент для Manus. Умеет плюс-минус то же самое. Плюс – может за вас скачивать данные из интернета и даже совершать звонки. Отдельный обзор на него я ещё сделаю на этом канале. Кстати, у них ещё и AI-браузер есть, который лучше, чем Dia.
3. Perplexity Labs – бюджетный вариант для тех, кто не хочет оплачивать AI-агентов от Manus или Genspark. За $5/месяц можно получить годовой премиум и запросы в Labs, по которым вы скорее всего не упрётесь в лимит.
AI-агент от OpenAI – это очень сырой продукт, который они разрабатывали, судя по всему, пока всей компанией ходили в недельный отпуск.
2❤11👍9🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Контроль за генерацией AI-видео от Vidu.
Vidu – это китайская компания, которая не забывает, что при генерации AI-видео очень важно контролировать то, что происходит в кадре.
У них вышла модель Vidu Q1(ещё в апреле, но добрался я до неё только сейчас) , которая поддерживает генерацию видео по референсным изображениям (до 7 штук), а также генерацию по первому и последнему кадру (Kling2.1, добавьте последний кадр!) .
К сожалению, длина видео – до 5 секунд. Но зато FullHD с возможностью апскейла до 4K прямо в интерфейсе Vidu.
Больше всего понравилась консистентность объектов в генерации видео по референсам. Есть, правда, некоторые шероховатости при генерации сцен с большим количеством объектов. И с размерами может иногда напутать, выдав для Братьев Пилотов карликового слона 🙂
Отдельно хочу отметить их "Режим Pro" для формирования промптов.
Сценарий работы с ним выглядит следующим образом:
1. Загружаем референсные изображения.
2. Переключаемся в "Режим Pro".
3. Vidu с помощью AI анализирует содержимое изображений и предлагает некий сценарий с распознанными на изображении объектами.
4. (опционально) Можно исправить сценарий, используя уже описанные Vidu объекты.
5. (опционально) Нажимаем на "Оптимизировать", чтобы AI прошёлся по новому сценарию и доработал промпт.
Интересно также, что Vidu доступен полностью на русском языке, включая текст промпта. То есть максимально-дружелюбный к пользователю интерфейс.
Вишенка на торте – цена. Стандартный тариф за $10/месяц даёт нам 800 кредитов в месяц. Одна генерация видео по референсам стоит 20 кредитов. То есть на самом дешёвом тарифе за месяц можно сгенерировать 40 5-секундных роликов. Получается, цена секунды генерации в Vidu стоит $0.05. Что, в сравнении с Veo3, например, очень дёшево.
Качество генераций через Vidu Q1 можете оценить в медиа поста.
Vidu – это китайская компания, которая не забывает, что при генерации AI-видео очень важно контролировать то, что происходит в кадре.
У них вышла модель Vidu Q1
К сожалению, длина видео – до 5 секунд. Но зато FullHD с возможностью апскейла до 4K прямо в интерфейсе Vidu.
Больше всего понравилась консистентность объектов в генерации видео по референсам. Есть, правда, некоторые шероховатости при генерации сцен с большим количеством объектов. И с размерами может иногда напутать, выдав для Братьев Пилотов карликового слона 🙂
Отдельно хочу отметить их "Режим Pro" для формирования промптов.
Сценарий работы с ним выглядит следующим образом:
1. Загружаем референсные изображения.
2. Переключаемся в "Режим Pro".
3. Vidu с помощью AI анализирует содержимое изображений и предлагает некий сценарий с распознанными на изображении объектами.
4. (опционально) Можно исправить сценарий, используя уже описанные Vidu объекты.
5. (опционально) Нажимаем на "Оптимизировать", чтобы AI прошёлся по новому сценарию и доработал промпт.
Интересно также, что Vidu доступен полностью на русском языке, включая текст промпта. То есть максимально-дружелюбный к пользователю интерфейс.
Вишенка на торте – цена. Стандартный тариф за $10/месяц даёт нам 800 кредитов в месяц. Одна генерация видео по референсам стоит 20 кредитов. То есть на самом дешёвом тарифе за месяц можно сгенерировать 40 5-секундных роликов. Получается, цена секунды генерации в Vidu стоит $0.05. Что, в сравнении с Veo3, например, очень дёшево.
Качество генераций через Vidu Q1 можете оценить в медиа поста.
2❤11👍7🔥5
Когда конкуренция на рынке AI негативно влияет на качество продукта.
Сегодня я 20 минут провёл в поисках инструмента по AI-Reframe на платформе Runway. AI-Reframe – это когда вам нужно из видео 16:9 сделать 9:16, но при этом не обрезать кадр, а наоборот – расширить его с помощью AI.
В итоге выяснил, что данный инструмент поддерживается исключительно моделью Gen-3 Alpha Turbo(даже обычной Gen-3 Alpha не поддерживается!) , которую Runway не предлагает в качестве выбора по-умолчанию, так как сейчас есть новые модели семейства Gen-4. А чтобы выбрать Gen-3-модели, нужно зайти в Previous models и выбрать модель там.
Аналогичная ситуация с Kling. У которого целая россыпь инструментов, каждый из которых поддерживается какой-то одной моделью. У него инструменты перед глазами, но понять, какая модель будет отвечать за генерацию, можно только после переключения.
Даже Google изначально выпустил Veo3 только в режиме text-to-video, добавив image-to-video позже. Ещё и релиз только в США создал дополнительный ажиотаж вокруг модели.
В сложившейся ситуации на рынке AI, компании не могут позволить себе поработать над моделью подольше, чтобы выкатить её вместе со всеми инструментами, которые были доступны в предыдущей версии.
Думаю, это попросту невыгодно. Проще выпустить модель, которая делает более красивые и консистентные, чем в предыдущих моделях, 8-10-секундные видео. И за счёт этого получить массовые подписки от тех, кто хочет сгенерировать просто красивый ролик без жёсткого контроля.
OpenAI, к слову, со своим AI-агентом (писал про него тут) пошла по похожему сценарию. Выпустили инструмент для поднятия шума, но по факту использовать его в работе никто не будет.
Тем, кто работает с AI-видео более-менее серьёзно, приходится выкручиваться. Потому что почти все новые модели для AI-видео не поддерживают даже генерацию по первому и последнему кадру. Не говоря уже про inpaint и инструменты для контроля за камерой или движением.
У любителей Open source вообще ComfyUI… 🙂
Но есть и луч надежды от упомянутого выше Google. Veo3 мало того, что изначально хорошо следовал промпту, так ещё и JSON умеет принимать на вход. Надеюсь, что они не уйдут пилить новую модель, пока не добавят побольше инструментов для Veo3. И это даст нам больше контроля за генерацией AI-видео.
Сегодня я 20 минут провёл в поисках инструмента по AI-Reframe на платформе Runway. AI-Reframe – это когда вам нужно из видео 16:9 сделать 9:16, но при этом не обрезать кадр, а наоборот – расширить его с помощью AI.
В итоге выяснил, что данный инструмент поддерживается исключительно моделью Gen-3 Alpha Turbo
Аналогичная ситуация с Kling. У которого целая россыпь инструментов, каждый из которых поддерживается какой-то одной моделью. У него инструменты перед глазами, но понять, какая модель будет отвечать за генерацию, можно только после переключения.
Даже Google изначально выпустил Veo3 только в режиме text-to-video, добавив image-to-video позже. Ещё и релиз только в США создал дополнительный ажиотаж вокруг модели.
В сложившейся ситуации на рынке AI, компании не могут позволить себе поработать над моделью подольше, чтобы выкатить её вместе со всеми инструментами, которые были доступны в предыдущей версии.
Думаю, это попросту невыгодно. Проще выпустить модель, которая делает более красивые и консистентные, чем в предыдущих моделях, 8-10-секундные видео. И за счёт этого получить массовые подписки от тех, кто хочет сгенерировать просто красивый ролик без жёсткого контроля.
OpenAI, к слову, со своим AI-агентом (писал про него тут) пошла по похожему сценарию. Выпустили инструмент для поднятия шума, но по факту использовать его в работе никто не будет.
Тем, кто работает с AI-видео более-менее серьёзно, приходится выкручиваться. Потому что почти все новые модели для AI-видео не поддерживают даже генерацию по первому и последнему кадру. Не говоря уже про inpaint и инструменты для контроля за камерой или движением.
У любителей Open source вообще ComfyUI… 🙂
Но есть и луч надежды от упомянутого выше Google. Veo3 мало того, что изначально хорошо следовал промпту, так ещё и JSON умеет принимать на вход. Надеюсь, что они не уйдут пилить новую модель, пока не добавят побольше инструментов для Veo3. И это даст нам больше контроля за генерацией AI-видео.
1👍10❤4🔥2
Graphiti – система для реализации графа знаний, который поможет сохранять информацию с учётом особенностей реального мира.
Представьте, что вы собрались хранить данные о том, как ваш бизнес взаимодействует с клиентами. Чем больше вы знаете о клиентах и их взаимоотношениях с вашим брендом и товарами, тем лучше вы понимаете, как ваш бизнес может ему помочь в решении текущих задач.
Но есть проблема. Люди – существа непостоянные. У них постоянно всё меняется. Особенно что касается отношений к товарам, услугам и компаниям.
Graphiti предлагает сохранять не только статические данные в графах знаний, но также привязывать их к конкретному моменту времени. Когда образовались вершины, какие сформировались отношения между ними, как они менялись со временем и в какой момент стали неактуальны.
Все эти данные будут записаны в граф и вы сможете достаточно легко их получить.
Поскольку Graphiti стремится стать лучшим другом для AI-агентов, то из коробки имеет MCP-сервер и REST API для работы с ним извне.
Сам по себе Graphiti – это надстройка над популярными графовыми БД. А именно – Neo4j и FalkorDB. Вероятно, вам даже не придётся переходить на новую базу данных. Достаточно просто поставить поверх существующей Graphini и понять, насколько он для вас полезен.
Важно, что базовая технология основана на проведённом ранее исследовании эффективности именно такого подхода. С документом можно ознакомиться тут.
Инструмент интересный, поэтому будут ещё посты с практическими кейсами и применением Graphiti в рабочих задачах.
Представьте, что вы собрались хранить данные о том, как ваш бизнес взаимодействует с клиентами. Чем больше вы знаете о клиентах и их взаимоотношениях с вашим брендом и товарами, тем лучше вы понимаете, как ваш бизнес может ему помочь в решении текущих задач.
Но есть проблема. Люди – существа непостоянные. У них постоянно всё меняется. Особенно что касается отношений к товарам, услугам и компаниям.
Graphiti предлагает сохранять не только статические данные в графах знаний, но также привязывать их к конкретному моменту времени. Когда образовались вершины, какие сформировались отношения между ними, как они менялись со временем и в какой момент стали неактуальны.
Все эти данные будут записаны в граф и вы сможете достаточно легко их получить.
Поскольку Graphiti стремится стать лучшим другом для AI-агентов, то из коробки имеет MCP-сервер и REST API для работы с ним извне.
Сам по себе Graphiti – это надстройка над популярными графовыми БД. А именно – Neo4j и FalkorDB. Вероятно, вам даже не придётся переходить на новую базу данных. Достаточно просто поставить поверх существующей Graphini и понять, насколько он для вас полезен.
Важно, что базовая технология основана на проведённом ранее исследовании эффективности именно такого подхода. С документом можно ознакомиться тут.
Инструмент интересный, поэтому будут ещё посты с практическими кейсами и применением Graphiti в рабочих задачах.
2🔥11❤2👍1
Как уследить за всеми изменениями в AI?
Сегодня пришёл вопрос от подписчика:
На самом деле, я уже в нескольких постах отсылал к эффекту FOMO(боязнь пропустить интересное) , который возникает при попытке объять весь рынок AI разом.
Этот пост – ответ на заданный вопрос.
Никак. Кукуха всё равно едет.
В силу того, что я регулярно пишу сюда, мне необходимо быть в курсе всех основных(именно основных. Не вообще всех) событий мира AI. А также глубже изучать те сферы знаний, которые мне наиболее интересны.
Вот мои источники информации по теме AI (список составлен в случайном порядке, это не топ):
1. Любое более-менее крупное перемещение тектонических плит на рынке AI тут же отражается во многих крупных каналах по теме AI. Подписки позволяют не проморгать особенно большие новости.
2. Новости от конкретных компаний также приходят мне в виде e-mail-рассылки. Она позволяет получать информацию оперативно и "из первых рук". Зачастую, даже раньше, чем о ней начнут писать другие. Все инструменты, которыми я регулярно пользуюсь(или хотя бы имею в них аккаунт) , присылают мне e-mail-рассылку с обновлениями.
3. Способ под названием "идём от практических задач". Когда планируете сделать что-то с использованием AI. Перед тем, как приступать к работе над задачей, запускаете Deep Research на выбранную тему. И просите его подобрать наиболее подходящие актуальные инструменты, отметив их плюсы и минусы. Получив список, можно копать вглубь.
4. Авторские телеграм-каналы, которые регулярно публикуют практический опыт и кейсы. Часть инструментов, которые я использую в своих проектах, я нашёл именно таким образом. Поделюсь списком в одном из следующих постов.
5. Комментарии в данном канале. Часто вы делитесь своими инструментами и подходами, которые уже испробовали в работе. Спасибо вам за это! Все упомянутые инструменты я изучаю в первую очередь, чтобы быть с вами на одной волне 🙂
6. https://arxiv.org/list/cs.AI/recent – исследования на тему AI. Каждый день публикуется не меньше сотни новых исследований. Постепенно появляется насмотренность и понимание, какие из них наиболее ценны с учётом моих интересов.
7. https://github.com/trending – тренды GitHub сейчас почти полностью состоят из продуктов для LLM или AI. Стараюсь регулярно заходить и что-то оттуда выцеплять.
8. https://openrouter.ai/rankings – Top Apps на Openrouter. В их топ-20 регулярно появляются новые интересные приложения для изучения.
На самом деле, изучать ежедневно все эти источники почти никому не нужно(бережём кукуху) . Я бы советовал всегда исходить из практических задач и сфер ваших интересов в AI. Это нормально не быть в курсе вообще всего. Выберите свои инструменты, цели в работе и начинайте изучать то, что вам необходимо для достижения целей.
Ведь действительно важные изменения в сфере AI сами постучат к вам в дверь и потребуют одежду, очки и мотоцикл... 😊
Сегодня пришёл вопрос от подписчика:
Костя, вопрос такой. Новые AI инструменты выходят сейчас чаще, чем очередные JS фреймворки год назад. Невозможно уследить. Если смотреть только за тем, что относится к конкретной области работы - уже десятки в месяц. Как быть "в теме" и при этом не уехать кукухой?
На самом деле, я уже в нескольких постах отсылал к эффекту FOMO
Этот пост – ответ на заданный вопрос.
В силу того, что я регулярно пишу сюда, мне необходимо быть в курсе всех основных
Вот мои источники информации по теме AI (список составлен в случайном порядке, это не топ):
1. Любое более-менее крупное перемещение тектонических плит на рынке AI тут же отражается во многих крупных каналах по теме AI. Подписки позволяют не проморгать особенно большие новости.
2. Новости от конкретных компаний также приходят мне в виде e-mail-рассылки. Она позволяет получать информацию оперативно и "из первых рук". Зачастую, даже раньше, чем о ней начнут писать другие. Все инструменты, которыми я регулярно пользуюсь
3. Способ под названием "идём от практических задач". Когда планируете сделать что-то с использованием AI. Перед тем, как приступать к работе над задачей, запускаете Deep Research на выбранную тему. И просите его подобрать наиболее подходящие актуальные инструменты, отметив их плюсы и минусы. Получив список, можно копать вглубь.
4. Авторские телеграм-каналы, которые регулярно публикуют практический опыт и кейсы. Часть инструментов, которые я использую в своих проектах, я нашёл именно таким образом. Поделюсь списком в одном из следующих постов.
5. Комментарии в данном канале. Часто вы делитесь своими инструментами и подходами, которые уже испробовали в работе. Спасибо вам за это! Все упомянутые инструменты я изучаю в первую очередь, чтобы быть с вами на одной волне 🙂
6. https://arxiv.org/list/cs.AI/recent – исследования на тему AI. Каждый день публикуется не меньше сотни новых исследований. Постепенно появляется насмотренность и понимание, какие из них наиболее ценны с учётом моих интересов.
7. https://github.com/trending – тренды GitHub сейчас почти полностью состоят из продуктов для LLM или AI. Стараюсь регулярно заходить и что-то оттуда выцеплять.
8. https://openrouter.ai/rankings – Top Apps на Openrouter. В их топ-20 регулярно появляются новые интересные приложения для изучения.
На самом деле, изучать ежедневно все эти источники почти никому не нужно
Ведь действительно важные изменения в сфере AI сами постучат к вам в дверь и потребуют одежду, очки и мотоцикл... 😊
1🔥22👍14❤4😁4
Помните времена, когда для качественной Flux LoRA нужно было загрузить под сотню фотографий с разными ракурсами и эмоциями? Если не помните, есть целый закреп про приключения с Flux.
В Krea и Higgsfield достаточно было уже что-то около 20-40 фотографий.
Теперь в https://ideogram.ai/ появилась возможность создания AI-аватара на базе только одной фотографии.
После регистрации на сайте доступно несколько генераций бесплатно. То есть за эту LoRA даже платить не надо, чтобы попробовать.
Фотографию лучше всего загружать в анфас, тогда Ideogram меньше искажает лицо.
Понятно, что в Krea и Higgsfield результат можно получить значительно качественнее, но здесь поражает простота. Если у вас есть качественная портретная фотография и вы бы хотели аналогичный портрет в другом антураже, то Ideogram отлично подходит под эту задачу.
Ideogram понимает, что с одной попытки супер-фотография едва ли получится, поэтому генерирует сразу по 4 изображения с одного промпта.
На сайте также есть "Templates". Это заготовки промптов, позволяющие создать с вашим AI-аватаром заранее заготовленную генерацию. Происходит это буквально в пару кликов. Правда, шаблонов не особо много. У Higgsfield, например, их значительно больше. А сами шаблоны разнообразнее и интереснее.
В Krea и Higgsfield достаточно было уже что-то около 20-40 фотографий.
Теперь в https://ideogram.ai/ появилась возможность создания AI-аватара на базе только одной фотографии.
После регистрации на сайте доступно несколько генераций бесплатно. То есть за эту LoRA даже платить не надо, чтобы попробовать.
Фотографию лучше всего загружать в анфас, тогда Ideogram меньше искажает лицо.
Понятно, что в Krea и Higgsfield результат можно получить значительно качественнее, но здесь поражает простота. Если у вас есть качественная портретная фотография и вы бы хотели аналогичный портрет в другом антураже, то Ideogram отлично подходит под эту задачу.
Ideogram понимает, что с одной попытки супер-фотография едва ли получится, поэтому генерирует сразу по 4 изображения с одного промпта.
На сайте также есть "Templates". Это заготовки промптов, позволяющие создать с вашим AI-аватаром заранее заготовленную генерацию. Происходит это буквально в пару кликов. Правда, шаблонов не особо много. У Higgsfield, например, их значительно больше. А сами шаблоны разнообразнее и интереснее.
1👍16❤12🔥9