Константин Доронин
3.88K subscribers
622 photos
317 videos
1 file
338 links
По любым вопросам, которые не хотите задавать в комментариях, можете писать напрямую – @kdoronin
Download Telegram
Помните времена, когда для качественной Flux LoRA нужно было загрузить под сотню фотографий с разными ракурсами и эмоциями? Если не помните, есть целый закреп про приключения с Flux.

В Krea и Higgsfield достаточно было уже что-то около 20-40 фотографий.

Теперь в https://ideogram.ai/ появилась возможность создания AI-аватара на базе только одной фотографии.

После регистрации на сайте доступно несколько генераций бесплатно. То есть за эту LoRA даже платить не надо, чтобы попробовать.

Фотографию лучше всего загружать в анфас, тогда Ideogram меньше искажает лицо.

Понятно, что в Krea и Higgsfield результат можно получить значительно качественнее, но здесь поражает простота. Если у вас есть качественная портретная фотография и вы бы хотели аналогичный портрет в другом антураже, то Ideogram отлично подходит под эту задачу.

Ideogram понимает, что с одной попытки супер-фотография едва ли получится, поэтому генерирует сразу по 4 изображения с одного промпта.

На сайте также есть "Templates". Это заготовки промптов, позволяющие создать с вашим AI-аватаром заранее заготовленную генерацию. Происходит это буквально в пару кликов. Правда, шаблонов не особо много. У Higgsfield, например, их значительно больше. А сами шаблоны разнообразнее и интереснее.
1👍1612🔥9
Media is too big
VIEW IN TELEGRAM
Comet – AI-браузер со встроенным AI-агентом от Perplexity.

В очередной раз благодарю сообщество Hegai за то, что получаю инвайты для тестов различных AI-продуктов.

Сегодня я получил доступ к Comet от Perplexity. И спешу к вам с небольшим (потому что "большой" в один пост не вмещается) обзором.

Самое главное – это, конечно, AI-агент для взаимодействия с браузером. Когда вам надо что-то где-то натыкать, заполнить форму, собрать корзину. То есть не просто получить данные из интернета и проанализировать их, а произвести действия на сайтах в роли оператора.

Comet – это лучший мой опыт по взаимодействию с браузерными AI-агентами на текущий момент.

Для того есть следующие причины:

1. Мне не приходится оглядываться на то, сколько там у меня токенов осталось. Я просто использую агента в браузере и он не встанет посреди задачи с заявлением "Слышь, плати!". Genspark-браузер так сделал на середине первой же задачи.

2. Он отлично понимает интерфейсы на сайтах. Включая сложные ситуации, когда нужно выбрать дату или количество продуктов для покупки.

3. Многие сервисы для управления браузером могут достаточно часто вызывать срабатывание капч. Проходить которые приходится пользователю. Что уничтожает всю магию инструмента.

4. Скорость. Comet работает на удивление быстро. Подробнее об этом – ниже.

Протестировал Comet в двух практических задачах:

1. Собрать корзину с продуктами по списку на сайте Kibsons (магазин продуктов с доставкой в ОАЭ). Список, кстати, настоящий. Я пробовал этот сценарий с другими инструментами, но их Kibsons обычно побеждал на старте работы. Comet отлично справился и сформировал корзину за 6 минут (см. скринкаст, прикреплённый к посту). Я сам потратил бы на этот процесс больше времени.

2. Подготовить к бронированию билеты для путешествия Дубай–Москва–Дубай с условием, что я хочу лететь с багажом и провести в Москве не более двух недель в конце августа или в сентябре. Comet справился с задачей за 5 минут, используя Aviasales. Могло быть ещё быстрее, но его сбила переадресация на Ostrovok, когда нажимаешь на "Найти". Пришлось вернуться на шаг назад, отжать чекбокс, открывающий Ostrovok и пройти сценарий заново (всё это AI-агент сделал сам без моего вмешательства!).

В целом, впечатления Comet оставил весьма положительные.

Есть у него и минусы:

1. Встроенный Perplexity-поиск. Неудобно, когда он всегда срабатывает в браузере по-умолчанию. Это, к счастью, можно изменить в настройках браузера.

2. Voice mode. Если кратко, то он не работает, как ожидается. Это не Джарвис, с которым можно поговорить и он за вас сделает на сайтах всё, что необходимо. Судя по всему, у него есть лишь какие-то базовые функции в духе «открыть страницу сайта», но как AI-агент он не работает.

3. Ассистент не всегда включает режим AI-агента. Если ему не указать явно, что надо зайти на сайт и работать в режиме агента, то он может собрать информацию стандартными Perplexity-инструментами и выдать её в чат. Это нужно учитывать.

4. У ассистента есть два режима – работа с текущей вкладкой и как будто с виртуальным браузером. Во втором случае не видно, что делает AI-агент. Выбора между режимами Comet не предоставляет. Думаю, что исправят этот момент и сделают взаимодействие с браузером нагляднее (как в режиме работы с текущей вкладкой).

5. Это не совсем минус, но стоит упомянуть, что Comet доступен только в платной версии Perplexity. Поэтому 500 рублей за год всё-таки придётся заплатить 🙂UPD: в комментариях подсказали, что AI-агент в Comet всё-таки работает на бесплатном аккаунте.

В целом, Comet – это отличный AI-браузер, в котором приписка AI несёт пользу. К сожалению, доступен на данный момент только по инвайту либо в подписке за $200/месяц.

У меня, к слову, есть для вас один инвайт. Уйдёт первому, кто попросит в комментариях 🙂
212👍9🔥4
Graphiti, Neo4j и MCP-сервер.

Как я писал ранее, у Graphiti есть свой MCP-сервер, который позволяет взаимодействовать с любыми сущностями, которые поддерживает фреймворк. Включая возможность удаления всего графа, да.

Запускается сервер по инструкции с официального сайта.

Я запустил сервис через SSE и подключил его к Goose. Который, кстати, не так давно обновил свой интерфейс и стал выглядеть заметно приятнее.

Для запуска Graphiti требуется указать API-ключ OpenAI и выбрать модель для работы с текстом.

Что именно делает Graphiti с графовой БД (у меня запущен neo4j):

1. Добавляет собственную структуру nodes, relationships и схемы для этих сущностей.

2. У Graphiti два типа nodes: entity, которые являются сущностями, и episodes, которые представляют собой события (действия). MCP-сервер создаёт только episodes.

3. Graphiti самостоятельно принимает решение о создании entity. Активно использует при этом OpenAI API.

4. Graphiti также самостоятельно создаёт связи между сущностями. Не без помощи OpenAI API, да.

5. Внутри entity есть embedding-поле для упрощения поиска по графу. Его создают через эмбеддер OpenAI.

Фактически, в Graphiti передаётся поток событий из внешнего мира. Система самостоятельно принимает решение о том, как именно вписать случившееся в текущую структуру графа.

Учитывая частое использование внешнего API от OpenAI, новые сущности через Graphiti создаются асинхронно и с задержкой. Это нужно учитывать при взаимодействии с системой в продакшне.

Чтобы граф получился жизнеспособным, необходимо сформировать структуру передаваемых сообщений и строго её придерживаться. Это позволит системе однозначно определить ситуации, когда эпизод относится к конкретной сущности.
28👍5🔥2
Сегодня вышел Runway Aleph.

Вообще, я достаточно мало взаимодействую с Runway. Генерации от других моделей, как правило, мне нравятся больше.

В Runway я захожу чтобы расширить кадр или в очередной раз убедиться, что мой кейс по генерации он не решит лучше, чем другие модели. Возможно, я просто не умею его готовить, но факт остаётся фактом.

Сегодня вышел Aleph. Это video-to-video модель, которая позволяет при помощи промпта изменить видео. Можно поменять стиль, освещение, погоду, элементы на видео, окружение и многое другое.

Более того – к видео можно добавить референсное изображение, чтобы использовать его при редактировании видео.

В текстовых LLM от корпораций каждая новая большая модель – это "лучшая модель в мире на сегодняшний день".

С AI-видео даже от крупных игроков такого правила нет. Aleph в некоторых моментах может превосходить конкурентов, но он является дополением к инструментам, а не заменой какого-то из текущих.

Плюсы нового Aleph:

1. Позволяет изменять видео при помощи промпта. Это усиление контроля за генерацией, а контроль лишним точно не будет.

2. Понимание промпта у Aleph достаточно хорошее, что позволяет отредактировать видео таким образом, чтобы сделать его как можно меньше похожим на сгенерированное.

3. Вместе с моделью выпустили достаточно подробный гайд по промптингу новой модели. Интересно, что все примеры промптов там весьма немногословны.

Теперь про минусы:

1. Максимальная длина видео – 5 секунд. Как будто бы из изображения можно сгенерировать большинство 5-секундных видео с высокой степенью качества.

2. Цена. За 5 секунд придётся выложить 75 кредитов. Это значит, что за месячную подписку в $15 получится сгенерировать только 8 видео. Это достаточно дорогое предложение. Kling даёт сгенерировать 12 видео с использованием Elements на тарифе за $8.8/Month.

3. Динамические сцены Aleph обрабатывает неидеально. В качестве примера посмотрите на генерацию велозаезда в джунглях.

Вывод: хорошо, что появился ещё один инструмент для работы с AI-видео. Чем больше есть возможностей для контролируемого редактирования AI-видео, тем быстрее будет развиваться направление по созданию профессионального AI-контента. Но ограничения в Runway всё-таки слишком сильные. Я бы хотел иметь возможность работать хотя бы с 10-секундными видео.
2👍103🔥3🥰2
О том, как AI-сервисы решают задачи, которые невыгодно решать новостным порталам.

Сегодня у меня с другом состоялся интересный диалог на тему новостей и их сбора.

В результате беседы появился запрос на агрегатор новостей, который будет предоставлять действительно важные (индивидуально для пользователя) новости, а не публиковать всё подряд лишь бы забить ленту.

Решением для этой задачи могут быть, например, задания в Preplexity. Это решение я и предложил.

1. https://www.perplexity.ai/account/tasks?tab=scheduled – идём сюда.

2. Нажимаем на кнопку для добавления нового задания.

3. В инструкции пишем промпт. Например, вот такой (не забудьте установить все параметры):

# Роль и цель
Ты — мой персональный новостной редактор. Твоя задача —
собрать и структурировать самые важные новости за {{period}}
с учётом моих приоритетов.

# Параметры фильтрации
Тематики: {{topics}} # пример: «AI, криптовалюты, спорт»
География: {{regions}} # ISO-коды стран или названия регионов
Важность:
- Критично: {{critical_keywords}}
- Важно: {{important_keywords}}
- Полезно: {{nice_to_have}}

# Настройка количества
max_news_total: {{max_news_total}} # общий лимит, например 15
max_critical: {{max_critical}} # напр. 5
max_important: {{max_important}} # напр. 5
max_useful: {{max_useful}} # напр. 5

# Технические настройки Deep Research
- mode: Deep Research
- date_range: {{date_range}} # «-24h», «7d» …
- reasoning_effort: {{reasoning_effort}}# low | medium | high
- web_search_options:
user_location: {{user_location}} # {"country":"AE"} или coords
search_context_size: {{context}} # low | medium | high
- search_domain_filter: {{domain_filter}}

# Правила отбора и ранжирования
1. Игнорируй источники без точной даты публикации.
2. Подтверждай каждый факт минимум двумя независимыми источниками.
3. Соблюдай лимиты: не превышай max_news_total и максимум для каждой категории.
4. Сначала выводи «Критично», затем «Важно», затем «Полезно».
5. Для каждой новости:
- Заголовок (до 90 симв.)
- Дата (ISO-8601)
- География
- 1-2 предложения резюме
- Причина важности (1 предл.)
- Ссылки (2-3 шт.)

# Выходной формат
### {{категория}} — {{n}}/{{max_{категория}}}
1. **{{Заголовок}}** — {{Дата}}
- {{Резюме}}
- Причина важности: {{…}}
- Источники: {{URL1}}, {{URL2}}

После всех категорий укажи итог: «Всего статей: {{total}} (Критично — {{n_crit}}, Важно — {{n_imp}}, Полезно — {{n_use}})».
Если релевантных новостей нет — напиши «Ничего критичного не найдено».


4. Настраиваем периодичность и время выполнения задания (например, получать новости каждый день с утра).

5. В качестве режима можно выбрать "Исследование", так как он позволяет глубже проанализировать источники, а лимиты у платного Perplexity достаточно щедрые.

6. Сохраняем задачу и получаем регулярно свежие новости по вашим предпочтениям. Если вдруг в список попала какая-то ненужная новость (или не попала нужная), всегда можно доработать фильтры в промпте, чтобы фид был наиболее подходящим для вас.

Если у вас всё ещё нет премиум-версии Perplexity, идём сюда и получаем Pro-версию на год за плюс-минус 500 рублей. Оплатить можно с российской карты, пользоваться самим Perplexity можно, в том числе, с территории РФ.

Если вам полезны подобные мини-гайды с практическим результатом, который можно получить сразу и без глубоких технических знаний, поставьте 🔥. Чтобы я понимал, что иногда их стоит публиковать. На периодичность выхода более узкоспециализированных и глубоких материалов такие гайды не повлияют 🙂
9🔥75👏8👍522
Вот и первые ласточки голуби вайб-кодинга прилетают.

Чуть меньше года назад, 16 августа 2024-го, я впервые написал в этом канале про Cursor. За прошедший год рынок AI-IDE вырос в несколько десятков (если не сотен) раз.

Сегодня я впервые столкнулся с ситуацией, когда ко мне пришёл человек и попросил помочь с его навайбкоженным проектом.

Проект – небольшой сайт для бизнеса. 10-15 страниц + небольшой конструктор товаров. Сделанный "по образу и подобию" сайта Mercedes (если честно, не похож).

Несёт в себе целую пачку артефактов истинного вайб-кодинга:

1. Кнопки и навигация в Header работает только на главной. На остальных страницах – битые ссылки.

2. "Вот здесь сначала был корректный блок, в точности как у Мерседеса, а потом разработчик его зачем-то убрал" © Владелец компании

3. Неожиданные AI-generated изображения с автомобилями. Сайт, к слову, не про автомобили.

4. Надписи "Белым по белому".

5. Полуработающие блоки, которые не несут полезной информации для пользователя и заполнены "рыбой".

6. На сайте американской компании в HTML-коде главной страницы красуются комментарии на русском языке...

Соглашусь – часть из описанных выше проблем существуют и просто в «некачественном аутсорсе». Однако собрать весь набор может только избранный истинный вайб-кодер.

Владелец компании, конечно, не в курсе, что такое вайб-кодинг и что с сайтом сотворил "разработчик". Он считает, что завершить проект помешал языковой барьер...

Что хочу сказать по этому поводу:

1. Разработчики, которые изучали AI-coding вместо Vibe-coding, время "переделайте нам не работающий после вайбкодеров проект" пришло.

2. Если у вас уже были подобные истории с "навайбкоженным" проектом – делитесь в комментариях 🙂

3. Владельцы бизнеса и менеджеры, если вы оказались в ситуации, похожей на то, что описано в посте, напишите мне. Помогу с решением проблем.

4. Если желаете что-то узнать/понять/внедрить про AI-coding, также пишите.
2🔥13👍54
3 дня назад вышел Qwen CLI!

Звучит-то как, да? На самом деле, ребята из Alibaba сказали «Мы признаём и ценим отличную работу команды Gemini CLI», сделали форк репозитория (китайский Gemini CLI, ага) и назвали его Qwen Code.

Всё, что они сделали от себя на данный момент – оптимизировали работу с инструментом под Qwen3-Coder.

Удивительно, но этот ход сработал. Приложение "Qwen Code" вышло на 13-е место в сегодняшнем рейтинге приложений на Openrouter.

Множество разработчиков по всему миру попробовали модель Qwen3 Coder через Qwen Code и, возможно, добавили инструмент в свой пайплайн разработки.

Я тоже поставил Qwen Code и попробовал закинуть в него достаточно общую и большую задачу: "Создай полноценный e-commerce dashboard для администратора". Выполнение запустил вообще без промежуточного контроля.

Сперва Qwen пытался сделать всё "по-взрослому". Попробовал настроить билд, подключить несколько внешних npm-пакетов, разделил всё по компонентам... Но так и не смог собрать работающий проект. Что логично, так как инструментов для доступа к актуальной документации и версиям пакетов у него из коробки нет.

После чего AI-агент решил, что дело гиблое и решил всё переделать без билдов.

Три файла: index.html, style.css, main.js. AI, познавший дзен. В такой конфигурации Qwen Code сумел-таки собрать весьма симпатичный и правдоподобный дашборд (скриншоты прилагаю к посту).

Но дело тут совсем не в тестовой html-странице, которая вскоре будет забыта. Qwen3 Coder дешевле, чем Claude 4 Sonnet примерно в 10 раз. То есть, если встроить Qwen Code в пайплайн для выполнения наиболее простых работ по коду, можно получить неплохую выгоду в стоимости генерации.

Ещё одна причина, почему подход AI-Coding лучше, чем Vibe Coding. Когда весь процесс создания ПО прозрачен и проработан, появлятся возможность выполнять часть задач дешевле. Например, за счёт использования менее дорогой (но всё ещё подходящей под задачу) модели.
4👍153🔥3
SuperClaude прокачает ваш Claude Code.

Началось всё с комментария к одному из моих постов:
superclaude > all IDEs


Фактически, SuperClaude – это фреймворк, который расширяет возможности Claude Code при помощи кастомных AI-агентовSuperClaude они зовутся Personas, их 9 шт.) и команд (19 шт).

Создавали инструменты, следуя лучшим принципам разработки ПО. Используемые принципы можно изучить по ссылке.

Помимо персон и команд, у SuperClaude есть целый набор флагов, с помощью которых можно уточнить команду для LLM.

SuperClaude также требует установки четырёх MCP-серверов:

1. Context7 для доступа к актуальной документации.

2. Sequential для лучшего мыслительного процесса.

3. Magic для создания UI.

4. Playwright (на лендинге SuperClaude устаревшая информация о том, что для тестов они используют Puppeteer, но от него уже отказались из-за прекращения поддержки) для тестов на стороне клиента.

Чтобы добавить все эти MCP-сервера в Claude, достаточно добавить в ваш глобальный файл .claude.json (вбейте в Claude Code команду `/mcp` и он выведет ссылку на глобальный файл) следующий объект:

"mcpServers": {
"sequential-thinking": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sequential-thinking"
],
"env": {}
},
"context7": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@upstash/context7-mcp@latest"
],
"env": {}
},
"magic": {
"type": "stdio",
"command": "npx",
"args": [
"@21st-dev/magic@latest"
],
"env": {
"API_KEY": "API_KEY" #не забудьте заменить на корректное значение
}
},
"playwright": {
"type": "stdio",
"command": "npx",
"args": [
"@playwright/mcp@latest"
],
"env": {}
}
}

Из всех MCP-серверов только Magic MCP требует API-ключа. Получить его можно здесь.

Ссылка на валидную инструкцию по установке SuperClaude (ссылка с якорем и переводит вас сразу на нужную часть страницы). Оставляю её, потому что в процессе изучения инструмента обнаружил ещё две альтернативные инструкции.

После успешной установки SuperClaude, в интерфейсе Claude Code должны появиться команды, начинающиеся с /sc:.

Перед началом работы с SuperClaude также обязательно проверьте, что все 4 необходимых mcp-сервера подключены корректно и доступны для Claude Code. Сделать это можно через команду /mcp.

Ещё пара полезных ссылок по SuperClaude:

1. В папке Core репозитория хранятся md-файлы с описанием всех основных концепций SuperClaude.

2. В папке Commands есть детальная информация по каждой кастомной команде, включая поддерживаемые аргументы и текстовое описание о том, для чего применять ту или иную команду.

Пока что я изучаю все возможности и только начал тестировать SuperClaude на реальных задачах. Очень интересный фреймворк, но для того, чтобы использовать его на все 100%, потребуется некоторое время на освоение его инструментов и концепций.
521🔥6👍5
В моём представлении, лучше всего Graphiti себя покажет в задаче визуализации взаимодействий между людьми.

Когда у нас есть некая система, в рамках которой люди инициируют те самые "события" для Graphiti.

Поэтому я написал небольшого TG-бота, который все полученные сообщения отправляет в Graphiti.

Можете написать ему что-нибудь и он добавит информацию в граф. Также я ненадолго (скорее всего, на сутки) добавил бота в чат канала. Так что комментарии тоже будут обработаны и поучаствуют в построении графа.

Заранее спасибо всем участникам эксперимента! В одном из следующих постов обязательно расскажу про то, какой у нас граф получился. Особенно интересно увидеть те сущности, которые Graphiti выделит из наших взаимодействий.
1👍64🔥3
Про взлом топа Openrouter, как способ привлечения новых пользователей.

В посте про источники знаний о новинках AI я рассказывал, что рейтинги Openrouter – отличный способ узнавать о новых популярных AI-приложениях.

Несколько дней назад я обнаружил в Top-20 приложений Kilo Code (не путать с Kiro от Amazon). Это очередная AI-IDE.

В рейтинге за сегодня Kilo Code занимает уже первое место, сместив даже Roo Code, который очень хорош (пример с кейсом).

Неужели кто-то предложил на рынке AI IDE что-то кардинально-новое и процесс AI-coding не будет прежним?

Что-то новое действительно есть, но вот только не в AI-Coding.

Kilo Code решили перераспределить бюджеты на маркетинг. И вместо расходов на рекламную кампанию, они просто раздают каждому вновь зарегистрировавшемуся пользователю по $20 на Openrouter.

Естественно, это вызвало всплеск популярности Kilo Code. Думаю, что не столько благодаря широкой аудитории, сколько из-за ушлых ребят, которые заводят сотни аккаунтов и выгребают халявные токены.

Судя по Leaderboard, выгребают за день 56,2 миллиарда токенов. Правда, судя по тенденциям использования, с каждым днём всё больше токенов тратят на модель Horizon Beta. Дело в том, что модель бесплатная. И на неё пользователи переходят после того, как закончатся $20 за регистрацию.

Что же это за AI IDE, спросите вы? В целом, ничем не примечательная копия Cursor/Roo Code. В чём-то чуть лучше, в чём-то чуть хуже. Новых идей за пределами маркетинга мною замечено не было. Но обещают глубокую кастомизацию, что радует.

Так что можно себе поставить и, как минимум, потратить халявные $20 с Openrouter.
17👍4🔥4
Чат для взаимодействия с AI-продуктом – это, чаще всего, плохое решение.

Что такое продукт с AI? Это приложение+инфраструктура, построенные для того, чтобы скармливать самый эффективный промпт в наиболее подходящую для решения задачи модель.

Всё это делается, чтобы получить качественный ответ. Качество ответа при этом должно однозначно интерпретироваться и, в идеале, иметь дискретное представление (например, оценка от 0 до 10).

Метрики качества ответов необходимо отслеживать постоянно, чтобы вовремя отреагировать на ухудшение качества в ваших сценариях.

Так вот. Дать возможность пользователю через чат вводить промпт – это перекладывание ответственности за качество ответа на пользователя.

Для разработчиков моделей такой подход может быть оправдан. Особенно если это модель "общего назначения".

Почти во всех других случаях нужно избавлять пользователя от необходимости вводить промпт. Потому что пользователь платит вам не за возможность взаимодействовать с вашим AI-приложением, а за то, как оно работает. И ему совершенно неинтересно, что ответ получился плохим из-за того, что он неправильно сформулировал свой промпт.

Примеры того, как пользователя избавляют от необходимости самостоятельно "промптить" AI-продукт:

1. Higgsfield совсем не настаивает на том, чтобы вы вводили промпт при генерации их AI-фотографий. Выбираете модель, стиль фото и нажимаете "генерировать". На выходе получаются отличные фотографии, которые с радостью выкладывают в Instagram, создавая приток новых пользователей в продукт.

2. Kiro от Amazon. Помните, как они предлагают создавать AI-агентов и документацию для проекта? Поле ввода в одну строку (запрашивают "хотелку" пользователя, а не промпт), которое генерирует полноценные документы для выстраивания корректного рабочего процесса по AI-Coding. Далее в том же интерфейсе нажимаем на кнопки "Взять задачу в работу" у нужной задачи и ждём, пока Kiro всё сделает.

3. Vidu и "Режим Pro" для формирования промптов. Система самостоятельно анализирует изображения, поданные на вход и придумывает промпт-сценарий. Который, при желании, можно поправить и сгенерировать корректный промпт вновь.

Какие примеры ухода от «промптинга» и чата в успешных AI-продуктах знаете вы? Буду рад почитать про примеры в комментариях 😊
2👍11🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Прошла презентация, на которой представили ChatGPT-5.

За последние пару дней я прочитал достаточно много отзывов от тех, кто уже протестировал новую модель.

Прочитанное всколыхнуло во мне воспоминания об одном скандальном видео из 2012 года.

Сделал для вас AI-видеопародию, которая прекрасно описывает ситуацию с ChatGPT-5 🙂
1😁164🔥3