Сегодня вышел Runway Aleph.
Вообще, я достаточно мало взаимодействую с Runway. Генерации от других моделей, как правило, мне нравятся больше.
В Runway я захожу чтобы расширить кадр или в очередной раз убедиться, что мой кейс по генерации он не решит лучше, чем другие модели. Возможно, я просто не умею его готовить, но факт остаётся фактом.
Сегодня вышел Aleph. Это video-to-video модель, которая позволяет при помощи промпта изменить видео. Можно поменять стиль, освещение, погоду, элементы на видео, окружение и многое другое.
Более того – к видео можно добавить референсное изображение, чтобы использовать его при редактировании видео.
В текстовых LLM от корпораций каждая новая большая модель – это "лучшая модель в мире на сегодняшний день".
С AI-видео даже от крупных игроков такого правила нет. Aleph в некоторых моментах может превосходить конкурентов, но он является дополением к инструментам, а не заменой какого-то из текущих.
Плюсы нового Aleph:
1. Позволяет изменять видео при помощи промпта. Это усиление контроля за генерацией, а контроль лишним точно не будет.
2. Понимание промпта у Aleph достаточно хорошее, что позволяет отредактировать видео таким образом, чтобы сделать его как можно меньше похожим на сгенерированное.
3. Вместе с моделью выпустили достаточно подробный гайд по промптингу новой модели. Интересно, что все примеры промптов там весьма немногословны.
Теперь про минусы:
1. Максимальная длина видео – 5 секунд. Как будто бы из изображения можно сгенерировать большинство 5-секундных видео с высокой степенью качества.
2. Цена. За 5 секунд придётся выложить 75 кредитов. Это значит, что за месячную подписку в $15 получится сгенерировать только 8 видео. Это достаточно дорогое предложение. Kling даёт сгенерировать 12 видео с использованием Elements на тарифе за $8.8/Month.
3. Динамические сцены Aleph обрабатывает неидеально. В качестве примера посмотрите на генерацию велозаезда в джунглях.
Вывод: хорошо, что появился ещё один инструмент для работы с AI-видео. Чем больше есть возможностей для контролируемого редактирования AI-видео, тем быстрее будет развиваться направление по созданию профессионального AI-контента. Но ограничения в Runway всё-таки слишком сильные. Я бы хотел иметь возможность работать хотя бы с 10-секундными видео.
Вообще, я достаточно мало взаимодействую с Runway. Генерации от других моделей, как правило, мне нравятся больше.
В Runway я захожу чтобы расширить кадр или в очередной раз убедиться, что мой кейс по генерации он не решит лучше, чем другие модели. Возможно, я просто не умею его готовить, но факт остаётся фактом.
Сегодня вышел Aleph. Это video-to-video модель, которая позволяет при помощи промпта изменить видео. Можно поменять стиль, освещение, погоду, элементы на видео, окружение и многое другое.
Более того – к видео можно добавить референсное изображение, чтобы использовать его при редактировании видео.
В текстовых LLM от корпораций каждая новая большая модель – это "лучшая модель в мире на сегодняшний день".
С AI-видео даже от крупных игроков такого правила нет. Aleph в некоторых моментах может превосходить конкурентов, но он является дополением к инструментам, а не заменой какого-то из текущих.
Плюсы нового Aleph:
1. Позволяет изменять видео при помощи промпта. Это усиление контроля за генерацией, а контроль лишним точно не будет.
2. Понимание промпта у Aleph достаточно хорошее, что позволяет отредактировать видео таким образом, чтобы сделать его как можно меньше похожим на сгенерированное.
3. Вместе с моделью выпустили достаточно подробный гайд по промптингу новой модели. Интересно, что все примеры промптов там весьма немногословны.
Теперь про минусы:
1. Максимальная длина видео – 5 секунд. Как будто бы из изображения можно сгенерировать большинство 5-секундных видео с высокой степенью качества.
2. Цена. За 5 секунд придётся выложить 75 кредитов. Это значит, что за месячную подписку в $15 получится сгенерировать только 8 видео. Это достаточно дорогое предложение. Kling даёт сгенерировать 12 видео с использованием Elements на тарифе за $8.8/Month.
3. Динамические сцены Aleph обрабатывает неидеально. В качестве примера посмотрите на генерацию велозаезда в джунглях.
Вывод: хорошо, что появился ещё один инструмент для работы с AI-видео. Чем больше есть возможностей для контролируемого редактирования AI-видео, тем быстрее будет развиваться направление по созданию профессионального AI-контента. Но ограничения в Runway всё-таки слишком сильные. Я бы хотел иметь возможность работать хотя бы с 10-секундными видео.
2👍10❤3🔥3🥰2
О том, как AI-сервисы решают задачи, которые невыгодно решать новостным порталам.
Сегодня у меня с другом состоялся интересный диалог на тему новостей и их сбора.
В результате беседы появился запрос на агрегатор новостей, который будет предоставлять действительно важные (индивидуально для пользователя) новости, а не публиковать всё подряд лишь бы забить ленту.
Решением для этой задачи могут быть, например, задания в Preplexity. Это решение я и предложил.
1. https://www.perplexity.ai/account/tasks?tab=scheduled – идём сюда.
2. Нажимаем на кнопку для добавления нового задания.
3. В инструкции пишем промпт. Например, вот такой (не забудьте установить все параметры):
4. Настраиваем периодичность и время выполнения задания (например, получать новости каждый день с утра).
5. В качестве режима можно выбрать "Исследование", так как он позволяет глубже проанализировать источники, а лимиты у платного Perplexity достаточно щедрые.
6. Сохраняем задачу и получаем регулярно свежие новости по вашим предпочтениям. Если вдруг в список попала какая-то ненужная новость (или не попала нужная), всегда можно доработать фильтры в промпте, чтобы фид был наиболее подходящим для вас.
Если у вас всё ещё нет премиум-версии Perplexity, идём сюда и получаем Pro-версию на год за плюс-минус 500 рублей. Оплатить можно с российской карты, пользоваться самим Perplexity можно, в том числе, с территории РФ.
Если вам полезны подобные мини-гайды с практическим результатом, который можно получить сразу и без глубоких технических знаний, поставьте 🔥. Чтобы я понимал, что иногда их стоит публиковать. На периодичность выхода более узкоспециализированных и глубоких материалов такие гайды не повлияют 🙂
Сегодня у меня с другом состоялся интересный диалог на тему новостей и их сбора.
В результате беседы появился запрос на агрегатор новостей, который будет предоставлять действительно важные (индивидуально для пользователя) новости, а не публиковать всё подряд лишь бы забить ленту.
Решением для этой задачи могут быть, например, задания в Preplexity. Это решение я и предложил.
1. https://www.perplexity.ai/account/tasks?tab=scheduled – идём сюда.
2. Нажимаем на кнопку для добавления нового задания.
3. В инструкции пишем промпт. Например, вот такой (не забудьте установить все параметры):
# Роль и цель
Ты — мой персональный новостной редактор. Твоя задача —
собрать и структурировать самые важные новости за {{period}}
с учётом моих приоритетов.
# Параметры фильтрации
Тематики: {{topics}} # пример: «AI, криптовалюты, спорт»
География: {{regions}} # ISO-коды стран или названия регионов
Важность:
- Критично: {{critical_keywords}}
- Важно: {{important_keywords}}
- Полезно: {{nice_to_have}}
# Настройка количества
max_news_total: {{max_news_total}} # общий лимит, например 15
max_critical: {{max_critical}} # напр. 5
max_important: {{max_important}} # напр. 5
max_useful: {{max_useful}} # напр. 5
# Технические настройки Deep Research
- mode: Deep Research
- date_range: {{date_range}} # «-24h», «7d» …
- reasoning_effort: {{reasoning_effort}}# low | medium | high
- web_search_options:
user_location: {{user_location}} # {"country":"AE"} или coords
search_context_size: {{context}} # low | medium | high
- search_domain_filter: {{domain_filter}}
# Правила отбора и ранжирования
1. Игнорируй источники без точной даты публикации.
2. Подтверждай каждый факт минимум двумя независимыми источниками.
3. Соблюдай лимиты: не превышай max_news_total и максимум для каждой категории.
4. Сначала выводи «Критично», затем «Важно», затем «Полезно».
5. Для каждой новости:
- Заголовок (до 90 симв.)
- Дата (ISO-8601)
- География
- 1-2 предложения резюме
- Причина важности (1 предл.)
- Ссылки (2-3 шт.)
# Выходной формат
### {{категория}} — {{n}}/{{max_{категория}}}
1. **{{Заголовок}}** — {{Дата}}
- {{Резюме}}
- Причина важности: {{…}}
- Источники: {{URL1}}, {{URL2}}
После всех категорий укажи итог: «Всего статей: {{total}} (Критично — {{n_crit}}, Важно — {{n_imp}}, Полезно — {{n_use}})».
Если релевантных новостей нет — напиши «Ничего критичного не найдено».
4. Настраиваем периодичность и время выполнения задания (например, получать новости каждый день с утра).
5. В качестве режима можно выбрать "Исследование", так как он позволяет глубже проанализировать источники, а лимиты у платного Perplexity достаточно щедрые.
6. Сохраняем задачу и получаем регулярно свежие новости по вашим предпочтениям. Если вдруг в список попала какая-то ненужная новость (или не попала нужная), всегда можно доработать фильтры в промпте, чтобы фид был наиболее подходящим для вас.
Если у вас всё ещё нет премиум-версии Perplexity, идём сюда и получаем Pro-версию на год за плюс-минус 500 рублей. Оплатить можно с российской карты, пользоваться самим Perplexity можно, в том числе, с территории РФ.
Если вам полезны подобные мини-гайды с практическим результатом, который можно получить сразу и без глубоких технических знаний, поставьте 🔥. Чтобы я понимал, что иногда их стоит публиковать. На периодичность выхода более узкоспециализированных и глубоких материалов такие гайды не повлияют 🙂
9🔥75👏8👍5⚡2❤2
Вот и первые ласточки голуби вайб-кодинга прилетают.
Чуть меньше года назад, 16 августа 2024-го, я впервые написал в этом канале про Cursor. За прошедший год рынок AI-IDE вырос в несколько десятков (если не сотен) раз.
Сегодня я впервые столкнулся с ситуацией, когда ко мне пришёл человек и попросил помочь с его навайбкоженным проектом.
Проект – небольшой сайт для бизнеса. 10-15 страниц + небольшой конструктор товаров. Сделанный "по образу и подобию" сайта Mercedes(если честно, не похож) .
Несёт в себе целую пачку артефактов истинного вайб-кодинга:
1. Кнопки и навигация в Header работает только на главной. На остальных страницах – битые ссылки.
2. "Вот здесь сначала был корректный блок, в точности как у Мерседеса, а потом разработчик его зачем-то убрал" © Владелец компании
3. Неожиданные AI-generated изображения с автомобилями. Сайт, к слову, не про автомобили.
4. Надписи "Белым по белому".
5. Полуработающие блоки, которые не несут полезной информации для пользователя и заполнены "рыбой".
6. На сайте американской компании в HTML-коде главной страницы красуются комментарии на русском языке...
Соглашусь – часть из описанных выше проблем существуют и просто в «некачественном аутсорсе». Однако собрать весь набор может толькоизбранный истинный вайб-кодер.
Владелец компании, конечно, не в курсе, что такое вайб-кодинг и что с сайтом сотворил "разработчик". Он считает, что завершить проект помешал языковой барьер...
Что хочу сказать по этому поводу:
1. Разработчики, которые изучали AI-coding вместо Vibe-coding, время "переделайте нам не работающий после вайбкодеров проект" пришло.
2. Если у вас уже были подобные истории с "навайбкоженным" проектом – делитесь в комментариях 🙂
3. Владельцы бизнеса и менеджеры, если вы оказались в ситуации, похожей на то, что описано в посте, напишите мне. Помогу с решением проблем.
4. Если желаете что-то узнать/понять/внедрить про AI-coding, также пишите.
Чуть меньше года назад, 16 августа 2024-го, я впервые написал в этом канале про Cursor. За прошедший год рынок AI-IDE вырос в несколько десятков (если не сотен) раз.
Сегодня я впервые столкнулся с ситуацией, когда ко мне пришёл человек и попросил помочь с его навайбкоженным проектом.
Проект – небольшой сайт для бизнеса. 10-15 страниц + небольшой конструктор товаров. Сделанный "по образу и подобию" сайта Mercedes
Несёт в себе целую пачку артефактов истинного вайб-кодинга:
1. Кнопки и навигация в Header работает только на главной. На остальных страницах – битые ссылки.
2. "Вот здесь сначала был корректный блок, в точности как у Мерседеса, а потом разработчик его зачем-то убрал" © Владелец компании
3. Неожиданные AI-generated изображения с автомобилями. Сайт, к слову, не про автомобили.
4. Надписи "Белым по белому".
5. Полуработающие блоки, которые не несут полезной информации для пользователя и заполнены "рыбой".
6. На сайте американской компании в HTML-коде главной страницы красуются комментарии на русском языке...
Соглашусь – часть из описанных выше проблем существуют и просто в «некачественном аутсорсе». Однако собрать весь набор может только
Владелец компании, конечно, не в курсе, что такое вайб-кодинг и что с сайтом сотворил "разработчик". Он считает, что завершить проект помешал языковой барьер...
Что хочу сказать по этому поводу:
1. Разработчики, которые изучали AI-coding вместо Vibe-coding, время "переделайте нам не работающий после вайбкодеров проект" пришло.
2. Если у вас уже были подобные истории с "навайбкоженным" проектом – делитесь в комментариях 🙂
3. Владельцы бизнеса и менеджеры, если вы оказались в ситуации, похожей на то, что описано в посте, напишите мне. Помогу с решением проблем.
4. Если желаете что-то узнать/понять/внедрить про AI-coding, также пишите.
2🔥13👍5❤4
3 дня назад вышел Qwen CLI!
Звучит-то как, да? На самом деле, ребята из Alibaba сказали «Мы признаём и ценим отличную работу команды Gemini CLI», сделали форк репозитория (китайский Gemini CLI, ага) и назвали его Qwen Code.
Всё, что они сделали от себя на данный момент – оптимизировали работу с инструментом под Qwen3-Coder.
Удивительно, но этот ход сработал. Приложение "Qwen Code" вышло на 13-е место в сегодняшнем рейтинге приложений на Openrouter.
Множество разработчиков по всему миру попробовали модель Qwen3 Coder через Qwen Code и, возможно, добавили инструмент в свой пайплайн разработки.
Я тоже поставил Qwen Code и попробовал закинуть в него достаточно общую и большую задачу: "Создай полноценный e-commerce dashboard для администратора". Выполнение запустил вообще без промежуточного контроля.
Сперва Qwen пытался сделать всё "по-взрослому". Попробовал настроить билд, подключить несколько внешних npm-пакетов, разделил всё по компонентам... Но так и не смог собрать работающий проект. Что логично, так как инструментов для доступа к актуальной документации и версиям пакетов у него из коробки нет.
После чего AI-агент решил, что дело гиблое и решил всё переделать без билдов.
Три файла: index.html, style.css, main.js. AI, познавший дзен. В такой конфигурации Qwen Code сумел-таки собрать весьма симпатичный и правдоподобный дашборд (скриншоты прилагаю к посту).
Но дело тут совсем не в тестовой html-странице, которая вскоре будет забыта. Qwen3 Coder дешевле, чем Claude 4 Sonnet примерно в 10 раз. То есть, если встроить Qwen Code в пайплайн для выполнения наиболее простых работ по коду, можно получить неплохую выгоду в стоимости генерации.
Ещё одна причина, почему подход AI-Coding лучше, чем Vibe Coding. Когда весь процесс создания ПО прозрачен и проработан, появлятся возможность выполнять часть задач дешевле. Например, за счёт использования менее дорогой (но всё ещё подходящей под задачу) модели.
Звучит-то как, да? На самом деле, ребята из Alibaba сказали «Мы признаём и ценим отличную работу команды Gemini CLI», сделали форк репозитория (китайский Gemini CLI, ага) и назвали его Qwen Code.
Всё, что они сделали от себя на данный момент – оптимизировали работу с инструментом под Qwen3-Coder.
Удивительно, но этот ход сработал. Приложение "Qwen Code" вышло на 13-е место в сегодняшнем рейтинге приложений на Openrouter.
Множество разработчиков по всему миру попробовали модель Qwen3 Coder через Qwen Code и, возможно, добавили инструмент в свой пайплайн разработки.
Я тоже поставил Qwen Code и попробовал закинуть в него достаточно общую и большую задачу: "Создай полноценный e-commerce dashboard для администратора". Выполнение запустил вообще без промежуточного контроля.
Сперва Qwen пытался сделать всё "по-взрослому". Попробовал настроить билд, подключить несколько внешних npm-пакетов, разделил всё по компонентам... Но так и не смог собрать работающий проект. Что логично, так как инструментов для доступа к актуальной документации и версиям пакетов у него из коробки нет.
После чего AI-агент решил, что дело гиблое и решил всё переделать без билдов.
Три файла: index.html, style.css, main.js. AI, познавший дзен. В такой конфигурации Qwen Code сумел-таки собрать весьма симпатичный и правдоподобный дашборд (скриншоты прилагаю к посту).
Но дело тут совсем не в тестовой html-странице, которая вскоре будет забыта. Qwen3 Coder дешевле, чем Claude 4 Sonnet примерно в 10 раз. То есть, если встроить Qwen Code в пайплайн для выполнения наиболее простых работ по коду, можно получить неплохую выгоду в стоимости генерации.
Ещё одна причина, почему подход AI-Coding лучше, чем Vibe Coding. Когда весь процесс создания ПО прозрачен и проработан, появлятся возможность выполнять часть задач дешевле. Например, за счёт использования менее дорогой (но всё ещё подходящей под задачу) модели.
4👍15❤3🔥3
SuperClaude прокачает ваш Claude Code.
Началось всё с комментария к одному из моих постов:
Фактически, SuperClaude – это фреймворк, который расширяет возможности Claude Code при помощи кастомных AI-агентов(у SuperClaude они зовутся Personas, их 9 шт.) и команд (19 шт).
Создавали инструменты, следуя лучшим принципам разработки ПО. Используемые принципы можно изучить по ссылке.
Помимо персон и команд, у SuperClaude есть целый набор флагов, с помощью которых можно уточнить команду для LLM.
SuperClaude также требует установки четырёх MCP-серверов:
1. Context7 для доступа к актуальной документации.
2. Sequential для лучшего мыслительного процесса.
3. Magic для создания UI.
4. Playwright (на лендинге SuperClaude устаревшая информация о том, что для тестов они используют Puppeteer, но от него уже отказались из-за прекращения поддержки) для тестов на стороне клиента.
Чтобы добавить все эти MCP-сервера в Claude, достаточно добавить в ваш глобальный файл(вбейте в Claude Code команду `/mcp` и он выведет ссылку на глобальный файл) следующий объект:
Из всех MCP-серверов только Magic MCP требует API-ключа. Получить его можно здесь.
Ссылка на валидную инструкцию по установке SuperClaude (ссылка с якорем и переводит вас сразу на нужную часть страницы). Оставляю её, потому что в процессе изучения инструмента обнаружил ещё две альтернативные инструкции.
После успешной установки SuperClaude, в интерфейсе Claude Code должны появиться команды, начинающиеся с
Перед началом работы с SuperClaude также обязательно проверьте, что все 4 необходимых mcp-сервера подключены корректно и доступны для Claude Code. Сделать это можно через команду
Ещё пара полезных ссылок по SuperClaude:
1. В папке Core репозитория хранятся md-файлы с описанием всех основных концепций SuperClaude.
2. В папке Commands есть детальная информация по каждой кастомной команде, включая поддерживаемые аргументы и текстовое описание о том, для чего применять ту или иную команду.
Пока что я изучаю все возможности и только начал тестировать SuperClaude на реальных задачах. Очень интересный фреймворк, но для того, чтобы использовать его на все 100%, потребуется некоторое время на освоение его инструментов и концепций.
Началось всё с комментария к одному из моих постов:
superclaude > all IDEs
Фактически, SuperClaude – это фреймворк, который расширяет возможности Claude Code при помощи кастомных AI-агентов(у SuperClaude они зовутся Personas, их 9 шт.) и команд (19 шт).
Создавали инструменты, следуя лучшим принципам разработки ПО. Используемые принципы можно изучить по ссылке.
Помимо персон и команд, у SuperClaude есть целый набор флагов, с помощью которых можно уточнить команду для LLM.
SuperClaude также требует установки четырёх MCP-серверов:
1. Context7 для доступа к актуальной документации.
2. Sequential для лучшего мыслительного процесса.
3. Magic для создания UI.
4. Playwright (на лендинге SuperClaude устаревшая информация о том, что для тестов они используют Puppeteer, но от него уже отказались из-за прекращения поддержки) для тестов на стороне клиента.
Чтобы добавить все эти MCP-сервера в Claude, достаточно добавить в ваш глобальный файл
.claude.json
"mcpServers": {
"sequential-thinking": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sequential-thinking"
],
"env": {}
},
"context7": {
"type": "stdio",
"command": "npx",
"args": [
"-y",
"@upstash/context7-mcp@latest"
],
"env": {}
},
"magic": {
"type": "stdio",
"command": "npx",
"args": [
"@21st-dev/magic@latest"
],
"env": {
"API_KEY": "API_KEY" #не забудьте заменить на корректное значение
}
},
"playwright": {
"type": "stdio",
"command": "npx",
"args": [
"@playwright/mcp@latest"
],
"env": {}
}
}
Из всех MCP-серверов только Magic MCP требует API-ключа. Получить его можно здесь.
Ссылка на валидную инструкцию по установке SuperClaude (ссылка с якорем и переводит вас сразу на нужную часть страницы). Оставляю её, потому что в процессе изучения инструмента обнаружил ещё две альтернативные инструкции.
После успешной установки SuperClaude, в интерфейсе Claude Code должны появиться команды, начинающиеся с
/sc:
. Перед началом работы с SuperClaude также обязательно проверьте, что все 4 необходимых mcp-сервера подключены корректно и доступны для Claude Code. Сделать это можно через команду
/mcp
. Ещё пара полезных ссылок по SuperClaude:
1. В папке Core репозитория хранятся md-файлы с описанием всех основных концепций SuperClaude.
2. В папке Commands есть детальная информация по каждой кастомной команде, включая поддерживаемые аргументы и текстовое описание о том, для чего применять ту или иную команду.
Пока что я изучаю все возможности и только начал тестировать SuperClaude на реальных задачах. Очень интересный фреймворк, но для того, чтобы использовать его на все 100%, потребуется некоторое время на освоение его инструментов и концепций.
5❤21🔥6👍5
В моём представлении, лучше всего Graphiti себя покажет в задаче визуализации взаимодействий между людьми.
Когда у нас есть некая система, в рамках которой люди инициируют те самые "события" для Graphiti.
Поэтому я написал небольшого TG-бота, который все полученные сообщения отправляет в Graphiti.
Можете написать ему что-нибудь и он добавит информацию в граф. Также я ненадолго (скорее всего, на сутки) добавил бота в чат канала. Так что комментарии тоже будут обработаны и поучаствуют в построении графа.
Заранее спасибо всем участникам эксперимента! В одном из следующих постов обязательно расскажу про то, какой у нас граф получился. Особенно интересно увидеть те сущности, которые Graphiti выделит из наших взаимодействий.
Когда у нас есть некая система, в рамках которой люди инициируют те самые "события" для Graphiti.
Поэтому я написал небольшого TG-бота, который все полученные сообщения отправляет в Graphiti.
Можете написать ему что-нибудь и он добавит информацию в граф. Также я ненадолго (скорее всего, на сутки) добавил бота в чат канала. Так что комментарии тоже будут обработаны и поучаствуют в построении графа.
Заранее спасибо всем участникам эксперимента! В одном из следующих постов обязательно расскажу про то, какой у нас граф получился. Особенно интересно увидеть те сущности, которые Graphiti выделит из наших взаимодействий.
1👍6❤4🔥3
Про взлом топа Openrouter, как способ привлечения новых пользователей.
В посте про источники знаний о новинках AI я рассказывал, что рейтинги Openrouter – отличный способ узнавать о новых популярных AI-приложениях.
Несколько дней назад я обнаружил в Top-20 приложений Kilo Code (не путать с Kiro от Amazon). Это очередная AI-IDE.
В рейтинге за сегодня Kilo Code занимает уже первое место, сместив даже Roo Code, который очень хорош (пример с кейсом).
Неужели кто-то предложил на рынке AI IDE что-то кардинально-новое и процесс AI-coding не будет прежним?
Что-то новое действительно есть, но вот только не в AI-Coding.
Kilo Code решили перераспределить бюджеты на маркетинг. И вместо расходов на рекламную кампанию, они просто раздают каждому вновь зарегистрировавшемуся пользователю по $20 на Openrouter.
Естественно, это вызвало всплеск популярности Kilo Code. Думаю, что не столько благодаря широкой аудитории, сколько из-за ушлых ребят, которые заводят сотни аккаунтов и выгребают халявные токены.
Судя по Leaderboard, выгребают за день 56,2 миллиарда токенов. Правда, судя по тенденциям использования, с каждым днём всё больше токенов тратят на модель Horizon Beta. Дело в том, что модель бесплатная. И на неё пользователи переходят после того, как закончатся $20 за регистрацию.
Что же это за AI IDE, спросите вы? В целом, ничем не примечательная копия Cursor/Roo Code. В чём-то чуть лучше, в чём-то чуть хуже. Новых идей за пределами маркетинга мною замечено не было. Но обещают глубокую кастомизацию, что радует.
Так что можно себе поставить и, как минимум, потратить халявные $20 с Openrouter.
В посте про источники знаний о новинках AI я рассказывал, что рейтинги Openrouter – отличный способ узнавать о новых популярных AI-приложениях.
Несколько дней назад я обнаружил в Top-20 приложений Kilo Code (не путать с Kiro от Amazon). Это очередная AI-IDE.
В рейтинге за сегодня Kilo Code занимает уже первое место, сместив даже Roo Code, который очень хорош (пример с кейсом).
Неужели кто-то предложил на рынке AI IDE что-то кардинально-новое и процесс AI-coding не будет прежним?
Что-то новое действительно есть, но вот только не в AI-Coding.
Kilo Code решили перераспределить бюджеты на маркетинг. И вместо расходов на рекламную кампанию, они просто раздают каждому вновь зарегистрировавшемуся пользователю по $20 на Openrouter.
Естественно, это вызвало всплеск популярности Kilo Code. Думаю, что не столько благодаря широкой аудитории, сколько из-за ушлых ребят, которые заводят сотни аккаунтов и выгребают халявные токены.
Судя по Leaderboard, выгребают за день 56,2 миллиарда токенов. Правда, судя по тенденциям использования, с каждым днём всё больше токенов тратят на модель Horizon Beta. Дело в том, что модель бесплатная. И на неё пользователи переходят после того, как закончатся $20 за регистрацию.
Что же это за AI IDE, спросите вы? В целом, ничем не примечательная копия Cursor/Roo Code. В чём-то чуть лучше, в чём-то чуть хуже. Новых идей за пределами маркетинга мною замечено не было. Но обещают глубокую кастомизацию, что радует.
Так что можно себе поставить и, как минимум, потратить халявные $20 с Openrouter.
1❤7👍4🔥4
Чат для взаимодействия с AI-продуктом – это, чаще всего, плохое решение.
Что такое продукт с AI? Это приложение+инфраструктура, построенные для того, чтобы скармливать самый эффективный промпт в наиболее подходящую для решения задачи модель.
Всё это делается, чтобы получить качественный ответ. Качество ответа при этом должно однозначно интерпретироваться и, в идеале, иметь дискретное представление(например, оценка от 0 до 10) .
Метрики качества ответов необходимо отслеживать постоянно, чтобы вовремя отреагировать на ухудшение качества в ваших сценариях.
Так вот. Дать возможность пользователю через чат вводить промпт – это перекладывание ответственности за качество ответа на пользователя.
Для разработчиков моделей такой подход может быть оправдан. Особенно если это модель "общего назначения".
Почти во всех других случаях нужно избавлять пользователя от необходимости вводить промпт. Потому что пользователь платит вам не за возможность взаимодействовать с вашим AI-приложением, а за то, как оно работает. И ему совершенно неинтересно, что ответ получился плохим из-за того, что он неправильно сформулировал свой промпт.
Примеры того, как пользователя избавляют от необходимости самостоятельно "промптить" AI-продукт:
1. Higgsfield совсем не настаивает на том, чтобы вы вводили промпт при генерации их AI-фотографий. Выбираете модель, стиль фото и нажимаете "генерировать". На выходе получаются отличные фотографии, которые с радостью выкладывают в Instagram, создавая приток новых пользователей в продукт.
2. Kiro от Amazon. Помните, как они предлагают создавать AI-агентов и документацию для проекта? Поле ввода в одну строку(запрашивают "хотелку" пользователя, а не промпт) , которое генерирует полноценные документы для выстраивания корректного рабочего процесса по AI-Coding. Далее в том же интерфейсе нажимаем на кнопки "Взять задачу в работу" у нужной задачи и ждём, пока Kiro всё сделает.
3. Vidu и "Режим Pro" для формирования промптов. Система самостоятельно анализирует изображения, поданные на вход и придумывает промпт-сценарий. Который, при желании, можно поправить и сгенерировать корректный промпт вновь.
Какие примеры ухода от «промптинга» и чата в успешных AI-продуктах знаете вы? Буду рад почитать про примеры в комментариях 😊
Что такое продукт с AI? Это приложение+инфраструктура, построенные для того, чтобы скармливать самый эффективный промпт в наиболее подходящую для решения задачи модель.
Всё это делается, чтобы получить качественный ответ. Качество ответа при этом должно однозначно интерпретироваться и, в идеале, иметь дискретное представление
Метрики качества ответов необходимо отслеживать постоянно, чтобы вовремя отреагировать на ухудшение качества в ваших сценариях.
Так вот. Дать возможность пользователю через чат вводить промпт – это перекладывание ответственности за качество ответа на пользователя.
Для разработчиков моделей такой подход может быть оправдан. Особенно если это модель "общего назначения".
Почти во всех других случаях нужно избавлять пользователя от необходимости вводить промпт. Потому что пользователь платит вам не за возможность взаимодействовать с вашим AI-приложением, а за то, как оно работает. И ему совершенно неинтересно, что ответ получился плохим из-за того, что он неправильно сформулировал свой промпт.
Примеры того, как пользователя избавляют от необходимости самостоятельно "промптить" AI-продукт:
1. Higgsfield совсем не настаивает на том, чтобы вы вводили промпт при генерации их AI-фотографий. Выбираете модель, стиль фото и нажимаете "генерировать". На выходе получаются отличные фотографии, которые с радостью выкладывают в Instagram, создавая приток новых пользователей в продукт.
2. Kiro от Amazon. Помните, как они предлагают создавать AI-агентов и документацию для проекта? Поле ввода в одну строку
3. Vidu и "Режим Pro" для формирования промптов. Система самостоятельно анализирует изображения, поданные на вход и придумывает промпт-сценарий. Который, при желании, можно поправить и сгенерировать корректный промпт вновь.
Какие примеры ухода от «промптинга» и чата в успешных AI-продуктах знаете вы? Буду рад почитать про примеры в комментариях 😊
2👍11🔥5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Прошла презентация, на которой представили ChatGPT-5.
За последние пару дней я прочитал достаточно много отзывов от тех, кто уже протестировал новую модель.
Прочитанное всколыхнуло во мне воспоминания об одном скандальном видео из 2012 года.
Сделал для вас AI-видеопародию, которая прекрасно описывает ситуацию с ChatGPT-5 🙂
За последние пару дней я прочитал достаточно много отзывов от тех, кто уже протестировал новую модель.
Прочитанное всколыхнуло во мне воспоминания об одном скандальном видео из 2012 года.
Сделал для вас AI-видеопародию, которая прекрасно описывает ситуацию с ChatGPT-5 🙂
1😁16❤4🔥3
Завершил эксперимент с тестовым запуском бота с Graphiti.
Сегодня заметки о том, как он отработал и каких результатов удалось достичь. Более глубокие выводы будут отдельным постом (возможно, постов будет больше, чем один).
Граф получился красивый. За время эксперимента в бота, так или иначе, попало 55 сообщений (Episodic), Graphiti на базе этих сообщений создал 112 сущностей (Entity). Базовых связей (MENTIONS – между эпизодом и созданными им сущностей) 160. Продвинутых связей (RELATES_TO – связь отношения между сущностями) создано 89.
Graphiti по-умолчанию использует API от OpenAI. Для того, чтобы выделять сущности и корректные связи между ними.
Модели, которые использовал в эксперименте (они устанавливаются по-умолчанию):
1.
2.
3.
За время эксперимента на API было потрачено порядка $0.5 🙂
Из-за того, что модели по-умолчанию достаточно слабые, некоторые описания в узлах были одновременно на двух языках (русский+английский). Плюс – иногда на русском языке модели могли допускать ошибки. Повод запустить эксперимент с более мощными моделями (как кстати вышла линейка ChatGPT-5).
Спасибо всем, кто откликнулся на призыв к участию в эксперименте! Практический опыт дал понимание, куда можно двигаться дальше. Плюс – вы ещё накинули в комментариях несколько идей, на которых можно будет его потестировать. За это отдельное спасибо! 🙂
Сегодня заметки о том, как он отработал и каких результатов удалось достичь. Более глубокие выводы будут отдельным постом (возможно, постов будет больше, чем один).
Граф получился красивый. За время эксперимента в бота, так или иначе, попало 55 сообщений (Episodic), Graphiti на базе этих сообщений создал 112 сущностей (Entity). Базовых связей (MENTIONS – между эпизодом и созданными им сущностей) 160. Продвинутых связей (RELATES_TO – связь отношения между сущностями) создано 89.
Graphiti по-умолчанию использует API от OpenAI. Для того, чтобы выделять сущности и корректные связи между ними.
Модели, которые использовал в эксперименте (они устанавливаются по-умолчанию):
1.
text-embedding-3-small
– для эмбеддингов текстовой информации из узлов графов.2.
gpt-4o-mini
– в качестве основной модели для Graphiti3.
gpt-4o-nano
– в качестве "малой" вспомогательной моделиЗа время эксперимента на API было потрачено порядка $0.5 🙂
Из-за того, что модели по-умолчанию достаточно слабые, некоторые описания в узлах были одновременно на двух языках (русский+английский). Плюс – иногда на русском языке модели могли допускать ошибки. Повод запустить эксперимент с более мощными моделями (как кстати вышла линейка ChatGPT-5).
Спасибо всем, кто откликнулся на призыв к участию в эксперименте! Практический опыт дал понимание, куда можно двигаться дальше. Плюс – вы ещё накинули в комментариях несколько идей, на которых можно будет его потестировать. За это отдельное спасибо! 🙂
3🔥8👍4❤1
На днях завершил свой первый корпоративный практикум в сфере AI.
Спасибо команде парка "Богатый курьер" за оказанное доверие!
Тема практикума "AI-видео для производства контента". Преимущественно для соц. сетей. Проводил его с командой монтажа, задействованной в производстве видео-контента.
На старте практикума члены команды если и использовали AI, то на базовом уровне. В итоге выстроили процесс производства AI-видео, а также изучили и попробовали всё, что вокруг (тексты, изображения, AI-агенты).
Собрал с ребят обратную связь по практикуму – дополню материалы, чтобы увеличить концентрат полезности. Если кому-то нужно обучить команду производству AI-видеоконтента – пишите.
Также готовлю материалы по AI-coding. Собираю и структурирую весь накопленный практический опыт по теме. По этому направлению тоже буду рад пообщаться 🙂
Спасибо команде парка "Богатый курьер" за оказанное доверие!
Тема практикума "AI-видео для производства контента". Преимущественно для соц. сетей. Проводил его с командой монтажа, задействованной в производстве видео-контента.
На старте практикума члены команды если и использовали AI, то на базовом уровне. В итоге выстроили процесс производства AI-видео, а также изучили и попробовали всё, что вокруг (тексты, изображения, AI-агенты).
Собрал с ребят обратную связь по практикуму – дополню материалы, чтобы увеличить концентрат полезности. Если кому-то нужно обучить команду производству AI-видеоконтента – пишите.
Также готовлю материалы по AI-coding. Собираю и структурирую весь накопленный практический опыт по теме. По этому направлению тоже буду рад пообщаться 🙂
3🔥19❤7👍5
Сегодня анализируем Graphiti-граф, созданный из ваших комментариев в данном канале.
Для этого я запустил Goose и подключил к нему официальный MCP-сервер Graphiti.
Fun Fact:
Передав корректный group_id, я отправил три запроса в Goose. Отвечал на запросы Claude 4 Sonnet.
Сами запросы:
1. Составь выжимку, о чём говорили в комментариях канала и кто говорил.
2. Изучи более внимательно связи между созданными сущностями. И расскажи, что ты из них узнал.
3. Из всех комментаторов, кого бы ты взял на работу для того, чтобы работать с графовыми RAG-системами? Объясни свой выбор.
Составленные отчёты показались весьма интересными. Некоторые моменты, которые кажутся Sonnet "удивительными", произрастают из вполне конкретных корректно-обработанных комментариев. Он также детально проанализировал всех спамеров, которых собирал к себе Graphiti 🙂
Отчёты закину в комментарии. Если желаете задать ещё какие-то запросы в граф – пишите также в комментарии. А я пришлю ответ от Claude.
Для этого я запустил Goose и подключил к нему официальный MCP-сервер Graphiti.
Fun Fact:
Официальный MCP-сервер Graphiti не умеет получать списком все group_id, которые есть в графе. По-умолчанию, без предоставления пользователем group_id, MCP-сервер не способен получать информацию из графа в принципе.
Передав корректный group_id, я отправил три запроса в Goose. Отвечал на запросы Claude 4 Sonnet.
Сами запросы:
1. Составь выжимку, о чём говорили в комментариях канала и кто говорил.
2. Изучи более внимательно связи между созданными сущностями. И расскажи, что ты из них узнал.
3. Из всех комментаторов, кого бы ты взял на работу для того, чтобы работать с графовыми RAG-системами? Объясни свой выбор.
Составленные отчёты показались весьма интересными. Некоторые моменты, которые кажутся Sonnet "удивительными", произрастают из вполне конкретных корректно-обработанных комментариев. Он также детально проанализировал всех спамеров, которых собирал к себе Graphiti 🙂
Отчёты закину в комментарии. Если желаете задать ещё какие-то запросы в граф – пишите также в комментарии. А я пришлю ответ от Claude.
3👍14🔥4❤1
Pydantic – одна из самых важных библиотек при создании AI-агентов с помощью Python.
При работе с GenAI важны два аспекта:
1. Контекст. Подготовка данных, которые мы подаём на вход модели.
2. Контроль. Происходит либо за счёт выбора подходящего инструмента (например, модель для inpaint в AI-изображениях), либо за счёт проверки того, что мы получаем в результате работы модели.
Pydantic – это библиотека, которая стала стандартом в вопросах контроля за выводом AI-моделей. Особенно в случае, если модель не поддерживает Structured Output(на этом моменте передаём привет Claude) .
Библиотека позволяет задавать как простые, так и достаточно сложные форматы, в которых AI будет выдавать ответ. Можно как строго проверять формат, так и попробовать выполнить приведение к формату. Если удастся осуществить приведение, тогда результат будет признан валидным.
Само собой, Pydantic поддерживается всеми основными библиотеками для написания AI-агентов (пример в документации CrewAI).
Итог: если вы только начинаете создавать первых AI-агентов с помощью Python и по какой-то причине ещё не используете Pydantic, это нужно срочно исправить, изучить документацию по библиотеке и забрать её себе в арсенал. Тем более, документация у них – отличная.
При работе с GenAI важны два аспекта:
1. Контекст. Подготовка данных, которые мы подаём на вход модели.
2. Контроль. Происходит либо за счёт выбора подходящего инструмента (например, модель для inpaint в AI-изображениях), либо за счёт проверки того, что мы получаем в результате работы модели.
Pydantic – это библиотека, которая стала стандартом в вопросах контроля за выводом AI-моделей. Особенно в случае, если модель не поддерживает Structured Output
Библиотека позволяет задавать как простые, так и достаточно сложные форматы, в которых AI будет выдавать ответ. Можно как строго проверять формат, так и попробовать выполнить приведение к формату. Если удастся осуществить приведение, тогда результат будет признан валидным.
Само собой, Pydantic поддерживается всеми основными библиотеками для написания AI-агентов (пример в документации CrewAI).
Итог: если вы только начинаете создавать первых AI-агентов с помощью Python и по какой-то причине ещё не используете Pydantic, это нужно срочно исправить, изучить документацию по библиотеке и забрать её себе в арсенал. Тем более, документация у них – отличная.
3👍12🔥4❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня наконец-то Veo3 стал доступен по API.
Следовательно, в этот же день на платформе fal.ai, которую я использую для генераций, появилось не только text-to-video, но и image-to-video.
Наконец-то не придётся убеждать Manus в том, что мне надо сгенерировать видео именно в Veo3 и в том, что я достоин генерации(true story: когда Veo3 только появился, мне в чате приходилось убеждать Manus, что у меня корректная подписка для генерации видео) .
Стоимость у image-to-video на fal.ai осталась той же, что и для text-to-video: $0.5 за секунду генерации без звука и $0.75 за секунду со звуком.
Да, это $6 за 8-секундное видео со звуком. Но стоит помнить, что Veo3 может генерировать более сложные сцены с меньшего количества попыток. Обеспечивая отличное понимание промпта. Плюс ещё голос и Lipsync на русском языке.
Следовательно, в этот же день на платформе fal.ai, которую я использую для генераций, появилось не только text-to-video, но и image-to-video.
Наконец-то не придётся убеждать Manus в том, что мне надо сгенерировать видео именно в Veo3 и в том, что я достоин генерации
Стоимость у image-to-video на fal.ai осталась той же, что и для text-to-video: $0.5 за секунду генерации без звука и $0.75 за секунду со звуком.
Да, это $6 за 8-секундное видео со звуком. Но стоит помнить, что Veo3 может генерировать более сложные сцены с меньшего количества попыток. Обеспечивая отличное понимание промпта. Плюс ещё голос и Lipsync на русском языке.
1🔥7👍6❤5🤯1
"Как нейросети помогают увеличить продажи фрилансеру?"
На днях проводил эфир для закрытого сообщества с одноимённой темой.
Фактически, разобрал процесс взаимодействия фрилансера с заказчиком на этапы и по каждому этапу дал примеры того, как AI может помочь.
На эфире я не затрагивал сам процесс выполнения заказа. Что логично – фрилансеры бывают разные, поэтому и работа у них разная. Большей части специалистов я едва ли смогу рассказать, как им следует делать непосредственно их работу.
Фактически, все кейсы применения AI помогали в следующих аспектах:
1. Как фрилансеру лучше понять и оценить себя. За какие сроки и стоимость ему будет действительно комфортно выполнить определённый объём работы. Заодно – понять своё место на рынке.
2. Как в процессе работы давать больше, чем ожидает от фрилансера бизнес.
3. Как выстроить равные, партнёрские отношения с заказчиком и работать с доверием друг к другу.
Заметили, да? Всё это возможно сделать и без AI. Но внедрение обозначенных процессов в работу позволяет увеличить LTV от заказчика, а также включает тот самый "сарафан", на который надеятся многие фрилансеры.
Когда я формулировал для себя правила взаимодействия с заказчиками в качестве фрилансера, AI ещё не был инструментом, способным помочь в реализации обозначенных пунктов.
Однако с нейросетями можно сделать больше, потратив меньше времени. Особенно в вопросах выстраивания отношений.
Кейсы применения AI, на самом деле, не особо сложные, но могут оказаться полезными в работе. Как для фрилансеров, так и для тех, кто работает в найме. Ставьте 🔥, если желаете прочитать про них (и не только) подробнее.
На днях проводил эфир для закрытого сообщества с одноимённой темой.
Фактически, разобрал процесс взаимодействия фрилансера с заказчиком на этапы и по каждому этапу дал примеры того, как AI может помочь.
На эфире я не затрагивал сам процесс выполнения заказа. Что логично – фрилансеры бывают разные, поэтому и работа у них разная. Большей части специалистов я едва ли смогу рассказать, как им следует делать непосредственно их работу.
Фактически, все кейсы применения AI помогали в следующих аспектах:
1. Как фрилансеру лучше понять и оценить себя. За какие сроки и стоимость ему будет действительно комфортно выполнить определённый объём работы. Заодно – понять своё место на рынке.
2. Как в процессе работы давать больше, чем ожидает от фрилансера бизнес.
3. Как выстроить равные, партнёрские отношения с заказчиком и работать с доверием друг к другу.
Заметили, да? Всё это возможно сделать и без AI. Но внедрение обозначенных процессов в работу позволяет увеличить LTV от заказчика, а также включает тот самый "сарафан", на который надеятся многие фрилансеры.
Когда я формулировал для себя правила взаимодействия с заказчиками в качестве фрилансера, AI ещё не был инструментом, способным помочь в реализации обозначенных пунктов.
Однако с нейросетями можно сделать больше, потратив меньше времени. Особенно в вопросах выстраивания отношений.
Кейсы применения AI, на самом деле, не особо сложные, но могут оказаться полезными в работе. Как для фрилансеров, так и для тех, кто работает в найме. Ставьте 🔥, если желаете прочитать про них (и не только) подробнее.
1🔥24👍6❤5
История с кардерами на 30000+ рублей. Не совсем про AI.
Я уже несколько раз писал в этом блоге о различных видах мошенничества. Вот пост из раннего про общительных ботов, которые по итогу пытаются развести на деньги. Или о том, как использовать знания об AI при общении со взломщиками личных аккаунтов.
Поэтому сегодняшнюю историю я не мог не рассказать вам. Для того, чтобы показать ещё один потенциальный источник угрозы со стороны мошенников.
3 августа, прогуливаясь воскресным вечером по моллу, я получаю SMS о списании с моей карты банка FAB (First Abu Dhabi Bank) 1711 MYR в пользу компании Facebook(вот уж где действительно стоит упомянуть, какие они на самом деле экстремисты) . Конкретно – за пополнение аккаунта Facebook Ads. Естественно, платёж я не проводил.
Тут же пытаюсь дозвониться до службы поддержки. Пока дозваниваюсь – приходит ещё одно SMS об ещё одной попытке снятия средств. Она не увенчалась успехом, потому что на карте просто не было необходимой суммы – буквально за два дня до этого я снимал с этого счёта наличные.
Дело в том, что в ОАЭ часть операций с "доверенными" компаниями может проходить без OTP (SMS с номером для подтверждения). Как вы понимаете, Малазийскому аккаунту Facebook Ads мой банк очень доверяет,а вот я – не очень.
Как вообще данные карты утекли?
Подозреваю, что тут дело как раз-таки в AI-сервисах. В рамках подготовки материалов к практикуму по AI-видео я тестировал множество сервисов (в том числе и неизвестных мне ранее) для решения тех или иных задач. И в какой-то момент потерял бдительность. На 30000 рублей.
Что было дальше?
На следующий день, в понедельник 4 августа, я поехал в банк. Под внимательным взором сотрудницы банка заполнил форму о неправомерном снятии средств, сфорографировал её на телефон и отправил на специальный e-mail(можно было и полностью онлайн это сделать, но я предпочёл получить консультацию о правильности заполнения) . Заодно удостоверился, что карту мне уже выпускают новую и скоро доставят на дом.
А потом – тишина. Даже не было сообщения после отправки формы о том, что "да, мы получили твой e-mail. Всё с ним хорошо!". Через сутки я отправил ещё одно сообщение (с текстом "вы там ничего не потеряли?") на тот же e-mail и в ответ пришло – "Мы получили твой e-mail".
Вообще, деньги от того перевода ещё три дня висели в статусе "Hold". И я надеялся, что форму обработают быстро и они попросту не успеют уйти…
11 августа мне на почту приходит письмо "Здравствуйте! Мы зарегистрировали ваше обращение под номером XXXXX". И рядом ещё одно письмо: "Мы ничего не потеряли. Зарегистрировали ваше обращение под номером XXXXX".
На тот момент деньги уже окончательно покинули мой счёт и вышли из статуса "Hold". Стоит ли говорить, что надежды на их возвращение у меня не осталось?
Сегодня, 16 августа, мне на счёт вернули деньги. Чему я очень рад. Так как у меня с малазийскими кардерами не настолько тёплые отношения, чтобы делать столь щедрые подарки.
Для чего этот пост?
Ещё раз напомнить: сохраняйте бдительность. Особенно, если вы регулярно тестируете (в том числе – платные) AI-сервисы (да и вообще делаете платежи в интернете). Большая часть белых сервисов проводит платежи с использованием Stripe / Link / Paypal / ApplePay / GooglePay. Если малоизвестный сервис просит вводить данные карты у себя в личном кабинете (и не предлагает альтернатив), то это, скорее всего, мошенники.
В одном из следующих постов расскажу, как теперь я выстроил систему взаимодействия с картами, чтобы кардеры, даже имея данные карты, не могли с неё снять значимых сумм.
Я уже несколько раз писал в этом блоге о различных видах мошенничества. Вот пост из раннего про общительных ботов, которые по итогу пытаются развести на деньги. Или о том, как использовать знания об AI при общении со взломщиками личных аккаунтов.
Поэтому сегодняшнюю историю я не мог не рассказать вам. Для того, чтобы показать ещё один потенциальный источник угрозы со стороны мошенников.
3 августа, прогуливаясь воскресным вечером по моллу, я получаю SMS о списании с моей карты банка FAB (First Abu Dhabi Bank) 1711 MYR в пользу компании Facebook
Тут же пытаюсь дозвониться до службы поддержки. Пока дозваниваюсь – приходит ещё одно SMS об ещё одной попытке снятия средств. Она не увенчалась успехом, потому что на карте просто не было необходимой суммы – буквально за два дня до этого я снимал с этого счёта наличные.
Дело в том, что в ОАЭ часть операций с "доверенными" компаниями может проходить без OTP (SMS с номером для подтверждения). Как вы понимаете, Малазийскому аккаунту Facebook Ads мой банк очень доверяет,
Как вообще данные карты утекли?
Подозреваю, что тут дело как раз-таки в AI-сервисах. В рамках подготовки материалов к практикуму по AI-видео я тестировал множество сервисов (в том числе и неизвестных мне ранее) для решения тех или иных задач. И в какой-то момент потерял бдительность. На 30000 рублей.
Что было дальше?
На следующий день, в понедельник 4 августа, я поехал в банк. Под внимательным взором сотрудницы банка заполнил форму о неправомерном снятии средств, сфорографировал её на телефон и отправил на специальный e-mail
А потом – тишина. Даже не было сообщения после отправки формы о том, что "да, мы получили твой e-mail. Всё с ним хорошо!". Через сутки я отправил ещё одно сообщение (с текстом "вы там ничего не потеряли?") на тот же e-mail и в ответ пришло – "Мы получили твой e-mail".
Вообще, деньги от того перевода ещё три дня висели в статусе "Hold". И я надеялся, что форму обработают быстро и они попросту не успеют уйти…
11 августа мне на почту приходит письмо "Здравствуйте! Мы зарегистрировали ваше обращение под номером XXXXX". И рядом ещё одно письмо: "Мы ничего не потеряли. Зарегистрировали ваше обращение под номером XXXXX".
На тот момент деньги уже окончательно покинули мой счёт и вышли из статуса "Hold". Стоит ли говорить, что надежды на их возвращение у меня не осталось?
Сегодня, 16 августа, мне на счёт вернули деньги. Чему я очень рад. Так как у меня с малазийскими кардерами не настолько тёплые отношения, чтобы делать столь щедрые подарки.
Для чего этот пост?
Ещё раз напомнить: сохраняйте бдительность. Особенно, если вы регулярно тестируете (в том числе – платные) AI-сервисы (да и вообще делаете платежи в интернете). Большая часть белых сервисов проводит платежи с использованием Stripe / Link / Paypal / ApplePay / GooglePay. Если малоизвестный сервис просит вводить данные карты у себя в личном кабинете (и не предлагает альтернатив), то это, скорее всего, мошенники.
В одном из следующих постов расскажу, как теперь я выстроил систему взаимодействия с картами, чтобы кардеры, даже имея данные карты, не могли с неё снять значимых сумм.
1❤14👍9🔥7