Ключевая идея — независимая эволюция.
Каждый сервис:
— владеет своей предметной областью
— хранит свои данные
— разворачивается независимо
Именно отсюда появляются реальные плюсы:
— команды двигаются быстрее
— релизы становятся безопаснее
— система становится устойчивее к сбоям
Но есть и обратная сторона:
— растёт сложность
— появляется больше координации между командами
— сложнее поддерживать консистентность данных
Микросервисы — это не «серебряная пуля».
Это обмен: гибкость и скорость ↔ сложность и операционные расходы.
Поэтому перед тем как идти в эту архитектуру — важно понять базу.
Разбор ключевых концепций и нюансов
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Skywork выкатили Matrix-Game 3.0 - и это уже почти живая игровая вселенная, генерируемая ИИ
720p в реальном времени при 40 FPS
5B модель с INT8-квантизацией - работает удивительно быстро
Главный фокус - стабильность во времени:
модель запоминает прошлые кадры и “достраивает” будущее без развалов сцены
Есть и более мощная версия - 28B MoE, которая лучше держит физику и динамику
Как обучали:
Unreal Engine + AAA-игры + реальные видео
Внутри не просто видео, а связка:
Video + Pose + Action + Prompt
за счёт этого можно генерировать длинные, осмысленные сцены
Это зачатки полноценного AI-геймдвижка
Ссылка на модель: https://modelscope.ai/models/Skywork/Matrix-Game-3.0
720p в реальном времени при 40 FPS
5B модель с INT8-квантизацией - работает удивительно быстро
Главный фокус - стабильность во времени:
модель запоминает прошлые кадры и “достраивает” будущее без развалов сцены
Есть и более мощная версия - 28B MoE, которая лучше держит физику и динамику
Как обучали:
Unreal Engine + AAA-игры + реальные видео
Внутри не просто видео, а связка:
Video + Pose + Action + Prompt
за счёт этого можно генерировать длинные, осмысленные сцены
Это зачатки полноценного AI-геймдвижка
Ссылка на модель: https://modelscope.ai/models/Skywork/Matrix-Game-3.0
Что выведет на экран этот код?
Anonymous Quiz
42%
True
38%
False
12%
Возникнет исключение
8%
Код не скомпилируется
🔥 Не понимаешь, что происходит внутри .NET приложения
Значит у тебя нет нормальной трассировки
Минимальный сетап, который стоит добавить почти в любой проект
OpenTelemetry с базовой инструментализацией
ASP.NET Core, HttpClient, EF Core, Redis и база через Npgsql или SqlClient
Этого хватает, чтобы видеть полный путь запроса
от входа в API до базы и внешних сервисов
Дальше всё становится прозрачным
• где тормозит
• где падает
• где утекает время
Для визуализации можно подключить любой стек
• Aspire Dashboard под быстрый старт
• Grafana если нужен прод уровень
• Jaeger для классического трейсинга
• Seq если хочешь объединить логи и трейсы
Seq особенно удобен, потому что нормально работает со структурированными логами
По факту это один из самых дешёвых апгрейдов инфраструктуры, а профит даёт сразу
Гайд
Значит у тебя нет нормальной трассировки
Минимальный сетап, который стоит добавить почти в любой проект
OpenTelemetry с базовой инструментализацией
ASP.NET Core, HttpClient, EF Core, Redis и база через Npgsql или SqlClient
Этого хватает, чтобы видеть полный путь запроса
от входа в API до базы и внешних сервисов
Дальше всё становится прозрачным
• где тормозит
• где падает
• где утекает время
Для визуализации можно подключить любой стек
• Aspire Dashboard под быстрый старт
• Grafana если нужен прод уровень
• Jaeger для классического трейсинга
• Seq если хочешь объединить логи и трейсы
Seq особенно удобен, потому что нормально работает со структурированными логами
По факту это один из самых дешёвых апгрейдов инфраструктуры, а профит даёт сразу
Гайд
🔥 Самая недооценённая фича HttpClient в .NET
DelegatingHandler - это middleware для исходящих HTTP-запросов, про который многие забывают.
По сути, ты собираешь pipeline для запросов так же, как в ASP.NET для входящих.
И вместо того чтобы пихать логику в каждый вызов, выносишь всё в одно место.
Авторизация, логирование, ретраи, кеш, аудит, всё навешивается как цепочка обработчиков.
Код становится чище, повторного кода меньше, а поведение запросов контролируется централизованно.
Один раз настроил и это работает для всех клиентов.
Если используешь HttpClient и до сих пор не трогаешь DelegatingHandler, ты реально упускаешь мощный инструмент
DelegatingHandler - это middleware для исходящих HTTP-запросов, про который многие забывают.
По сути, ты собираешь pipeline для запросов так же, как в ASP.NET для входящих.
И вместо того чтобы пихать логику в каждый вызов, выносишь всё в одно место.
Авторизация, логирование, ретраи, кеш, аудит, всё навешивается как цепочка обработчиков.
Код становится чище, повторного кода меньше, а поведение запросов контролируется централизованно.
Один раз настроил и это работает для всех клиентов.
Если используешь HttpClient и до сих пор не трогаешь DelegatingHandler, ты реально упускаешь мощный инструмент
🚨 Тихий убийца производительности в EF Core, о котором забывают почти все.
Запрос выглядит идеально - пока у тебя мало данных. Потом начинается ад.
Ты пишешь обычный Include, потом ещё один на ту же сущность… и не замечаешь, как EF Core превращает это в монструозный SQL с кучей JOIN’ов.
Что происходит под капотом:
EF делает несколько JOIN’ов → получается cross product → строки начинают дублироваться
Итог:
• данных в ответе становится в разы больше
• память улетает
• запросы резко тормозят
И всё это без единой ошибки в коде.
Решение есть и оно банально простое - Query Splitting.
Вместо одного жирного запроса EF разбивает его на несколько аккуратных. Без дублирования, без раздувания результата, без боли.
Одна настройка - и ты экономишь кучу ресурсов на проде.
P.S. Если работаешь с EF Core - такие нюансы решают, будет ли твой сервис летать или умирать под нагрузкой.
Запрос выглядит идеально - пока у тебя мало данных. Потом начинается ад.
Ты пишешь обычный Include, потом ещё один на ту же сущность… и не замечаешь, как EF Core превращает это в монструозный SQL с кучей JOIN’ов.
Что происходит под капотом:
EF делает несколько JOIN’ов → получается cross product → строки начинают дублироваться
Итог:
• данных в ответе становится в разы больше
• память улетает
• запросы резко тормозят
И всё это без единой ошибки в коде.
Решение есть и оно банально простое - Query Splitting.
Вместо одного жирного запроса EF разбивает его на несколько аккуратных. Без дублирования, без раздувания результата, без боли.
Одна настройка - и ты экономишь кучу ресурсов на проде.
P.S. Если работаешь с EF Core - такие нюансы решают, будет ли твой сервис летать или умирать под нагрузкой.
Никогда не возвращай null для коллекций в C#
Спорное мнение, но на практике это один из самых частых источников багов.
Когда метод возвращает null вместо списка, ты заставляешь каждого, кто его вызывает, писать дополнительную проверку.
Иначе всё ломается на самом банальном месте:
В итоге получаешь:
• лишние null-проверки повсюду
• более громоздкий код
• ошибки в рантайме, если кто-то забыл проверить
Всегда этого возвращай пустую коллекцию:
Теперь код становится чище и понятнее.
Ты всегда можешь итерироваться и не думаешь о null каждый раз.
Хороший API - это тот, в работе с которым ошибиться почти невозможно.
Спорное мнение, но на практике это один из самых частых источников багов.
Когда метод возвращает null вместо списка, ты заставляешь каждого, кто его вызывает, писать дополнительную проверку.
Иначе всё ломается на самом банальном месте:
foreach (var transaction in GetTransactions(userId))
{
// boom, если null
}
В итоге получаешь:
• лишние null-проверки повсюду
• более громоздкий код
• ошибки в рантайме, если кто-то забыл проверить
Всегда этого возвращай пустую коллекцию:
Enumerable.Empty<T>()
new List<T>()
[] в C# 12
var transactions = GetTransactions(userId)
?? Enumerable.Empty<TransactionDto>();
Теперь код становится чище и понятнее.
Ты всегда можешь итерироваться и не думаешь о null каждый раз.
Хороший API - это тот, в работе с которым ошибиться почти невозможно.
Если ты до сих пор ограничиваешь по IP, у тебя уже есть проблема. Один шумный клиент может легко положить сервис для всех.
Правильный подход это лимиты по User ID. Ты берёшь идентификатор пользователя из контекста и используешь его как partition key.
В итоге каждый пользователь получает свой собственный лимит, нет конфликтов между клиентами, нет ложных блокировок, и API остаётся стабильным даже под нагрузкой.
Плюс это честно, потому что один агрессивный пользователь не влияет на остальных.
В ASP.NET Core это настраивается буквально в пару строк через AddRateLimiter с FixedWindow или SlidingWindow стратегией.
Главная мысль в том, что rate limiting это не только про защиту от атак, это про контроль ресурсов и предсказуемость системы.
Если у тебя есть публичный API и нет нормальных лимитов, это не вопрос если упадёт, это вопрос когда.
Please open Telegram to view this post
VIEW IN TELEGRAM
Представьте: через четыре месяца вы открываете чужой .NET-проект и читаете его как книгу.
IServiceCollection не вызывает ступора.
async Task<IActionResult> пишется на автомате. Вы точно знаете, почему EF Core сгенерировал именно такой SQL - и как переписать запрос, чтобы он летал.Это не фантазия. Это результат после 16 модулей, в которых каждая концепция объясняется через код и закрепляется практикой.
ООП, SOLID, LINQ, async/await, DI, EF Core, ASP.NET Core, Docker, Kubernetes - всё, что казалось магией, станет рабочим инструментом.А бонусом - портфолио проектов: от CLI-утилит и REST API до собственного SaaS с multi-tenancy, JWT и деплоем в Kubernetes под TLS.
Скидка - 58% доступна 48 часов: https://stepik.org/a/282984/
Please open Telegram to view this post
VIEW IN TELEGRAM
Как бы ты почистил этот код?
A - Заменить вложенные if на guard clauses
B - Использовать LINQ для фильтрации и суммы
C - Вынести скидку VIP в отдельный метод
D - Все варианты выше
@csharp_ci
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы пишете API на ASP.NET Core и планируете жить с ним дольше одного релиза, версионирование лучше заложить сразу.
Minimal APIs отлично дружат с
ApiVersionSet: можно явно объявить поддерживаемые версии, включить репортинг доступных версий и привязать конкретный endpoint к нужной версии.В примере создается набор версий API:
v1 - текущая стабильная версия v2 - новая версия для развития контракта После этого endpoint
/api/v{version:apiVersion}/workouts/{workoutId} получает привязку через .WithApiVersionSet(apiVersionSet) и явно мапится на .MapToApiVersion(1).Главная идея простая: версия становится частью маршрута, а не скрытой договоренностью между клиентом и backend.
Это особенно важно, когда API уже используют мобильные приложения, внешние интеграции или несколько фронтендов. Вы можете развивать
v2, не ломая клиентов, которые все еще сидят на v1.Для C# backend-разработчика это один из тех паттернов, который выглядит мелочью на старте, но сильно экономит нервы на проде.
Please open Telegram to view this post
VIEW IN TELEGRAM
Представь обычную ситуацию.
Пользователь заходит в корзину, добавляет товары, что-то удаляет, меняет количество и оформляет заказ.
В базе у тебя остаётся только финальное состояние. Просто запись “как есть сейчас”. Всё, что происходило до этого, исчезает.
Ты не увидишь, какие товары удаляли, где пользователь сомневался, на каком шаге что-то пошло не так. Для отладки, аналитики и аудита это слепая зона.
Пока у тебя простой CRUD на ASP.NET Core и Entity Framework Core, это может не мешать. Но как только появляются бизнес-процессы посложнее, начинаются проблемы. Нет истории - нет понимания.
Здесь пригодится Event Sourcing.
Вместо того чтобы перезаписывать состояние, ты сохраняешь каждое изменение как отдельное событие. Не “корзина сейчас такая”, а “в корзину добавили товар”, “товар удалили”, “оформили заказ”.
События неизменяемые. Ты их не редактируешь и не удаляешь. Только добавляешь новые.
Каждая сущность превращается в поток событий. У корзины своя последовательность: создали, добавили товар, удалили, оформили заказ.
Текущее состояние собирается из этих событий. В
C# это обычно выглядит как агрегат, который проигрывает события и восстанавливает состояние в памяти. Плюс там же проверяются бизнес-правила перед добавлением новых событий.
Для чтения строятся отдельные модели. Например, через Marten или тот же PostgreSQL. Они обновляются сразу или асинхронно и отдают данные в API.
В итоге у тебя не просто таблица с текущими значениями, а полная история системы. Можно откатиться на любой момент, разобрать баг, посмотреть реальные действия пользователя.
CRUD отвечает на вопрос “что сейчас в базе”.
Event Sourcing отвечает на вопрос “что реально происходило”.
И для сложных систем это уже не архитектурный стиль, а вопрос выживания проекта.
Гайд по эвент-сорсингу
Пользователь заходит в корзину, добавляет товары, что-то удаляет, меняет количество и оформляет заказ.
В базе у тебя остаётся только финальное состояние. Просто запись “как есть сейчас”. Всё, что происходило до этого, исчезает.
Ты не увидишь, какие товары удаляли, где пользователь сомневался, на каком шаге что-то пошло не так. Для отладки, аналитики и аудита это слепая зона.
Пока у тебя простой CRUD на ASP.NET Core и Entity Framework Core, это может не мешать. Но как только появляются бизнес-процессы посложнее, начинаются проблемы. Нет истории - нет понимания.
Здесь пригодится Event Sourcing.
Вместо того чтобы перезаписывать состояние, ты сохраняешь каждое изменение как отдельное событие. Не “корзина сейчас такая”, а “в корзину добавили товар”, “товар удалили”, “оформили заказ”.
События неизменяемые. Ты их не редактируешь и не удаляешь. Только добавляешь новые.
Каждая сущность превращается в поток событий. У корзины своя последовательность: создали, добавили товар, удалили, оформили заказ.
Текущее состояние собирается из этих событий. В
C# это обычно выглядит как агрегат, который проигрывает события и восстанавливает состояние в памяти. Плюс там же проверяются бизнес-правила перед добавлением новых событий.
Для чтения строятся отдельные модели. Например, через Marten или тот же PostgreSQL. Они обновляются сразу или асинхронно и отдают данные в API.
В итоге у тебя не просто таблица с текущими значениями, а полная история системы. Можно откатиться на любой момент, разобрать баг, посмотреть реальные действия пользователя.
CRUD отвечает на вопрос “что сейчас в базе”.
Event Sourcing отвечает на вопрос “что реально происходило”.
И для сложных систем это уже не архитектурный стиль, а вопрос выживания проекта.
Гайд по эвент-сорсингу
В C# 15 появились union types. И это не косметика, это смена подхода к обработке ошибок.
Вы можете явно описать результат как “либо значение, либо ошибка”, прямо на уровне языка.
Без самодельных Result-классов, без лишних обёрток, без попыток использовать исключения там, где они неуместны.
Раньше, ты либо городишь свой Result и работаешь с лишним бойлерплейтом.
Либо тащишь сторонние библиотеки.
Либо кидаешь исключения и теряешь контроль над потоком.
С union types эта проблема решается .
Pattern matching начинает работать так, как и должен. Ты не гадаешь, что вернул метод, а явно разбираешь все варианты.
Код становится проще читать, проще тестировать и сложнее сломать.
Вы можете явно описать результат как “либо значение, либо ошибка”, прямо на уровне языка.
Без самодельных Result-классов, без лишних обёрток, без попыток использовать исключения там, где они неуместны.
Раньше, ты либо городишь свой Result и работаешь с лишним бойлерплейтом.
Либо тащишь сторонние библиотеки.
Либо кидаешь исключения и теряешь контроль над потоком.
С union types эта проблема решается .
Pattern matching начинает работать так, как и должен. Ты не гадаешь, что вернул метод, а явно разбираешь все варианты.
Код становится проще читать, проще тестировать и сложнее сломать.
This media is not supported in your browser
VIEW IN TELEGRAM
Unity выкатила в открытую бету AI-помощника, который работает не как «чатик сбоку», а как полноценный агент внутри проекта. Он видит контекст сцены, понимает структуру кода и может сам вносить изменения.
Что умеет:
— Plan Mode: разбивает задачу на шаги, пишет код, ищет ошибки и помогает выстроить архитектуру
— Figma-интеграция: можно дать ссылку на макет, а Unity попробует собрать по нему интерфейс
— Генерация ассетов: текстуры, звуки и 3D-объекты можно создавать по текстовому описанию
— Откат изменений: если агент накосячил, правки можно быстро вернуть назад
Для Pro и Enterprise функции уже доступны. В Personal-версии бету можно попробовать через trial.
Геймдев постепенно превращается в работу не только с кодом и сценами, но и с агентами, которые собирают часть проекта по описанию.
А вместе с этим, похоже, нас ждёт новая волна нейрослоп-игр в Steam.
https://unity.com/ru/features/ai?utm_campaign=unity-ai-beta
Please open Telegram to view this post
VIEW IN TELEGRAM