ReadySet — это прозрачный кэш базы данных для Postgres и MySQL, который обеспечивает производительность и масштабируемость хранилища «ключ-значение» в оперативной памяти, не требуя от вас переписывать приложение или вручную обрабатывать аннулирование кэша.
https://github.com/readysettech/readyset
https://github.com/readysettech/readyset
❤2👍1🔥1
Модель с триллионом параметров буквально «удалила половину своего мозга» и стала умнее.
Yuan3.0 Ultra**-— новая open-source мультимодальная **MoE-модель от Yuan Lab.
Всего 1010 млрд параметров, но при инференсе активны только 68.8 млрд.
На бенчмарках RAG она обошла GPT-5.2, Gemini 3.1 Pro и Claude Opus 4.6 с заметным отрывом.
Например:
- 67.4% на Docmatix против 56.8% у GPT-4o
Что умеет модель:
- Enterprise RAG - 68.2% средней точности на 10 задачах поиска
- Анализ сложных таблиц - 62.3% на бенчмарке MMTab
- Text-to-SQL - 83.9% на Spider 1.0
- Мультимодальный анализ документов с контекстом 64K
Ключевая инновация — Layer-Adaptive Expert Pruning (LAEP).
Во время предобучения у MoE возникает сильный дисбаланс:
некоторые эксперты получают в 500 раз больше токенов, чем другие.
LAEP постепенно удаляет малоиспользуемых экспертов слой за слоем,
что позволяет:
- сократить 33% параметров
- увеличить эффективность обучения на 49%
Также исследователи улучшили метод “fast-thinking” RL.
Теперь система больше награждает ответы, которые:
- правильные
- используют меньше шагов рассуждения
Это позволило:
- уменьшить количество выходных токенов на 14.38%
- повысить точность на 16.33%
Главный сигнал из этого исследования:
MoE-модели начинают сжимать себя прямо во время обучения, а не после.
Если pruning станет частью pretraining, стоимость обучения триллионных моделей может резко снизиться.
https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra
Yuan3.0 Ultra**-— новая open-source мультимодальная **MoE-модель от Yuan Lab.
Всего 1010 млрд параметров, но при инференсе активны только 68.8 млрд.
На бенчмарках RAG она обошла GPT-5.2, Gemini 3.1 Pro и Claude Opus 4.6 с заметным отрывом.
Например:
- 67.4% на Docmatix против 56.8% у GPT-4o
Что умеет модель:
- Enterprise RAG - 68.2% средней точности на 10 задачах поиска
- Анализ сложных таблиц - 62.3% на бенчмарке MMTab
- Text-to-SQL - 83.9% на Spider 1.0
- Мультимодальный анализ документов с контекстом 64K
Ключевая инновация — Layer-Adaptive Expert Pruning (LAEP).
Во время предобучения у MoE возникает сильный дисбаланс:
некоторые эксперты получают в 500 раз больше токенов, чем другие.
LAEP постепенно удаляет малоиспользуемых экспертов слой за слоем,
что позволяет:
- сократить 33% параметров
- увеличить эффективность обучения на 49%
Также исследователи улучшили метод “fast-thinking” RL.
Теперь система больше награждает ответы, которые:
- правильные
- используют меньше шагов рассуждения
Это позволило:
- уменьшить количество выходных токенов на 14.38%
- повысить точность на 16.33%
Главный сигнал из этого исследования:
MoE-модели начинают сжимать себя прямо во время обучения, а не после.
Если pruning станет частью pretraining, стоимость обучения триллионных моделей может резко снизиться.
https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra
❤9👍7
🔥 Zero-cost поиск для AI-приложений — идея из turbopuffer
Большинство систем поиска и векторных БД сегодня очень дорогие.
Причина простая, они хранят данные в RAM или реплицированных SSD, где стоимость может доходить до $600–$3600 за TB в месяц.
Но turbopuffer предлагает другой подход.
Хранить данные не в памяти серверов, а в object storage (например S3 или GCS).
Стоимость:
- RAM + SSD инфраструктура - до $3600/TB
- SSD-кластеры - около $600/TB
- Object storage (S3) - примерно $20/TB
-
Разница может достигать до 100× дешевле для холодных данных.
📌 Архитектура turbopuffer:
То есть:
- холодные данные хранятся дешево в object storage
- часто используемые попадают в SSD или RAM cache
- запросы остаются быстрыми (<100ms), но стоимость инфраструктуры падает на порядок
Vector search становится ключевой частью AI-систем:
- RAG
- AI-ассистенты
- semantic search
- recommendation systems
Но именно retrieval слой часто становится самой дорогой частью AI-инфраструктуры.
Архитектура turbopuffer показывает, что:
> дешевый storage + умный cache
> может заменить дорогие memory-based search системы.
Будущее AI-поиска может выглядеть так:
- object storage как источник данных
- stateless compute
- дешёвый storage
- кэш для hot data
И тогда поиск по миллиардам документов становится почти “zero-cost” инфраструктурой.
Подробнее:
https://turbopuffer.com/blog/zero-cost
Большинство систем поиска и векторных БД сегодня очень дорогие.
Причина простая, они хранят данные в RAM или реплицированных SSD, где стоимость может доходить до $600–$3600 за TB в месяц.
Но turbopuffer предлагает другой подход.
Хранить данные не в памяти серверов, а в object storage (например S3 или GCS).
Стоимость:
- RAM + SSD инфраструктура - до $3600/TB
- SSD-кластеры - около $600/TB
- Object storage (S3) - примерно $20/TB
-
Разница может достигать до 100× дешевле для холодных данных.
📌 Архитектура turbopuffer:
Client
↓
Query layer
↓
SSD / memory cache (горячие данные)
↓
Object storage (источник истины)
То есть:
- холодные данные хранятся дешево в object storage
- часто используемые попадают в SSD или RAM cache
- запросы остаются быстрыми (<100ms), но стоимость инфраструктуры падает на порядок
Vector search становится ключевой частью AI-систем:
- RAG
- AI-ассистенты
- semantic search
- recommendation systems
Но именно retrieval слой часто становится самой дорогой частью AI-инфраструктуры.
Архитектура turbopuffer показывает, что:
> дешевый storage + умный cache
> может заменить дорогие memory-based search системы.
Будущее AI-поиска может выглядеть так:
- object storage как источник данных
- stateless compute
- дешёвый storage
- кэш для hot data
И тогда поиск по миллиардам документов становится почти “zero-cost” инфраструктурой.
Подробнее:
https://turbopuffer.com/blog/zero-cost
❤6👎1🤬1
Вы выполнили серию операций в рамках одной транзакции (изменили несколько строк). Как отменить все эти изменения?
Anonymous Quiz
6%
A) COMMIT;
4%
B) SAVEPOINT;
81%
C) ROLLBACK;
9%
D) UNDO;
👍7❤3
В основе любого сильного проекта стоит сильный специалист.
В IT-мире сложно представить востребованного специалиста, который не разбирается в том, как работают: архитектура, API, базы данных, алгоритмы.
Без этого никуда.
И не страшно, если вы пока плохо разбираетесь в каких-то современных системах. Хуже, если продолжаете игнорировать свои пробелы в hard skills.
Начните с бесплатных уроков по архитектуре и интеграциям:
▪️мощный инструмент — SOAP UI
▪️подробное описание процесса загрузки сайта
▪️модель TCP/IP и устройства
▪️XML — это вам не ХSD
Присоединяйтесь в чат-боте по ссылке:
👇
@studyit_help_bot
🚀 Скидка на полный курс от канала — 1 500 ₽ на Stepik по промокоду SQLHUB до конца февраля.
В IT-мире сложно представить востребованного специалиста, который не разбирается в том, как работают: архитектура, API, базы данных, алгоритмы.
Без этого никуда.
И не страшно, если вы пока плохо разбираетесь в каких-то современных системах. Хуже, если продолжаете игнорировать свои пробелы в hard skills.
Начните с бесплатных уроков по архитектуре и интеграциям:
▪️мощный инструмент — SOAP UI
▪️подробное описание процесса загрузки сайта
▪️модель TCP/IP и устройства
▪️XML — это вам не ХSD
Присоединяйтесь в чат-боте по ссылке:
👇
@studyit_help_bot
🚀 Скидка на полный курс от канала — 1 500 ₽ на Stepik по промокоду SQLHUB до конца февраля.
👍1
🚀 SQLite, у которой недавно вышел новый релиз, имеет один из самых необычных Code of Ethics во всей индустрии.
История появления документа довольно забавная. Некоторым компаниям, использующим SQLite, требовалось указывать ссылку на Code of Conduct в своих внутренних политиках. Тогда разработчики SQLite просто решили сделать собственный кодекс, но очень нестандартным способом.
Вместо привычного корпоративного CoC они взяли «Правило святого Бенедикта» - монашеский свод принципов VI века и сделали его основой своего кодекса.
Вот несколько первых пунктов:
- Прежде всего возлюби Господа Бога всем своим сердцем, всей душой и всей силой
- Затем возлюби ближнего своего как самого себя
- Не убивай
- Не прелюбодействуй
- Не кради
- Не желай чужого
- Не лжесвидетельствуй
- Почитай всех людей
- Не делай другим того, чего не хотел бы для себя
Всего таких правил - 72, и читаются они скорее как философские или духовные принципы, чем как стандартный документ для open-source проекта.
И важная деталь:
этот кодекс — обещание самих разработчиков SQLite, а не требования к пользователям или сообществу. То есть разработчики просто говорят: *мы будем придерживаться этих принципов в работе с вами*.
В мире, где Code of Conduct обычно выглядит как длинный юридический документ, SQLite выбрала… правила монастыря VI века.
sqlite.org/codeofethics.html
История появления документа довольно забавная. Некоторым компаниям, использующим SQLite, требовалось указывать ссылку на Code of Conduct в своих внутренних политиках. Тогда разработчики SQLite просто решили сделать собственный кодекс, но очень нестандартным способом.
Вместо привычного корпоративного CoC они взяли «Правило святого Бенедикта» - монашеский свод принципов VI века и сделали его основой своего кодекса.
Вот несколько первых пунктов:
- Прежде всего возлюби Господа Бога всем своим сердцем, всей душой и всей силой
- Затем возлюби ближнего своего как самого себя
- Не убивай
- Не прелюбодействуй
- Не кради
- Не желай чужого
- Не лжесвидетельствуй
- Почитай всех людей
- Не делай другим того, чего не хотел бы для себя
Всего таких правил - 72, и читаются они скорее как философские или духовные принципы, чем как стандартный документ для open-source проекта.
И важная деталь:
этот кодекс — обещание самих разработчиков SQLite, а не требования к пользователям или сообществу. То есть разработчики просто говорят: *мы будем придерживаться этих принципов в работе с вами*.
В мире, где Code of Conduct обычно выглядит как длинный юридический документ, SQLite выбрала… правила монастыря VI века.
sqlite.org/codeofethics.html
😁12❤10👍6👎2🎉1
Ваши дашборды грузятся по минуте? SQL-запросы «падают» на продакшене, а бизнес требует отчеты «еще вчера»?
Руководители команд аналитики и senior-разработчики знают: узкое место — не мощность сервера, а эффективность кода и архитектуры запросов.
Прокачайте скорость - получите бесплатно урок «Аналитика без тормозов» от Георгия Семенова, руководителя команды Analytics Engineering в Яндексе с 14-летним опытом (экс-VK, Wildberries, ВТБ).
Вы узнаете:
🔸Тактические и стратегические методы ускорения запросов и дашбордов, применимые к любой СУБД
🔸Специфические нюансы оптимизации, которые отличают middle от senior.
Но это не всё. Мы понимаем: результат дает прокачка всей команды и внедрение знаний в конкретные рабочие задачи.
Для руководителей отделов аналитики: хотите масштабировать этот эффект?
Симулейтив предлагает корпоративное обучение под ключ:
Примените практику из бесплатного урока уже сегодня, а затем внедрите её в работу всего отдела аналитики - сделайте шаг, чтобы ваши процессы полетели: ТРЕНИНГ ПО SQL
Руководители команд аналитики и senior-разработчики знают: узкое место — не мощность сервера, а эффективность кода и архитектуры запросов.
Прокачайте скорость - получите бесплатно урок «Аналитика без тормозов» от Георгия Семенова, руководителя команды Analytics Engineering в Яндексе с 14-летним опытом (экс-VK, Wildberries, ВТБ).
Вы узнаете:
🔸Тактические и стратегические методы ускорения запросов и дашбордов, применимые к любой СУБД
🔸Специфические нюансы оптимизации, которые отличают middle от senior.
Но это не всё. Мы понимаем: результат дает прокачка всей команды и внедрение знаний в конкретные рабочие задачи.
Для руководителей отделов аналитики: хотите масштабировать этот эффект?
Симулейтив предлагает корпоративное обучение под ключ:
🔸Преподаватели-практики из “биг-теха” адаптируют программу под ваши бизнес-задачи
🔸Индивидуальный итоговый проект каждого сотрудника строится на его реальной рабочей задаче
🔸Бессрочная поддержка преподавателей и доступ к закрытым мастер-классам
🔸Выгода до 30% при пакетном обучении команды
Примените практику из бесплатного урока уже сегодня, а затем внедрите её в работу всего отдела аналитики - сделайте шаг, чтобы ваши процессы полетели: ТРЕНИНГ ПО SQL
👎3🔥2
Forwarded from Machinelearning
NVIDIA обучила семейство моделей Nemotron-Terminal для автономной работы в терминале Linux: устанавливать зависимости, писать и запускать код, отлаживать окружения и выполнять сквозные инженерные задачи без участия человека.
Семейство построено на базе Qwen3 и специально собранном датасете Terminal-Corpus. И фишка не в архитектуре, а в данных.
Первый адаптирует готовые датасеты по математике, коду и SWE-задачам под терминальный формат (без участия LLM в процессе адаптации).
Второй генерирует синтетику 2 методами: seed-based (LLM создает новые задачи на основе существующих задач из смежных областей) и skill-based (LLM комбинирует до пяти примитивных навыков из таксономии по 9 доменам: Security, Data Science, System Administration и другим).
Terminal-Corpus: около 366K траекторий выполнения задач, разбитых на два потока: ~226K адаптированных примеров из Math/Code/SWE и ~140K синтетических задач на основе skill-таксономии.
Synthetic-Tasks: задачи в стандартизированном формате: инструкция, Docker-окружение из 9 преднастроенных образов и верификационный набор на pytest.
На Terminal-Bench 2.0 все 3 модели показали кратный рост относительно базовой Qwen3: 8B - с 2.5% до 13%, 14B - с 4% до 20.2%, 32B - с 3.4% до 27.4%.
Для сравнения: Qwen3-Coder на 480B параметров набирает 23.9%, GPT-5-Mini - 24.0%, Grok 4 - 23.1%. Nemotron-Terminal-32B превосходит или вплотную конкурирует с ними всеми при разнице в размере на порядок.
Фильтрация неудачных траекторий вредит. Модель, обученная на всех траекториях включая ошибочные, набирает 12.4% против 5.06% у варианта только с успешными.
Curriculum learning (сначала простые данные, потом сложные) не дал преимуществ перед простым смешанным обучением.
Увеличение контекстного окна с 32K до 65K токенов также не помогло, длинные траектории оказались шумнее.
@ai_machinelearning_big_data
#AI #ML #LLM #NemotronTerminal #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1
PG BootCamp Russia 2026 — комьюнити-конференция российского сообщества PostgreSQL с подтвержденным официальным международным статусом.
Мероприятие бесплатное, онлайн+офлайн, ориентировано на администраторов БД, разработчиков, инженеров, аналитиков, архитекторов.
Эксперты из Tantor, Яндекс, СберТех, Тензор, Хи-квадрат, Luxms BI и других компаний выступят по темам, связанным с разработкой, эксплуатацией и взаимодействием PostgreSQL с другими системами.
В предварительной программе:
📎 Решение застарелых архитектурных проблем PostgreSQL для современных нагрузок и масштабирования📎 Временные таблицы для Postgres. Почему это важно для платформы 1С и что можно улучшить?📎 Разделение Compute и Storage: архитектурный прорыв для PostgreSQL в облаке📎 Опыт вынесения OLAP-нагрузки на реплику📎 Highload "из ниоткуда": когда проблема не в СУБД, а в клиентской архитектуре📎 Опыт эксплуатации, проблемы и производительность PostgreSQL на Эльбрус, Baikal-S, Loongson, Repka Pi, x86📎 Поиск проблем планирования запросов до их воздействия на производительность📎 Тестирование, баги и уроки работы с патчем 64-битного счетчика транзакций PostgreSQL📎 Работа с логами PostgreSQL📎 …и другие (всего 25 выступлений)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👏1
У вас есть таблица sales с колонками country, product, amount. Как получить общий объем продаж для каждого продукта и для каждой страны, а также общую сумму продаж для всех стран и продуктов?
Anonymous Quiz
28%
A) SELECT country, product, SUM(amount) FROM sales GROUP BY CUBE(country, product);
19%
B) SELECT country, product, SUM(amount) FROM sales GROUP BY ROLLUP(country, product);
28%
C) SELECT country, product, SUM(amount) FROM sales GROUP BY GROUPING SETS(country, product, ());
24%
D) SELECT country, product, SUM(amount) FROM sales GROUP BY country, product WITH CUBE;
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Как ROSTIC'S ускорили аналитику в 3 раза: кейс от Яндекса
Yandex B2B Tech выпустила «Техно на прокачку» — шоу, где показывают работу платформы данных на примере сети ROSTIC'S.
Суть проекта:
• Еженедельно рестораны генерируют больше 100 Гб данных: чеки, транзакции, история заказов
• Чтобы бизнес получал аналитику без задержек, внедрили платформу данных от Яндекса
• Отчеты теперь загружаются в 3 раза быстрее
В шоу разобрали архитектуру решения: от интеграции касс и терминалов до managed-сервисов для опенсорсных баз данных. А комик Егор Кукса в роли «гуру успеха» проверяет инженеров на прочность и предлагает свои надежные, но не очень технологичные решения, от мотивационных речей до флешки деверя.
Посмотреть как это было уже можно на YouTube, VK Видео или Кинопоиске.
Yandex B2B Tech выпустила «Техно на прокачку» — шоу, где показывают работу платформы данных на примере сети ROSTIC'S.
Суть проекта:
• Еженедельно рестораны генерируют больше 100 Гб данных: чеки, транзакции, история заказов
• Чтобы бизнес получал аналитику без задержек, внедрили платформу данных от Яндекса
• Отчеты теперь загружаются в 3 раза быстрее
В шоу разобрали архитектуру решения: от интеграции касс и терминалов до managed-сервисов для опенсорсных баз данных. А комик Егор Кукса в роли «гуру успеха» проверяет инженеров на прочность и предлагает свои надежные, но не очень технологичные решения, от мотивационных речей до флешки деверя.
Посмотреть как это было уже можно на YouTube, VK Видео или Кинопоиске.
❤5👎1
Трюк дня. Сравнение с предыдущим. Решение.
Решение: использование
Если сформулировать обычным языком следующий запрос, то окажется, что он выражает следующую идею: нужно выбрать такие идентификаторы, чтобы температура, соответствующая представляемым ими датам, была бы больше, чем температура на «вчерашние» по отношению к ним даты.
#tips
Решение: использование
DATEDIFF
DATEDIFF: эта функция вычисляет разницу между двумя датами. Она используется для того, чтобы обеспечить сравнение именно «сегодняшних» и «вчерашних» температур.Если сформулировать обычным языком следующий запрос, то окажется, что он выражает следующую идею: нужно выбрать такие идентификаторы, чтобы температура, соответствующая представляемым ими датам, была бы больше, чем температура на «вчерашние» по отношению к ним даты.
SELECT DISTINCT a.Id
FROM Weather a, Weather b
WHERE a.Temperature > b.Temperature
AND DATEDIFF(a.Recorddate, b.Recorddate) = 1
#tips
👍5❤3🤔2
Типичная работа с ИИ?
— Зачем ты удалил продакшн-базу данных?
— Ты абсолютно прав!
🚀 Полезный ресурсы по БД⚡️ Max
— Зачем ты удалил продакшн-базу данных?
— Ты абсолютно прав!
🚀 Полезный ресурсы по БД⚡️ Max
😁24❤5👍3
Вот где большинство агент-фреймворков ошибаются:
Память хранится в одном месте.
Ресурсы — в другом.
Навыки разбросаны по системе.
Когда агенту нужен контекст, обычно делают плоский векторный поиск и просто надеются на лучший результат.
Именно это и проблема. OpenViking решает её одной идеей:
рассматривать контекст агента как файловую систему.
Всё работает через единый протокол:
viking://Память, ресурсы и навыки организованы как директории с уникальными URI.
Агент может ls, find и навигировать по контексту, как разработчик в терминале.
Главный прорыв — многоуровневая загрузка контекста:
- L0 — одно предложение для быстрого поиска
- L1 — обзор ~2000 токенов для принятия решений
- L2 — полные детали, загружаются только когда действительно нужны
Большинство агентов просто загружает всё в контекст и надеется на лучшее.
OpenViking загружает только нужные данные и только в нужный момент.
Результат:
- меньше расходов на токены
- выше точность
- быстрее работа агентов
Retrieval теперь тоже работает логичнее.
Вместо одного плоского семантического поиска:
1. сначала происходит позиционирование на уровне директорий
2. затем рекурсивный поиск внутри наиболее релевантных директорий
Можно буквально видеть траекторию поиска — это больше не чёрный ящик.
Есть и механизм самоэволюции агента.
В конце каждой сессии система автоматически:
- извлекает новые знания
- обновляет память агента
- обновляет память пользователя
То есть агент становится умнее с каждым использованием.
Проект уже имеет:
- 9K звёзд на GitHub
- 13 контрибьюторов
Разработан командой ByteDance Viking, которая строит инфраструктуру векторного поиска с 2019 года.
Проект полностью open-source под лицензией Apache 2.0.
https://github.com/volcengine/OpenViking
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3
🔥Есть план на 27 марта
Мы узнали, что AvitoTech собирает Database meetup, и решили, что мимо такого проходить нельзя. Тематика — самая что ни на есть хайповая: базы данных, масштабирование, безопасность.
Что обещают организаторы:
— Никита Жига поделится чек-листом по защите чувствительных данных на DBaaS и расскажет, как она устроена в Авито
— Роман Ананьев покажет различия и преимущества FoundationDB и Cassandra 5 на практике
— Игорь Конев проведёт по пути масштабирования S3, который отличается от других подходов в бигтехе
Встречаемся в офисе коллег в последнюю пятницу месяца. Если вдруг будете не в городе или просто лень выходить из дома — включайте онлайн-трансляцию.
Осталось только зарегистрироваться, оставляем ссылку
Мы узнали, что AvitoTech собирает Database meetup, и решили, что мимо такого проходить нельзя. Тематика — самая что ни на есть хайповая: базы данных, масштабирование, безопасность.
Что обещают организаторы:
— Никита Жига поделится чек-листом по защите чувствительных данных на DBaaS и расскажет, как она устроена в Авито
— Роман Ананьев покажет различия и преимущества FoundationDB и Cassandra 5 на практике
— Игорь Конев проведёт по пути масштабирования S3, который отличается от других подходов в бигтехе
Встречаемся в офисе коллег в последнюю пятницу месяца. Если вдруг будете не в городе или просто лень выходить из дома — включайте онлайн-трансляцию.
Осталось только зарегистрироваться, оставляем ссылку
👍1
Forwarded from Machinelearning
Он взял данные по 342 профессиям из статистики BLS (≈143 млн работников в США) и с помощью LLM оценил, насколько каждая из них подвержена влиянию AI по шкале 0–10.
Результат он визуализировал в виде treemap.
Средний показатель по всем профессиям: 5.3 / 10.
Примеры:
• разработчики ПО: 8–9
• кровельщики: 0–1
• специалисты по расшифровке медицинских записей: 10 / 10 💀💀
Паттерн довольно простой.
Если вся работа происходит за экраном, риск автоматизации высокий.
Если она требует физического труда и непредсказуемой среды, вы гораздо безопаснее.
По оценке Карпати, около 57 млн работников в США - почти 40% всей рабочей силы - находятся в зоне высокого риска изменений из-за AI.
https://karpathy.ai/jobs/
@ai_machinelearning_big_data
#ai #ml #future #jobs #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8👎6😁1