This media is not supported in your browser
VIEW IN TELEGRAM
Модель ростроенная на базе open-source Hunyuan3D 2.1 и называемая «ControlNet для 3D», система решает проблемы кривых генераций и искажённой геометрии, интегрируя до четырёх условий контроля.
Две ключевые инновации:
- Лёгкий унифицированный энкодер управления для эффективного мультимодального фьюжна
- Стратегия прогрессивного обучения по сложности, повышающая устойчивость модели
Возможности:
- Управление по одному изображению и наброску позволяет точно задавать позы для анимаций и аватаров
- Использование облака точек (полного или построенного по глубине): убирает визуальную неопределённость и обеспечивает реалистичную геометрию
- Контроль через bounding box: задаёт пропорции объекта (длину, ширину и высоту) в соответствии с дизайном
- Voxel-контроль: формирует топологию объекта, что удобно и для инженерных, и для творческих сценариев
Tencent дропнули код и веса.
@ai_machinelearning_big_data
#3DGenAI #TencentHunyuan #OpenSourceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥48❤25👍10🥰3💘2
🦾 Google представил Gemini Robotics-ER 1.5 - новую модель для роботов, которая умеет видеть, рассуждать, планировать и действовать в реальном мире.
Что она может:
- Понимать пространство и объекты вокруг.
- Разбивать задачу на шаги (например: «убери стол» → план действий).
- Подключать внешние инструменты - поиск, модели для анализа изображений и др.
- Балансировать скорость и точность: быстро реагировать или глубже анализировать.
- Работать безопаснее: учитывать вес предметов и физические ограничения.
Мир слишком сложен для роботов: окружение, сцены, объекты постоянно меняются.
Gemini Robotics-ER помогает роботам соединять понимание и действие.
📌 Пример: робот сортирует мусор.
Он узнаёт местные правила, распознаёт предметы, планирует действия и выполняет всё безопасно.
https://developers.googleblog.com/en/building-the-next-generation-of-physical-agents-with-gemini-robotics-er-15/
@ai_machinelearning_big_data
#Google #Gemini #Robotics #AI #PhysicalAgents
Что она может:
- Понимать пространство и объекты вокруг.
- Разбивать задачу на шаги (например: «убери стол» → план действий).
- Подключать внешние инструменты - поиск, модели для анализа изображений и др.
- Балансировать скорость и точность: быстро реагировать или глубже анализировать.
- Работать безопаснее: учитывать вес предметов и физические ограничения.
Мир слишком сложен для роботов: окружение, сцены, объекты постоянно меняются.
Gemini Robotics-ER помогает роботам соединять понимание и действие.
📌 Пример: робот сортирует мусор.
Он узнаёт местные правила, распознаёт предметы, планирует действия и выполняет всё безопасно.
https://developers.googleblog.com/en/building-the-next-generation-of-physical-agents-with-gemini-robotics-er-15/
@ai_machinelearning_big_data
#Google #Gemini #Robotics #AI #PhysicalAgents
🔥66❤23👍23🤔5💘2
Media is too big
VIEW IN TELEGRAM
Deutsche Bank предупреждает: нынешний рост инвестиций в ИИ неустойчив.
Расходы на дата-центры и оборудование удерживают США от рецессии, но без них рост ВВП близок к нулю. Goldman оценивает капзатраты в $368 млрд к августу 2025 года.
К 2030 году отрасли потребуется $2 трлн годовой выручки, но прогнозируется дефицит в $800 млрд. Продуктивность от ИИ придёт, но слишком медленно, чтобы оправдать такие масштабы инвестиций.
Fortune
KAT-Dev-32B достигает 62,4% на SWE-Bench Verified, входя в топ-5 среди всех open-source моделей.
KAT-Coder идёт ещё дальше - 73,4%, что ставит его в один ряд с ведущими проприетарными решениями.
HF
InclusionAI анонсировала Ring-flash-linear-2.0, открытое решение с комбинированным вниманием (линейным + стандартным). При активации лишь 6,1 млрд параметров она демонстрирует производительность, сопоставимую с плотной моделью на 40 млрд параметров.
Модель основана на Ling-flash-base-2.0 и дообучена на 1 триллионе токенов. Благодаря использованию MoE и гибридной архитектуре она достигает почти линейной временной сложности и устойчивого потребления памяти - что ускоряет и удешевляет инференс.
Ring-flash-linear-2.0 поддерживает контексты длиной до 128 000 токенов, показывая конкурентные результаты в задачах рассуждения, математики, программирования и генерации текста.
Модель распространяется под лицензией MIT.
HF
В Science Magazine опубликовано исследование, которое описывает новую технологию редактирования ДНК. Она позволяет вносить крупные и точные изменения прямо в нужное место генома человека — то, чего не могли обеспечить существующие методы вроде CRISPR.
CRISPR работает грубо: разрезает ДНК и надеется, что клетка правильно её восстановит. Более точные версии редактируют лишь крошечные участки - десятки или сотню «букв» ДНК. Но большинство болезней связано не с одной мутацией, а с распределёнными изменениями по всему геному.
Учёные нашли решение в бактериальных «прыгающих генах» - так называемых мостовых РНК. Они позволяют безопасно и точно вставлять, удалять или переставлять фрагменты длиной до 1 миллиона пар оснований.
В эксперименте новая технология исправила ДНК-повторы, вызывающие атаксию Фридрейха - редкое неврологическое заболевание. Тот же подход можно применить к болезни Хантингтона и другим тяжёлым наследственным патологиям.
В институте Arc уверены: комбинация их ДНК-модели Evo (для проектирования «здоровых» последовательностей) и метода Bridge recombination (для внедрения изменений) может стать основой будущей «Тьюринговой машины для биологии» — системы, способной переписывать геном с высокой точностью.
Paper
Лицо сохраняется точным, а движения выглядят плавно и естественно.
Главное новшество - два специальных адаптера. ID-adapter закрепляет лицо во всех кадрах, чтобы оно не «менялось» при генерации, а Ref-adapter переносит детали исходного фото - волосы, глаза, текстуру кожи.
Lynx построена на Diffusion Transformer и обучена на базе из 50,2 млн пар изображений и видео с разными выражениями лица, светом и фоном. Это помогает модели уверенно сохранять идентичность человека даже в сложных условиях.
Моделька выйдет персонализированное видео высокого качества, где совпадают лицо, мимика и мелкие детали внешности.
byteaigc
С 10 по 14 ноября участников ждут ежедневные лекции, практические задания и финальный проект для портфолио. В программе — основы архитектуры агентов, работа с Tool Use и API, контекст-инженеринг и память, метрики качества и оптимизация, а также создание первой мультиагентной системы по протоколу Agent2Agent. Регистрация открыта, участие доступно всем без отбора.
Rsvp
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥110❤45👍18💘2
🧪 Генеративный ИИ учится строить молекулы шаг за шагом
NVIDIA представила модель ReaSyn, которая предсказывает пути синтеза молекул - от простых реагентов до целевых соединений.
Как это работает:
- Вместо одной готовой формулы ИИ строит цепочку реакций (chain of reaction)
- Каждый шаг можно проверить и скорректировать
- Усиленное обучение и поиск вариантов помогают находить оптимальные пути
Что это даёт:
✨ Химики получают не только новые молекулы, но и инструкции, как их реально синтезировать
✨ Можно искать аналоги веществ, если прямой синтез невозможен
✨ Ускоряется разработка лекарств, материалов и других инновационных соединений
ИИ теперь помогает не просто придумывать молекулы, а ещё и объясняет, как их создать в лаборатории.
https://developer.nvidia.com/blog/reasoning-through-molecular-synthetic-pathways-with-generative-ai/
@ai_machinelearning_big_data
NVIDIA представила модель ReaSyn, которая предсказывает пути синтеза молекул - от простых реагентов до целевых соединений.
Как это работает:
- Вместо одной готовой формулы ИИ строит цепочку реакций (chain of reaction)
- Каждый шаг можно проверить и скорректировать
- Усиленное обучение и поиск вариантов помогают находить оптимальные пути
Что это даёт:
✨ Химики получают не только новые молекулы, но и инструкции, как их реально синтезировать
✨ Можно искать аналоги веществ, если прямой синтез невозможен
✨ Ускоряется разработка лекарств, материалов и других инновационных соединений
ИИ теперь помогает не просто придумывать молекулы, а ещё и объясняет, как их создать в лаборатории.
https://developer.nvidia.com/blog/reasoning-through-molecular-synthetic-pathways-with-generative-ai/
@ai_machinelearning_big_data
❤81👍35🤔22🔥14💘4
Media is too big
VIEW IN TELEGRAM
🔥 HunyuanImage 3.0 — свежая open-source модель для генерации изображений по тексту (text-to-image) от Hunyuan.
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
👍86❤34🔥30🦄4💘2
🚀 Qwen Chat получил интересные апдейты
Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.
Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.
📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.
Попробовать можно здесь: https://chat.qwen.ai
@ai_machinelearning_big_data
#qwen #llm
Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.
Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.
📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.
Попробовать можно здесь: https://chat.qwen.ai
@ai_machinelearning_big_data
#qwen #llm
🔥92❤26🥰8👍3😁2🙈2😢1🍓1
🚀 DeepSeek-V3.2-Exp - вышла новая экспериментальная версия
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
💰 Цены:
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤102👍29🔥17👏3🤩2🥱2💘2🤨1
Регистрация подходит к концу — не пропусти AIDAO, международную олимпиаду по ИИ и анализу данных от Яндекс Образования и ФКН НИУ ВШЭ
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
❤23🔥8👍7🥱3😁2🍓1
🔬 Учёные MIT представили SCIGEN - новый инструмент, который учит генеративные модели создавать реально полезные материалы, а не только «красивые картинки».
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
❤78🔥29👍24🥰3🍓3❤🔥1
Claude Sonnet 4.5 — лучшая на сегодняшний день модель для программирования.
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
👍92🔥42❤17🥰14😁7🤣5❤🔥2😴2💘2🌚1🗿1
Media is too big
VIEW IN TELEGRAM
Это не про обучение нейросетей с нуля, а про то, как правильно и эффективно использовать их в работе.Курс кратко объясняет, как устроены модели и как их применять, освещает практические приёмы для генерации кода, включает тесты, примеры промптов и интерактив с разными ИИ. Весь материал легко проходится за один вечер.
Курс
Wired сообщает, что OpenAI разрабатывает отдельное приложение в стиле TikTok, но с одним ключевым отличием - весь контент в ленте будет полностью сгенерирован ИИ. Формат привычный: вертикальные видео и свайпы для навигации, но источником роликов станет Sora 2.
OpenAI делает шаг в сторону собственной соцсети, где пользователи будут не делиться контентом, а потреблять бесконечный поток видео, созданных ИИ.
Wired
Авиакомпания объявила о сокращениях в рамках «широкой программы реструктуризации», где ключевой упор делается на цифровизацию, ИИ и автоматизацию.
В пресс-релизе компания подчеркнула, что использование AI позволит значительно повысить эффективность процессов в разных направлениях бизнеса.
Apnews
Это обучающая программа о том, как встроить генеративные ИИ-решения Runway в полный цикл разработки игр - от первых концептов до продакшн-ресурсов и рекламных роликов.
Курс включает пять лекций: про анимацию концепт-арта, симуляцию диалогов персонажей, дизайн уровней, расширение библиотеки игровых ассетов и создание текстур.
Runway
Особенно хорошо справляются с диаграммами, инфографикой и документами
Обучены с помощью RL и «проверяемых наград», что делает подписи более разнообразными и осмысленными
Лцензия Apache 2.0
HF
Новый SDK превращает Claude в платформу для создания агентов, которые умеют работать с файлами, выполнять команды, вызывать API и решать практические задачи.
В основе — цикл агента: получить контекст, действовать, проверять результат и повторять. SDK даёт готовые инструменты, субагентов и механизмы работы с памятью и контекстом.
Поддерживаются сценарии от финансовых помощников и поддержки клиентов до исследовательских и аналитических агентов.
Anthropic
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56❤17👍16💔2🍓2
⚡️ LoRA почти так же хороша, как полный fine-tuning, но в разы дешевле
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
✔️ Правила от команды Thinking Machines
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
✔️ Что в итоге:
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤93👍43🔥20✍7🤗2💘2🍓1