378K subscribers
4.37K photos
830 videos
17 files
4.85K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📌BED-LLM: адаптивный сбор информации для LLM.

Исследователи из Оксфорда и Apple представили BED-LLM, новый подход для улучшения способности LLM разумно и адаптивно собирать информацию от пользователя или другого внешнего источника.

Суть подхода заключается в применении последовательного Байесова экспериментального дизайна к процессу генерации вопросов. Вместо промптинга система максимизирует ожидаемый прирост информации при каждом следующем вопросе. Алгоритм итеративно выбирает запросы, которые дают максимальную информацию о целевом параметре.

Критический момент — правильная конструкция совместной модели распределения целевой переменной и ответов с учетом вопросов. Выбор между парой «приор-правдоподобие» и «данные-оценка» кардинально влияет на производительность. Итоговый выбор пал на на первом варианте, как более подходящем для случаев, когда пространство целевых гипотез сложнее пространства возможных ответов.

Ключевая фишка BED-LLM в фильтрации гипотез с учетом истории диалога. Система не полагается только на контекстное обучение. Вместо этого алгоритм сначала сэмплирует кандидатов из распределения модели, а затем отфильтровывает несовместимые с историей варианты через проверку правдоподобия.

🟡Тесты

Чтобы проверить метод в деле, его протестировали на классической игре "20 вопросов". В задаче по угадыванию знаменитостей результат на Mistral-Large поднялся с 14% при использовании стандартных промптов (Naive QA) до 91% с фреймворком BED-LLM.

Упрощенный подход, основанный на максимизации энтропии показал промежуточный результат в 68%. Схожая картина и с другими моделями: Qwen2.5-72B при угадывании животных достигла 94% точности с BED-LLM против 85% у энтропии и всего 45% у Naive QA. А GPT-4o в тесте со знаменитостями показала рост с 45% до 86%.

Второй тест метода провели на более абстрактной задаче - выявлении кинопредпочтений пользователя.

Здесь вместо угадывания конкретного объекта модель должна была составить профиль вкусов пользователя, задавая ему вопросы с несколькими вариантами ответа. Качество рекомендаций, сгенерированных на основе этого профиля, оценивалось по шкале от 1 до 5. И здесь BED-LLM стабильно опережал конкурентов, выходя в лидеры уже к третьему вопросу.

Интересное наблюдение: простое использование предсказательной энтропии вместо полного ожидаемого прироста информации значительно ухудшает результаты. Многие предыдущие теории делали именно такое упрощение, считая энтропию правдоподобия константой. Эксперименты с BED показали, что это неоправданное допущение - вариативность ожидаемой условной неопределенности между вопросами может быть решающей для выбора хороших запросов.



🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #Research #BayesianDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4119👍18💘1
Media is too big
VIEW IN TELEGRAM
🤖 XLeRobot — домашний робот за $660, который управляется с геймпада Xbox.

XLeRobot — это открытый проект, который позволяет собрать настоящего двухрукого мобильного робота своими руками.

Автор — студент Rice University Gaotian Wang, в проектеон сделал упор на доступность и практичность.

💡 Основное:
- Цена сборки ≈ $660 — полноценный робот с двумя руками и колесной базой.
- Можно собрать упрощённую версия за $250 на базе LeKiwi + SO-100, которая собирается быстрее.
- В комплекте: URDF-модели, симуляция, управление через VR, Joy-Con или Xbox-геймпад.
- Подходит для экспериментов в симуляции и переноса в реальный мир (**Sim2Real**).
взаимодействия с окружающей средой.

📈 Популярность: проект уже собрал 1.7k+ звёзд и десятки форков на GitHub.

XLeRobot — это недорогая и открытая платформа для тех, кто хочет попробовать себя в робототехнике, исследовать управление, симуляцию и AI-алгоритмы на реальном роботе.

🟢Репозиторий: github.com/Vector-Wangel/XLeRobot

@ai_machinelearning_big_data


#robotics #opensource #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
110👍37🔥21😁4🤣4🌭2🍓2❤‍🔥1💘1
🇪🇺 NEWS: ASML инвестирует €1.3B в Mistral

Европейский чип-гигант ASML вложит €1.3 млрд в Series C раунд Mistral (€1.7B) и станет крупнейшим акционером стартапа.

💰 Оценка Mistral — €10 млрд ($11.7B) pre-money.

Что значит *pre-money*?
Это стоимость компании до привлечения новых инвестиций. То есть инвесторы договорились, что Mistral стоит €10 млрд, и только потом добавили ещё €1.7 млрд свежих денег. После этих вложений итоговая стоимость компании становится €11.7 млрд post-money.

🟢 Главное
Союз лидеров: крупнейший поставщик оборудования для чипов (ASML) объединяется с самой быстрорастущей AI-лабораторией Европы (Mistral).
Суверенность: Европа строит собственный стек - от чипов до моделей, снижая зависимость от США и Китая.
Ресурсы для Mistral: свежие деньги для роста, доступ к управлению, громкая оценка для привлечения талантов и заключения крупных контрактов.

🟢Технический аспект
ASML (Нидерланды) - единственный в мире производитель EUV-литографии (*Extreme Ultraviolet Lithography* - технология печати микросхем с использованием сверхкоротких волн ультрафиолета).
Один аппарат стоит ~$180M и используется TSMC и Intel. Даже небольшие улучшения в производительности приносят огромные деньги.

Эта сделка - это стратегический союз, который даёт Европе шанс поучаствовать в AI гонке.

🟢 Подробнее

@ai_machinelearning_big_data

#ai #news #mistral #investments
Please open Telegram to view this post
VIEW IN TELEGRAM
67👍34🔥17😁5🤔32🤬2💘1
🎬 OpenAI снимает полнометражный мультфильм с помощью ИИ

OpenAI поддерживает проект Critterz — первый полнометражный анимационный фильм, созданный преимущественно с применением генеративного ИИ.

📌 Задача проекта — доказать, что кино можно снимать в несколько раз быстрее и дешевле, чем в Голливуде:
- вместо привычных 3 лет производство займёт всего 9 месяцев
- бюджет — менее $30 млн (значительно меньше, чем обычно стоит производство подобных анимационных фильмов)
- премьера намечена на Каннский кинофестиваль в мае 2026 года, после чего планируется мировой прокат

Команда собирается привлечь живых актёров для озвучивания персонажей и нанять художников, которые подготовят эскизы. Эти материалы будут загружаться в инструменты OpenAI — включая GPT-5 и модели генерации изображений.

⚡️ Основная ставка делается на быстрые итерации: эскиз → генерация → правка → повторная генерация. Такой процесс должен заменить долгие и дорогие ручные пайплайны классической анимации.

🟢 Подробнее

@ai_machinelearning_big_data

#ai #openai #genai


🟢 Подробнее

@ai_machinelearning_big_data

#ai #openai #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5628🔥17😁11🤬8😭8🥱53🤔2😢1💘1
💰 Google TPUs - главный конкурент NVIDIA?

Аналитики считают: если бы Google выделила бизнес по TPU-чипам вместе с лабораторией DeepMind, то объединённая компания могла бы стоить около $900 млрд.

Пока этого не произойдёт, но сама цифра показывает масштаб.

📌 Что такое TPU и почему они важны
🟢Чипы, созданные специально для машинного обучения
🟢Их производительность — до 42,5 экзафлопс
🟢Сами чипы сопоставимы с NVIDIA по скорости и энергоэффективности
🟢 За полгода активность разработчиков в Google Cloud выросла на 96% , благодаря собственному железу

🔥 Новые поколения чипов
- 6-е поколение Trillium уже пользуется высоким спросом
- 7-е поколение Ironwood станет первым TPU, ориентированным на крупномасштабный inference — этап, когда модели реально используются после обучения

Anthropic и xAI активно рассматривают переход на TPU, так как улучшенная поддержка через JAX делает их использование на больших масштабах заметно проще.

Google уже заключила сделку с Fluidstack (Нью-Йорк) и ведёт переговоры с другими облачными провайдерами, которые раньше работали в основном с NVIDIA (например, Crusoe и **CoreWeave**).

В итоге Google выходит в прямую конкуренцию с NVIDIA — и впервые за долгое время у «зелёного гиганта» появился серьёзный соперник.

🟢Новость: marketwatch. com/story/google-may-be-sitting-on-a-900-billion-gem-that-could-disrupt-nvidias-dominance-20662ec6

@ai_machinelearning_big_data

#google #nvidia #tpu #deeplearning
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥1910🤔3💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Google DeepMind показала, как роботы учатся работать вместе с помощью обучения с подкреплением.

Учёные из UCL, Google DeepMind и Intrinsic представили новый AI-алгоритм RoboBallet — систему, которая позволяет нескольким роботизированным манипуляторам работать синхронно и без столкновений в сложной производственной среде,.

🔹 В эксперименте участвовали 8 роботов, каждый из которых мог выполнять 40 разных задач в одном общем пространстве.
🔹 Роботы могли брать любую задачу в любом порядке — система сама решала, кому что поручить и как построить безопасные траектории.
🔹 Алгоритм обучался в симуляции, а затем сразу работал в новых условиях без дообучения (*zero-shot*).

Пока решение работает только для задач перемещения (reaching), без учёта порядка выполнения или разных типов роботов.

Однако архитектура гибкая — в будущем возможно добавление сложных задач, зависимостей и разнообразных роботов.

Один алгоритм смог координировать целую команду, делая роботов гибкими и слаженными даже там, где они раньше не работали.

🟢 Подробнее: https://www.science.org/doi/10.1126/scirobotics.ads1204

@ai_machinelearning_big_data

#google #robots #ai #rl
Please open Telegram to view this post
VIEW IN TELEGRAM
65👍40🔥21🥱3🤔2🗿1💘1
🚀 Grok 2.5 теперь можно запускать локально!

Unsloth выкатили оптимизированную версию модели:

🔹 270B параметров работает на обычном Mac с 128GB RAM (~5 токенов/сек)
🔹 Размер уменьшен с 539GB до 118GB (–80%)
🔹 Ключевые слои модели сохранены в 8-битном формате, а все остальные сжаты с помощью динамического 3-битного GGUF.

🟢Гайд: https://docs.unsloth.ai/basics/grok-2
🟢 GGUF: https://huggingface.co/unsloth/grok-2-GGUF

@ai_machinelearning_big_data

#AI #xAI #Grok2 #LLM #OpenSource #MachineLearning #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥139👍2322😁15🥱10🗿6🤣3🤔2💘1
📌Во Владивостоке исследователи из Т-Технологий представили метод, который ускоряет тестирование программ до шести раз

Targeted Test Selection (T-TS) — подход к оптимизации CI/CD. Вместо тысячи проверок, система запускает около 15% тестов и при этом находит до 95% ошибок. Метод уже внедрили в инфраструктуру Т-Банка.

💡Основное:
-Ускорение тестирования в среднем 5,6 раз
-Подходит для любых языков программирования
-Работает по принципу “мешок слов” — анализирует историю изменений в репозитории и адаптируется к вносимым изменениям
-Масштабируется на крупные финтех компании

Результаты исследования представлены на международной конференции ICSME 2025 в Новой Зеландии

🟢Репозиторий: https://github.com/trndcenter/t-ts-benchmark/

@ai_machinelearning_big_data

#news #Research #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7329🔥11🥱7🤔5👏2💘2
✔️ Alibaba инвестировала $140 млн в ИИ-роботов

Alibaba Group и Alibaba Cloud возглавили консорциум по финансированию шэньчжэньского стартапа X Square Robot (осн. 2023). Участвовали HSG, Meituan и Legend Star.
Это часть стратегии Alibaba — компания планирует вложить $53 млрд в ИИ-инфраструктуру. Цель сделки — новое поколение «умной робототехники», где ИИ отвечает за автономность и принятие решений. Инвестиция также отражает курс Китая на ускоренное развитие сектора ИИ и робототехники.
mktnews.com

✔️ Unitree Robotics готовится к IPO ($7 млрд)

Китайский производитель гуманоидных роботов Unitree планирует выйти на шанхайскую биржу STAR Market в IV квартале. Цель — оценка $7 млрд (почти в 6 раз выше июльского раунда).
Компания — лидер в Китае по производству роботов-гуманоидов, её продукция используется в университетах и на публичных мероприятиях. Unitree уже прибыльна: выручка >1 млрд юаней ($140 млн). За спиной — Alibaba, Tencent и Geely. Успешное IPO станет ключевым индикатором интереса инвесторов к физическим воплощениям ИИ.
reuters.com

✔️ Google снизила цены на Veo 3 и добавила 1080p

Стоимость генерации видео в Veo 3 упала: стандартная версия — с $0.75 до $0.40 за секунду (-47%), Veo 3 Fast — до $0.15 (-62.5%). Теперь поддерживаются вертикальные форматы (9:16) и качество 1080p. Обе модели стабильны и доступны через Gemini API.
Это сигнал к масштабированию и ценовой конкуренции на рынке видео-ИИ. Veo 3 уже применяется в проектах Invisible Studio, Saga, Mosaic для ускорения контент-продакшена.
X.com

✔️ Claude получил доступ к данным смартфона

Anthropic расширила возможности ассистента Claude на мобильных устройствах. При разрешении пользователя ИИ теперь может использовать геолокацию, календарь и другие данные для планирования мероприятий и рекомендаций.
Это шаг к созданию по-настоящему персональных ИИ-агентов, работающих с контекстом пользователя. Такой подход усиливает конкуренцию среди мобильных ассистентов и закрепляет тренд интеграции ИИ в повседневные процессы.
Скачать

✔️ Anthropic поддержала калифорнийский законопроект SB 53

Компания официально выступила в поддержку инициативы сенатора Скотта Винера, регулирующей передовые ИИ-системы. Ключевые положения:
• публикация принципов безопасности и прозрачности
• уведомление о критических инцидентах в течение 15 дней
• защита осведомителей и санкции за нарушения
• порог для регулирования — >10²⁶ FLOPs

Anthropic отмечает, что закон закрепляет уже применяемые практики и создаёт равные условия для конкуренции. Это первый случай открытой поддержки крупной ИИ-лабораторией регуляторных инициатив.
anthropic.com

✔️ Google обновила NotebookLM

- Флэшкарты и квизы: формат «вопрос–ответ» + тесты с настройкой сложности.
-Reports: авто-рекомендации форматов (блог, white paper, стади-гайд и др.), кастомизация промптов.
- ИИ-подкасты: новые режимы — Deep Dive, Brief, Critique, Debate; поддержка всех языков.
Примеры, видео, квиза и карточек прикрепили к посту.
Notebooklm

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥58👍2819🤬2💘1
🎙️ Qwen3-ASR — универсальная модель распознавания речи!

🟢Поддержка EN/CN + ещё 9 языков: ar, de, en, es, fr, it, ja, ko, pt, ru, zh
🟢 Авто-определение языка
🟢 Модель умеет распознавать речь даже в сложных условиях — когда человек поёт, читает рэп или говорит под фоновую музыку. — WER <8% (ошибки меньше 8 слов на каждые 100)
🟢 Работает даже в шуме, низком качестве и на расстоянии
🟢 В модель можно добавить свои слова/термины/имена и фразы, и она будет их правильно распознавать

API:https://bailian.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2979031
ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR-Demo
Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR-Demo
Blog:https://qwen.ai/blog?id=41e4c0f6175f9b004a03a07e42343eaaf48329e7&from=research.latest-advancements-list

@ai_machinelearning_big_data

#ASR #SpeechRecognition #Qwen3 #AI #MachineLearning #DeepLearning #VoiceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥1714🐳3
🔥 Новые модели от Baidu

На Wave Summit 2025 Baidu китайцы показали новое поколение своих моделей:

- Reasoning-модель ERNIE X1.1: опережает DeepSeek R1 при цене в 2 раза ниже
- ERNIE 4.5: обходит GPT-4.5 при цене всего в 1% от него

🔥 ERNIE X1.1:
🟢 Точность фактов выросла на 34.8%
🟢 Следование инструкциям улучшено на 12.5%
🟢 Агентные функции стали лучше на 9.6%

📊 В тестах модель:
- обошла DeepSeek R1-0528
- в ряде бенчмарков показывает уровень GPT-5 и Gemini 2.5 Pro

Доступна в ERNIE Bot, приложении Wenxiaoyan и через API на платформе Qianfan.
На первый взгляд, это достойная модель. Она не превосходит Gemini 2.5 Pro или GPT-5 в задачах reasoning, но с учётом ограничений по вычислительным мощностям в Китае — результат впечатляющий и заслуживает внимания.

🔥 ERNIE-4.5-21B-A3B-Thinking:
СДелана на базе 21B-instruct, которая уже считалась одной из самых сильных компактных MoE.

> 21B параметров всего, 3B активных
> Улучшена производительность в reasoning-задачах и Кодине
> Более точное использование тулзов
> Поддержка расширенного контекста до 128K токенов
> Apache 2.0

За свои деньги - отличная модель.

🟢 Попробовать X1.1: https://ernie.baidu.com
🟢ERNIE 4.5: https://huggingface.co/baidu/ERNIE-4.5-21B-A3B-Thinking
🟢 Сегодня в 07:00 AM UTC-7 — прямой эфир команды ERNIE, посвященный X1.1: https://youtube.com/live/1ZHqwkg9-x0?feature=share

@ai_machinelearning_big_data


#ERNIE #AI #Reasoning #WaveSummit2025
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4822🔥15
🔬 Университет Флориды представил оптический AI-чип

Инженеры UF создали чип, который использует лазеры и микролинзы для выполнения операций свёртки — ключевых для распознавания изображений, видео и речи.

🚀 Почему это интересно:
- Энергопотребление таких чипов эффективнее в 10–100 раз, чем у обычных электронных чипов
- Точность обработки сохраняется на уровне ~98%
- Технология поможет снизить нагрузку на энергосети и сделать масштабные AI-системы более устойчивыми

Впервые оптические вычисления встроены прямо в чип и применены к нейросети. Это значит, что чип может выполнять самые ресурсоёмкие операции почти не потребляя энергию.

📊 Итог
- Потребление энергии ↓ в 10–100 раз
- Точность ~98%

Этот чип может стать новым стандартом в энергоэффективных вычислениях для AI.

Подробности: news.ufl.edu/2025/09/optical-ai-chip/

@ai_machinelearning_big_data


#AI #Chip #OpticalComputing #Photonics #Energy
Please open Telegram to view this post
VIEW IN TELEGRAM
61👍40🔥15🥰61