Исследователи из Оксфорда и Apple представили BED-LLM, новый подход для улучшения способности LLM разумно и адаптивно собирать информацию от пользователя или другого внешнего источника.
Суть подхода заключается в применении последовательного Байесова экспериментального дизайна к процессу генерации вопросов. Вместо промптинга система максимизирует ожидаемый прирост информации при каждом следующем вопросе. Алгоритм итеративно выбирает запросы, которые дают максимальную информацию о целевом параметре.
Критический момент — правильная конструкция совместной модели распределения целевой переменной и ответов с учетом вопросов. Выбор между парой «приор-правдоподобие» и «данные-оценка» кардинально влияет на производительность. Итоговый выбор пал на на первом варианте, как более подходящем для случаев, когда пространство целевых гипотез сложнее пространства возможных ответов.
Ключевая фишка BED-LLM в фильтрации гипотез с учетом истории диалога. Система не полагается только на контекстное обучение. Вместо этого алгоритм сначала сэмплирует кандидатов из распределения модели, а затем отфильтровывает несовместимые с историей варианты через проверку правдоподобия.
Чтобы проверить метод в деле, его протестировали на классической игре "20 вопросов". В задаче по угадыванию знаменитостей результат на Mistral-Large поднялся с 14% при использовании стандартных промптов (Naive QA) до 91% с фреймворком BED-LLM.
Упрощенный подход, основанный на максимизации энтропии показал промежуточный результат в 68%. Схожая картина и с другими моделями: Qwen2.5-72B при угадывании животных достигла 94% точности с BED-LLM против 85% у энтропии и всего 45% у Naive QA. А GPT-4o в тесте со знаменитостями показала рост с 45% до 86%.
Второй тест метода провели на более абстрактной задаче - выявлении кинопредпочтений пользователя.
Здесь вместо угадывания конкретного объекта модель должна была составить профиль вкусов пользователя, задавая ему вопросы с несколькими вариантами ответа. Качество рекомендаций, сгенерированных на основе этого профиля, оценивалось по шкале от 1 до 5. И здесь BED-LLM стабильно опережал конкурентов, выходя в лидеры уже к третьему вопросу.
Интересное наблюдение: простое использование предсказательной энтропии вместо полного ожидаемого прироста информации значительно ухудшает результаты. Многие предыдущие теории делали именно такое упрощение, считая энтропию правдоподобия константой. Эксперименты с BED показали, что это неоправданное допущение - вариативность ожидаемой условной неопределенности между вопросами может быть решающей для выбора хороших запросов.
@ai_machinelearning_big_data
#AI #ML #Research #BayesianDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41❤19👍18💘1
Media is too big
VIEW IN TELEGRAM
XLeRobot — это открытый проект, который позволяет собрать настоящего двухрукого мобильного робота своими руками.
Автор — студент Rice University Gaotian Wang, в проектеон сделал упор на доступность и практичность.
- Цена сборки ≈ $660 — полноценный робот с двумя руками и колесной базой.
- Можно собрать упрощённую версия за $250 на базе LeKiwi + SO-100, которая собирается быстрее.
- В комплекте: URDF-модели, симуляция, управление через VR, Joy-Con или Xbox-геймпад.
- Подходит для экспериментов в симуляции и переноса в реальный мир (**Sim2Real**).
взаимодействия с окружающей средой.
XLeRobot — это недорогая и открытая платформа для тех, кто хочет попробовать себя в робототехнике, исследовать управление, симуляцию и AI-алгоритмы на реальном роботе.
@ai_machinelearning_big_data
#robotics #opensource #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤110👍37🔥21😁4🤣4🌭2🍓2❤🔥1💘1
🇪🇺 NEWS: ASML инвестирует €1.3B в Mistral
Европейский чип-гигант ASML вложит €1.3 млрд в Series C раунд Mistral (€1.7B) и станет крупнейшим акционером стартапа.
💰 Оценка Mistral — €10 млрд ($11.7B) pre-money.
Что значит *pre-money*?
Это стоимость компании до привлечения новых инвестиций. То есть инвесторы договорились, что Mistral стоит €10 млрд, и только потом добавили ещё €1.7 млрд свежих денег. После этих вложений итоговая стоимость компании становится €11.7 млрд post-money.
🟢 Главное
Союз лидеров: крупнейший поставщик оборудования для чипов (ASML) объединяется с самой быстрорастущей AI-лабораторией Европы (Mistral).
Суверенность: Европа строит собственный стек - от чипов до моделей, снижая зависимость от США и Китая.
Ресурсы для Mistral: свежие деньги для роста, доступ к управлению, громкая оценка для привлечения талантов и заключения крупных контрактов.
🟢 Технический аспект
ASML (Нидерланды) - единственный в мире производитель EUV-литографии (*Extreme Ultraviolet Lithography* - технология печати микросхем с использованием сверхкоротких волн ультрафиолета).
Один аппарат стоит ~$180M и используется TSMC и Intel. Даже небольшие улучшения в производительности приносят огромные деньги.
Эта сделка - это стратегический союз, который даёт Европе шанс поучаствовать в AI гонке.
🟢 Подробнее
@ai_machinelearning_big_data
#ai #news #mistral #investments
Европейский чип-гигант ASML вложит €1.3 млрд в Series C раунд Mistral (€1.7B) и станет крупнейшим акционером стартапа.
Что значит *pre-money*?
Это стоимость компании до привлечения новых инвестиций. То есть инвесторы договорились, что Mistral стоит €10 млрд, и только потом добавили ещё €1.7 млрд свежих денег. После этих вложений итоговая стоимость компании становится €11.7 млрд post-money.
Союз лидеров: крупнейший поставщик оборудования для чипов (ASML) объединяется с самой быстрорастущей AI-лабораторией Европы (Mistral).
Суверенность: Европа строит собственный стек - от чипов до моделей, снижая зависимость от США и Китая.
Ресурсы для Mistral: свежие деньги для роста, доступ к управлению, громкая оценка для привлечения талантов и заключения крупных контрактов.
ASML (Нидерланды) - единственный в мире производитель EUV-литографии (*Extreme Ultraviolet Lithography* - технология печати микросхем с использованием сверхкоротких волн ультрафиолета).
Один аппарат стоит ~$180M и используется TSMC и Intel. Даже небольшие улучшения в производительности приносят огромные деньги.
Эта сделка - это стратегический союз, который даёт Европе шанс поучаствовать в AI гонке.
@ai_machinelearning_big_data
#ai #news #mistral #investments
Please open Telegram to view this post
VIEW IN TELEGRAM
❤67👍34🔥17😁5🤔3✍2🤬2💘1
OpenAI поддерживает проект Critterz — первый полнометражный анимационный фильм, созданный преимущественно с применением генеративного ИИ.
- вместо привычных 3 лет производство займёт всего 9 месяцев
- бюджет — менее $30 млн (значительно меньше, чем обычно стоит производство подобных анимационных фильмов)
- премьера намечена на Каннский кинофестиваль в мае 2026 года, после чего планируется мировой прокат
Команда собирается привлечь живых актёров для озвучивания персонажей и нанять художников, которые подготовят эскизы. Эти материалы будут загружаться в инструменты OpenAI — включая GPT-5 и модели генерации изображений.
@ai_machinelearning_big_data
#ai #openai #genai
@ai_machinelearning_big_data
#ai #openai #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56❤28🔥17😁11🤬8😭8🥱5⚡3🤔2😢1💘1
Аналитики считают: если бы Google выделила бизнес по TPU-чипам вместе с лабораторией DeepMind, то объединённая компания могла бы стоить около $900 млрд.
Пока этого не произойдёт, но сама цифра показывает масштаб.
- 6-е поколение Trillium уже пользуется высоким спросом
- 7-е поколение Ironwood станет первым TPU, ориентированным на крупномасштабный inference — этап, когда модели реально используются после обучения
Anthropic и xAI активно рассматривают переход на TPU, так как улучшенная поддержка через JAX делает их использование на больших масштабах заметно проще.
Google уже заключила сделку с Fluidstack (Нью-Йорк) и ведёт переговоры с другими облачными провайдерами, которые раньше работали в основном с NVIDIA (например, Crusoe и **CoreWeave**).
В итоге Google выходит в прямую конкуренцию с NVIDIA — и впервые за долгое время у «зелёного гиганта» появился серьёзный соперник.
@ai_machinelearning_big_data
#google #nvidia #tpu #deeplearning
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥19❤10🤔3💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Google DeepMind показала, как роботы учатся работать вместе с помощью обучения с подкреплением.
Учёные из UCL, Google DeepMind и Intrinsic представили новый AI-алгоритм RoboBallet — систему, которая позволяет нескольким роботизированным манипуляторам работать синхронно и без столкновений в сложной производственной среде,.
🔹 В эксперименте участвовали 8 роботов, каждый из которых мог выполнять 40 разных задач в одном общем пространстве.
🔹 Роботы могли брать любую задачу в любом порядке — система сама решала, кому что поручить и как построить безопасные траектории.
🔹 Алгоритм обучался в симуляции, а затем сразу работал в новых условиях без дообучения (*zero-shot*).
Пока решение работает только для задач перемещения (reaching), без учёта порядка выполнения или разных типов роботов.
Однако архитектура гибкая — в будущем возможно добавление сложных задач, зависимостей и разнообразных роботов.
Один алгоритм смог координировать целую команду, делая роботов гибкими и слаженными даже там, где они раньше не работали.
🟢 Подробнее: https://www.science.org/doi/10.1126/scirobotics.ads1204
@ai_machinelearning_big_data
#google #robots #ai #rl
Учёные из UCL, Google DeepMind и Intrinsic представили новый AI-алгоритм RoboBallet — систему, которая позволяет нескольким роботизированным манипуляторам работать синхронно и без столкновений в сложной производственной среде,.
Пока решение работает только для задач перемещения (reaching), без учёта порядка выполнения или разных типов роботов.
Однако архитектура гибкая — в будущем возможно добавление сложных задач, зависимостей и разнообразных роботов.
Один алгоритм смог координировать целую команду, делая роботов гибкими и слаженными даже там, где они раньше не работали.
@ai_machinelearning_big_data
#google #robots #ai #rl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤65👍40🔥21🥱3🤔2🗿1💘1
Unsloth выкатили оптимизированную версию модели:
@ai_machinelearning_big_data
#AI #xAI #Grok2 #LLM #OpenSource #MachineLearning #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥139👍23❤22😁15🥱10🗿6🤣3🤔2💘1
Targeted Test Selection (T-TS) — подход к оптимизации CI/CD. Вместо тысячи проверок, система запускает около 15% тестов и при этом находит до 95% ошибок. Метод уже внедрили в инфраструктуру Т-Банка.
-Ускорение тестирования в среднем 5,6 раз
-Подходит для любых языков программирования
-Работает по принципу “мешок слов” — анализирует историю изменений в репозитории и адаптируется к вносимым изменениям
-Масштабируется на крупные финтех компании
Результаты исследования представлены на международной конференции ICSME 2025 в Новой Зеландии
@ai_machinelearning_big_data
#news #Research #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73❤29🔥11🥱7🤔5👏2💘2
Alibaba Group и Alibaba Cloud возглавили консорциум по финансированию шэньчжэньского стартапа X Square Robot (осн. 2023). Участвовали HSG, Meituan и Legend Star.
Это часть стратегии Alibaba — компания планирует вложить $53 млрд в ИИ-инфраструктуру. Цель сделки — новое поколение «умной робототехники», где ИИ отвечает за автономность и принятие решений. Инвестиция также отражает курс Китая на ускоренное развитие сектора ИИ и робототехники.
mktnews.com
Китайский производитель гуманоидных роботов Unitree планирует выйти на шанхайскую биржу STAR Market в IV квартале. Цель — оценка $7 млрд (почти в 6 раз выше июльского раунда).
Компания — лидер в Китае по производству роботов-гуманоидов, её продукция используется в университетах и на публичных мероприятиях. Unitree уже прибыльна: выручка >1 млрд юаней ($140 млн). За спиной — Alibaba, Tencent и Geely. Успешное IPO станет ключевым индикатором интереса инвесторов к физическим воплощениям ИИ.
reuters.com
Стоимость генерации видео в Veo 3 упала: стандартная версия — с $0.75 до $0.40 за секунду (-47%), Veo 3 Fast — до $0.15 (-62.5%). Теперь поддерживаются вертикальные форматы (9:16) и качество 1080p. Обе модели стабильны и доступны через Gemini API.
Это сигнал к масштабированию и ценовой конкуренции на рынке видео-ИИ. Veo 3 уже применяется в проектах Invisible Studio, Saga, Mosaic для ускорения контент-продакшена.
X.com
Anthropic расширила возможности ассистента Claude на мобильных устройствах. При разрешении пользователя ИИ теперь может использовать геолокацию, календарь и другие данные для планирования мероприятий и рекомендаций.
Это шаг к созданию по-настоящему персональных ИИ-агентов, работающих с контекстом пользователя. Такой подход усиливает конкуренцию среди мобильных ассистентов и закрепляет тренд интеграции ИИ в повседневные процессы.
Скачать
Компания официально выступила в поддержку инициативы сенатора Скотта Винера, регулирующей передовые ИИ-системы. Ключевые положения:
• публикация принципов безопасности и прозрачности
• уведомление о критических инцидентах в течение 15 дней
• защита осведомителей и санкции за нарушения
• порог для регулирования — >10²⁶ FLOPs
Anthropic отмечает, что закон закрепляет уже применяемые практики и создаёт равные условия для конкуренции. Это первый случай открытой поддержки крупной ИИ-лабораторией регуляторных инициатив.
anthropic.com
- Флэшкарты и квизы: формат «вопрос–ответ» + тесты с настройкой сложности.
-Reports: авто-рекомендации форматов (блог, white paper, стади-гайд и др.), кастомизация промптов.
- ИИ-подкасты: новые режимы — Deep Dive, Brief, Critique, Debate; поддержка всех языков.
Примеры, видео, квиза и карточек прикрепили к посту.
Notebooklm
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥58👍28❤19🤬2💘1
▪API:https://bailian.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2979031
▪ModelScope Demo: https://modelscope.cn/studios/Qwen/Qwen3-ASR-Demo
▪Hugging Face Demo: https://huggingface.co/spaces/Qwen/Qwen3-ASR-Demo
▪Blog:https://qwen.ai/blog?id=41e4c0f6175f9b004a03a07e42343eaaf48329e7&from=research.latest-advancements-list
@ai_machinelearning_big_data
#ASR #SpeechRecognition #Qwen3 #AI #MachineLearning #DeepLearning #VoiceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥17❤14🐳3
На Wave Summit 2025 Baidu китайцы показали новое поколение своих моделей:
- Reasoning-модель ERNIE X1.1: опережает DeepSeek R1 при цене в 2 раза ниже
- ERNIE 4.5: обходит GPT-4.5 при цене всего в 1% от него
🔥 ERNIE X1.1:
📊 В тестах модель:
- обошла DeepSeek R1-0528
- в ряде бенчмарков показывает уровень GPT-5 и Gemini 2.5 Pro
Доступна в ERNIE Bot, приложении Wenxiaoyan и через API на платформе Qianfan.
На первый взгляд, это достойная модель. Она не превосходит Gemini 2.5 Pro или GPT-5 в задачах reasoning, но с учётом ограничений по вычислительным мощностям в Китае — результат впечатляющий и заслуживает внимания.
🔥 ERNIE-4.5-21B-A3B-Thinking:
СДелана на базе 21B-instruct, которая уже считалась одной из самых сильных компактных MoE.
> 21B параметров всего, 3B активных
> Улучшена производительность в reasoning-задачах и Кодине
> Более точное использование тулзов
> Поддержка расширенного контекста до 128K токенов
> Apache 2.0
За свои деньги - отличная модель.
@ai_machinelearning_big_data
#ERNIE #AI #Reasoning #WaveSummit2025
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48❤22🔥15
Инженеры UF создали чип, который использует лазеры и микролинзы для выполнения операций свёртки — ключевых для распознавания изображений, видео и речи.
- Энергопотребление таких чипов эффективнее в 10–100 раз, чем у обычных электронных чипов
- Точность обработки сохраняется на уровне ~98%
- Технология поможет снизить нагрузку на энергосети и сделать масштабные AI-системы более устойчивыми
Впервые оптические вычисления встроены прямо в чип и применены к нейросети. Это значит, что чип может выполнять самые ресурсоёмкие операции почти не потребляя энергию.
- Потребление энергии ↓ в 10–100 раз
- Точность ~98%
Этот чип может стать новым стандартом в энергоэффективных вычислениях для AI.
@ai_machinelearning_big_data
#AI #Chip #OpticalComputing #Photonics #Energy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61👍40🔥15🥰6☃1