373K subscribers
4.35K photos
823 videos
17 files
4.83K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📉 AI-рынок просел на $800 млрд за неделю

Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.

Что происходит:

Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.

Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.

Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.


Почему падение получилось таким резким:

- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.

Главный удар:

- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.

Дополнительные точки напряжения:

- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*

ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.

ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8

@ai_machinelearning_big_data

#ai #ml #finance
187😢47👍39🤔29🔥11🤬9😐4🤨3😨3🎉2🤝1
Media is too big
VIEW IN TELEGRAM
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.

Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.

Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com

✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.

Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.

Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.

Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com

✔️ xAI проведет 24-часовой хакатон.

xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.

Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai

✔️ Выбор новостных источников ChatGPT зависит от способа доступа.

Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.

Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.

Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io

✔️ Wikipedia хочет справедливого лицензирования своего контента.

Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.

В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.

Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6329🔥7🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
💡 GPT-5 и Sudoku-Bench, почему новые модели всё ещё ломаются на судоку

Sakana AI представили Sudoku-Bench - набор классических и продвинутых судоку-задач, который проверяет не память модели, а её способность рассуждать, понимать новые правила и держать всю логику пазла в голове.

Они протестировали современные модели, включая GPT-5 и методы тонкой настройки вроде GRPO и thought-cloning.

Главное:
GPT-5 стала первой моделью, которая уверенно решает часть сложных задач и показала около 33 % успешных решений на наборе challenge_100. Ранее ни одна LLM не справлялась даже с обычным 9×9.
Но треть решённых - это всё ещё мало: большая часть задач остаётся нерешённой, особенно варианты с необычными правилами.

Ключевая трудность в том, что такие головоломки требуют не просто следовать правилам, а уметь понять незнакомые ограничения, найти стратегию «входа», просчитывать ходы вперёд и сохранять глобальную согласованность. Модели часто делают правильные локальные шаги, но теряют общую структуру.

GRPO и thought-cloning дают улучшения, но пока не позволяют моделям преодолеть сложные варианты. Даже с обучением на человеческих примерах ИИ быстро «запутывается» в длинных логических цепочках.

Sudoku-Bench - это тест на реальное рассуждение, а не на подбор паттернов. Он проверяет пространственное мышление, логику, способность адаптироваться и работать с новыми правилами. Прогресс на таких задачах - показатель движения к более структурному и осмысленному ИИ.

Авторы предлагают Sudoku-Bench как стандарт, по которому можно судить, насколько модели действительно умеют думать. Для будущих систем важны не просто большие параметры, а развитая логика, планирование и умение работать с новыми структурами задач.

@ai_machinelearning_big_data

#ai #ml #sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
58👍26🥰7🔥5
🧠 Baidu открыли ERNIE-4.5-VL-28B-A3B-Thinking

Модель с 28B параметров и архитектурой A3B активирует лишь ~3B на шаг, но при этом показывает уровень топовых визуальных моделей. Подходит для задач, где нужно сочетать изображение, контекст и многошаговое рассуждение.

Что умеет:
- визуальное рассуждение: анализ диаграмм, многошаговая логика, причинно-следственные связи
- STEM-задачи по фото: можно сфотографировать пример и получить решение
- визуальное указание: точное определение объектов в сцене
- детальный анализ изображения: фиксирует мелочи при масштабировании
- вызов инструментов: например, Image Search
- понимание видео: отслеживание событий по таймлинии

Лицензия Apache 2.0.

Модель: https://huggingface.co/baidu/ERNIE-4.5-VL-28B-A3B-Thinking

@ai_machinelearning_big_data

#ai #ml #Baidu
34👍20🔥6🤔2
💡 HierarchicalTopK — новый взгляд на интерпретируемость нейросетей

На EMNLP 2025 представили метод HierarchicalTopK — подход, который позволяет обучать нейросети сразу на нескольких уровнях разреженности, не теряя интерпретируемости и качества. Разреженность обычно выбирают еще до начала обучения — изменить ее потом нельзя. Слишком маленькая — модель описывается плохо, большая — признаки теряют смысл. HierarchicalTopK, в свою очередь, решает эту проблему, обучая сеть сразу на нескольких уровнях разреженности в едином пространстве.

Главное:
Идея в том, чтобы уйти от классической схемы, где под каждый уровень разреженности приходится обучать отдельную модель, так как этот подход трудоемкий, дорогой и плохо масштабируется.

HierarchicalTopK предлагает обучать единичное пространство, где все уровни учитываются одновременно — внутри одной модели несколько уровней представления данных от подробного до обобщенного.

Благодаря этому можно динамически переключаться между уровнями разреженности без потери связи между ними. Модель остается интерпретируемой даже при высокой разреженности, потому что каждая грань пространства понимает, как соотносится с другими.

Вместо десятков отдельных сетей и наборов данных достаточно одной модели, которая гибко адаптируется под нужную задачу — что снижает затраты. Метод открывает возможности для аудита и анализа моделей, помогает корректировать их поведение и ускоряет внедрение интерпретируемого ИИ в индустрии.

https://huggingface.co/t-tech/flex-sae

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3817🔥5👏3😁1
Media is too big
VIEW IN TELEGRAM
✔️ ElevenLabs Scribe v2 Realtime: STT-модель с задержкой менее 150 мс.

ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.

Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io

✔️ Backboard установила рекорд в тесте долговременной памяти для ИИ.

Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.

LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.

Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io

✔️ Две трети топовых ИИ-компаний допустили утечку секретов на GitHub.

Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.

Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.

Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io

✔️ Cloudflare запустила поддержку Python в сервисе Workflows.

Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.

Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com

✔️ OpenAI тратит на Sora около 15 млн. долларов в день.

По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.

Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7121🔥11💘2🥰1
⚡️Кто умнее – GigaChat или Нейроэксперт? В России запускают рейтинг корпоративных ИИ-моделей

Первый открытый продуктовый бенчмарк для комплексной оценки решений с применением ИИ в реальных бизнес-задачах – RRNCB (Russian RAG Normative-Corporate Benchmark) – запустили в России. Разработала его компания «Аватар Машина» при поддержке Ассоциации лабораторий искусственного интеллекта (АЛРИИ).

Практическую пользу RRNCB сложно переоценить: сегодня на рынке много ИИ-продуктов, но сравнить их между собой объективно почти невозможно, потому что существующие тесты проверяют только LLM или отдельные элементы пайплайна. RRNCB решает эту проблему – оценивает готовые решения на реальных корпоративных задачах (ГОСТы, договоры, регламенты) и формирует прозрачный рейтинг RAG-продуктов для бизнеса.

Принцип работы прозрачный и понятный: бенчмарк тестирует полный RAG-процесс — от извлечения данных до генерации итогового ответа. Оценка проводится с участием независимых экспертов и зарубежных LLM(LLM-as-a-Judge - LLM как судья), что обеспечивает максимальную объективность. В итоге компании получают подтверждение качества, инструмент для маркетинга и возможность попасть в первый независимый рейтинг российских RAG-решений.

К участию в бенчмарке приглашают все российские компании, разрабатывающие и продающие собственные ИИ-продукты бизнесу. И для бизнеса, и для производителей ИИ-решений этот бенчмарк – настоящая находка, потому что одним он даст понимание о качестве продукта, а другим – инструмент для продаж и объективное подтверждение характеристик своих моделей.

Заявки принимают до 21 ноября, с 22 ноября по 10 декабря будет проходить тестирование, а 12 декабря появится первый в России рейтинг. Подробности, методология и форма участия — на сайте RRNCB. https://fractalagents.ai/rrncb-rag-benchmark

@ai_machinelearning_big_data

#news #ai #ml
🤣59👍3012🤨4🗿4🥰3😁3🙊3
🧐🎁😌👹😋😡🙊😍🤷‍♂️👹

⚡️Создание production-ready AI-агента.

AI-агенты перестали быть экспериментом — они становятся основой продуктовых решений. Вопрос лишь в том, умеете ли вы создавать своих?

С 20 ноября будет Yandex AI Studio Series — серия практических вебинаров для тех, кто хочет пройти путь от идеи до production-ready AI-агента за 7 дней.

Что будет на интенсиве:
✔️ 4 онлайн-трансляции с сессией вопросов и ответов.
✔️ Предзаписанный воркшоп для самостоятельной практики.
✔️ Квиз и приятные сюрпризы.
✔️ Нетворкинг в продуктовом комьюнити.
✔️ Офлайн-встреча в офисе Яндекса в Москве.

Все решения будем деплоить на базе Yandex AI Studio — платформы от Яндекса для разработки AI-агентов.

Участие в мероприятии бесплатное.

Если вы AI/ML-инженер или разработчик и хотите углубиться в инженеринг агентов и мультиагентных систем — присоединяйтесь. Регистрация уже идет и доступна по ссылке.

@ai_machinelearning_big_data

#ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2915😁7🤣6🗿5🦄4🥰3🥱3😐1
⚡️ ChatGPT-5.1

OpenAI выпустила GPT-5.1, сделав основной упор на интеллект и качество диалога.

🟢GPT-5.1 Instant - модель с функцией адаптивного мышления. Она способна самостоятельно «задумываться» над сложными задачами, что позволило выбивать более высокие баллы по математическим задачам AIME 2025 и задачам по программированию Codeforces. Модель стала лучше следовать инструкциям и получила более «теплый» стиль общения по умолчанию.

🟢GPT-5.1 Thinking тоже была улучшена: она быстрее справляется с простыми запросами и выдает более четкие ответы с меньшим количеством жаргона.

Вместе с моделями OpenAI расширила возможности кастомизации тона ответов, добавив новые стили: «Профессиональный», «Откровенный» и «Необычный».

Обновление уже раскатывают на платных подписчиков, а доступ через API появится в ближайшие дни. Предыдущие версии GPT-5 останутся доступны в течение трех месяцев.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5827🔥13🤣6🕊3
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft представила Visual Studio 2026.

По словам Microsoft - это первая в мире «интеллектуальная IDE», она запускается быстрее и на 50% реже зависает, а ее ИИ-инструменты, включая новых агентов для C# и C++, теперь помогают не только в написании кода, но и в отладке, профилировании и модернизации приложений. Новая версия получила полную совместимость с проектами и расширениями от VS 2022.

Кроме того, среда разработки была отделена от инструментов сборки, так что теперь можно обновлять саму IDE, не затрагивая компиляторы .NET и C++. Visual Studio 2026 уже доступна для подписчиков, а автономная лицензия поступит в продажу с 1 декабря 2025 года. Полный список изменений - в Release Notes.
devblogs.microsoft.com

✔️ Google объединит мощь Gemini с приватностью локальных вычислений.

Google анонсировала новую платформу Private AI Compute, которая позволяет использовать Gemini в облаке, обеспечивая при этом уровень приватности, сопоставимый с обработкой на устройстве. В основе лежит изолированное защищенное окружение на базе собственного технологического стека Google, а данные обрабатываются в специальном зашифрованном пространстве, доступ к которому имеет только пользователь.

Google обещает, что даже сотрудники компании не смогут получить доступ к информации. Первыми возможностями на базе этой платформы станет учучшатель промптов Magic Cue на Pixel 10 и обобщение транскрипций в приложении Recorder.
blog.google

✔️ LAION запустили Project AELLA для ИИ-структуризации научных статей.

LAION, совместно с Inference.net и Wyndlabs AI, представили открытую инициативу Project AELLA для демократизации доступа к научным знаниям. В рамках проекта было обработано около 100 млн. академических публикаций, для которых с помощью LLM создаются структурированные аннотации.

Проект должен значительно ускорить поиск информации, улучшить машинный анализ и повысить доступность научного контента. Специально для этой задачи были дообучены 2 языковые модели. По заявлению LAION, в целевых тестах они показывают производительность, сравнимую с GPT-5 и Claude 4.5.

На старте проект предлагает датасет из 100 тыс. готовых аннотаций, дообученные модели и 3D-визуализатор для навигации по научным областям. Все материалы открыты для исследователей и разработчиков.
laion.ai

✔️ Стартап Olares анонсировал персональное ИИ-облако с RTX 5090 Mobile.

Стартап Olares показал свой дебютный продукт - Olares One. Это персональное ИИ-облако, спроектированное для локального запуска моделей. Устройство выполнено в формате компактного десктопа, оснащено видеокартой NVIDIA GeForce RTX 5090 Mobile с 24 ГБ памяти GDDR7, процессором Intel Core Ultra 9 275HX и 96 ГБ оперативной памяти.

Работать Olares One будет под управлением собственной открытой Olares OS. Предзаказы стартуют на Kickstarter в декабре, а полноценная презентация состоится на выставке CES в январе 2026 года. Проект уже привлек $45 млн. инвестиций.
techpowerup.com

✔️ Создан протокол шифрованной самопроверки на уровне чипа для квантового компьютера.

Международная команда исследователей успешно протестировала криптографически защищенный протокол верификации, который позволяет квантовому компьютеру самостоятельно проверять корректность собственных результатов. Технология была развернута на квантовом процессоре H1-1 от Quantinuum и показала свою эффективность на задаче с 52 кубитами.

Идея заключается в интеграции проверочных тестов непосредственно в процесс вычислений на одном чипе. Протокол случайным образом чередует вычислительные раунды с тестовыми ловушками. Анализируя результаты тестов, система статистически определяет, можно ли доверять итоговому результату вычислений.
phys.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3824🔥10🥰3👌2