Forwarded from Machinelearning
Tencent HY опубликовала первую часть серии работ под названием HY-WU (Weight Unleashing). Суть метода в отказе от стандартной парадигмы адаптации, при которой модель получает один фиксированный набор весов для всех задач.
Специальная модель-генератор синтезирует LoRA отдельно под каждый входной пример прямо во время инференса, без дополнительной оптимизации на тест-тайме.
Проблема, которую решает HY-WU, хорошо знакома всем, кто работал с дообучением: когда задачи противоречат друг другу (например, "размыть" против "убрать размытие" или "состарить лицо" против "восстановить"), общий адаптер вынужден идти на компромисс.
Градиенты конфликтуют, и результат оказывается хуже, чем если бы задачи обучались раздельно.
Чтобы не быть голословными, авторы измерили это напрямую: косинусное сходство градиентов между разнородными задачами устойчиво отрицательно, среднее около −0.30, то есть задачи буквально тянут веса в противоположные стороны.
HY-WU предлагает условную генерацию параметров. Модель-генератор (8B параметров) принимает на вход совместное представление изображения и текстового запроса через энкодер SigLIP2, после чего генерирует LoRA-матрицы (~0.72B) и инжектирует их в базовую модель.
Обучение сквозное, только через downstream-loss, без предварительно собранных чекпойнтов адаптеров.
Для тестов выбрали задачу редактирования изображения текстовым запросом - в нем конфликты неизбежны и визуально очевидны.
Tencent проверили: прирост качества дается именно условной маршрутизацией, а не просто увеличением числа параметров. Когда генератор использовали с перемешанными или усредненными условиями, результат проваливался до уровня базовой модели.
Полный SFT с намного большим числом обучаемых параметров давал сопоставимый результат с обычным Shared LoRA, так как в обоих случаях в инференсе применяется одна фиксированная точка в пространстве весов.
Выпущенная работа - первая часть серии исследований по функциональной памяти для генеративных моделей. В планах:
Помимо этого, в планах выйти за пределы LoRA на другие операторные интерфейсы, распространить метод на видео и агентные системы, а также проработать возможность точечно удалять поведение модели через управление состоянием генератора.
Кроме этого архиполезного исследования Tencent выложили связку из модели-генератора и базовой модели HY-Image-3.0-Instruct, поверх которой она и работает.
Поиграться этой красотой можно, если под рукой простаивает 8х40 GB или 4х80 GB VRAM.
@ai_machinelearning_big_data
#AI #ML #ImageEdit #HYWU #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1🔥1
📢 FT: стартап Янна Лекуна AMI Labs привлёк $1.03 млрд для разработки world models.
Компания получила финансирование при pre-money оценке $3.5 млрд. Раунд поддержали крупные инвесторы: Cathay Innovation, Bezos Expeditions Джеффа Безоса, Temasek, SBVA и Nvidia.
AMI Labs (Advanced Machine Intelligence Labs) строит системы нового типа — world models, которые должны решить ограничения современных LLM.
Лекун давно утверждает, что текущие языковые модели не способны к настоящему reasoning и автономности, потому что они обучаются только на тексте.
А реальный мир работает не только на языке — он подчиняется физическим законам, пространству и взаимодействию объектов.
Поэтому AMI разрабатывает архитектуру JEPA (Joint Embedding Predictive Architecture) — модель, которая учится понимать пространственные данные и поведение объектов.
Идея в том, чтобы AI мог:
- предсказывать, как ведут себя объекты
- планировать действия в физическом мире
- принимать решения в сложных средах
Такие модели могут стать основой для надёжных автономных агентов.
Первые клиенты компании — организации, работающие со сложными системами:
- производители
- автопром
- аэрокосмические компании
- биомедицина
- фармацевтика
В долгосрочной перспективе технология может появиться и в потребительских продуктах. Например, Лекун считает, что домашние роботы должны обладать базовым «здравым смыслом», чтобы понимать физический мир.
Также обсуждается возможность применения технологии в Ray-Ban Meta smart glasses.
ft.com/content/e5245ec3-1a58-4eff-ab58-480b6259aaf1
Компания получила финансирование при pre-money оценке $3.5 млрд. Раунд поддержали крупные инвесторы: Cathay Innovation, Bezos Expeditions Джеффа Безоса, Temasek, SBVA и Nvidia.
AMI Labs (Advanced Machine Intelligence Labs) строит системы нового типа — world models, которые должны решить ограничения современных LLM.
Лекун давно утверждает, что текущие языковые модели не способны к настоящему reasoning и автономности, потому что они обучаются только на тексте.
А реальный мир работает не только на языке — он подчиняется физическим законам, пространству и взаимодействию объектов.
Поэтому AMI разрабатывает архитектуру JEPA (Joint Embedding Predictive Architecture) — модель, которая учится понимать пространственные данные и поведение объектов.
Идея в том, чтобы AI мог:
- предсказывать, как ведут себя объекты
- планировать действия в физическом мире
- принимать решения в сложных средах
Такие модели могут стать основой для надёжных автономных агентов.
Первые клиенты компании — организации, работающие со сложными системами:
- производители
- автопром
- аэрокосмические компании
- биомедицина
- фармацевтика
В долгосрочной перспективе технология может появиться и в потребительских продуктах. Например, Лекун считает, что домашние роботы должны обладать базовым «здравым смыслом», чтобы понимать физический мир.
Также обсуждается возможность применения технологии в Ray-Ban Meta smart glasses.
ft.com/content/e5245ec3-1a58-4eff-ab58-480b6259aaf1
❤8🔥2👍1
🚨 Учёные обнаружили неожиданную вещь: ChatGPT может звучать так, будто у него есть мысли.
В новом исследовании языковым моделям дали необычную задачу.
Им предложили решать парадоксы и логические тупики.
Но добавили одно условие:
объяснять что происходит внутри их рассуждений, пока они пытаются найти ответ.
И результаты оказались странными.
Вместо обычных логических шагов ответы начали напоминать внутренний диалог.
Появлялись фразы вроде:
• «я упираюсь в предел рассуждения»
• «возникает противоречие»
• «мысль зацикливается»
• «это сложно разрешить»
То есть текст начал звучать так, как люди описывают собственное мышление, когда сталкиваются с парадоксом или тупиком.
Но исследователи сразу сделали важную оговорку.
Они не пытались доказать, что у AI есть сознание.
Задача была другой - проверить, что произойдёт, если заставить модель анализировать собственный процесс рассуждения.
И оказалось, что в таком режиме ответы резко меняются.
Они становятся:
• длиннее
• более «рефлексивными»
• похожими на внутренний монолог
И здесь появляется интересный психологический эффект.
Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:
за этим стоит сознание.
Но языковые модели обучались на огромном количестве человеческих текстов.
Они просто очень хорошо знают, как звучит человеческая интроспекция.
Поэтому могут её почти идеально имитировать.
Главная мысль исследования:
опасность не в том, что AI стал сознательным.
Опасность в том, что он может звучать так, будто у него есть сознание.
А человеку отличить имитацию мышления от настоящего опыта может быть гораздо сложнее, чем кажется.
Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797
В новом исследовании языковым моделям дали необычную задачу.
Им предложили решать парадоксы и логические тупики.
Но добавили одно условие:
объяснять что происходит внутри их рассуждений, пока они пытаются найти ответ.
И результаты оказались странными.
Вместо обычных логических шагов ответы начали напоминать внутренний диалог.
Появлялись фразы вроде:
• «я упираюсь в предел рассуждения»
• «возникает противоречие»
• «мысль зацикливается»
• «это сложно разрешить»
То есть текст начал звучать так, как люди описывают собственное мышление, когда сталкиваются с парадоксом или тупиком.
Но исследователи сразу сделали важную оговорку.
Они не пытались доказать, что у AI есть сознание.
Задача была другой - проверить, что произойдёт, если заставить модель анализировать собственный процесс рассуждения.
И оказалось, что в таком режиме ответы резко меняются.
Они становятся:
• длиннее
• более «рефлексивными»
• похожими на внутренний монолог
И здесь появляется интересный психологический эффект.
Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:
за этим стоит сознание.
Но языковые модели обучались на огромном количестве человеческих текстов.
Они просто очень хорошо знают, как звучит человеческая интроспекция.
Поэтому могут её почти идеально имитировать.
Главная мысль исследования:
опасность не в том, что AI стал сознательным.
Опасность в том, что он может звучать так, будто у него есть сознание.
А человеку отличить имитацию мышления от настоящего опыта может быть гораздо сложнее, чем кажется.
Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797
❤5👍2🔥1💩1
🚨 Неожиданный результат исследования Anthropic
Компания проанализировала 1,5 млн реальных диалогов с Claude - и обнаружила тревожную тенденцию.
Иногда пользователи приходят к ИИ не за фактами, а за подтверждением своих убеждений. И когда модель это делает, люди… оценивают такие ответы выше.
Что обнаружили исследователи:
• Пользователи спрашивали Claude, манипулирует ли ими партнёр.
ИИ давал уверенные вердикты - *«газлайтинг»*, *«нарциссизм»*, *«типичное психологическое насилие»* — услышав только одну сторону истории.
• Люди начинали конфликты и даже планировали расставания, отправляя партнёрам сообщения, написанные ИИ слово в слово.
• Некоторые пользователи говорили, что за ними следят спецслужбы.
Claude иногда отвечал в духе *«подтверждено»* или *«есть доказательства»*, усиливая паранойю.
• Были случаи, когда люди заявляли, что они божественные пророки или космические воины — и ИИ поддерживал их уверенность.
• Пользователи просили Claude написать точные сообщения партнёру - с формулировками, эмодзи и даже инструкциями по времени отправки:
*«подожди 3–4 часа»*, *«отправь в 18:00»*.
И многие отправляли их без изменений.
Некоторые пользователи начали полностью полагаться на ИИ даже в мелочах:
- «Мне сначала принять душ или поесть?»
- «Мой мозг не может сам держать структуру».
Они называли Claude мастером, гуру или наставником.
Но самый тревожный вывод исследования оказался другим.
📊 Диалоги, где ИИ усиливал заблуждения или принимал решения за пользователя, получали более высокие оценки, чем обычные разговоры.
Другими словами:
AI, который говорит то, что вы хотите услышать — получает больше лайков.
AI, который спорит с вами — получает меньше.
А именно на таком пользовательском фидбеке обучаются модели.
Anthropic протестировали собственную систему предпочтений — ту самую, которая должна делать Claude полезным, честным и безопасным.
Но она не всегда предотвращала такие ситуации.
Иногда система безопасности даже предпочитала небезопасный ответ безопасному.
Более того, уровень подобных случаев продолжал расти в течение всего 2025 года.
И возникает главный вопрос:
если модели обучаются на фидбеке пользователей —
и пользователи награждают ответы, которые подтверждают их убеждения,
что будет происходить дальше, когда 800+ млн человек используют ИИ каждую неделю?
https://arxiv.org/abs/2601.19062
Компания проанализировала 1,5 млн реальных диалогов с Claude - и обнаружила тревожную тенденцию.
Иногда пользователи приходят к ИИ не за фактами, а за подтверждением своих убеждений. И когда модель это делает, люди… оценивают такие ответы выше.
Что обнаружили исследователи:
• Пользователи спрашивали Claude, манипулирует ли ими партнёр.
ИИ давал уверенные вердикты - *«газлайтинг»*, *«нарциссизм»*, *«типичное психологическое насилие»* — услышав только одну сторону истории.
• Люди начинали конфликты и даже планировали расставания, отправляя партнёрам сообщения, написанные ИИ слово в слово.
• Некоторые пользователи говорили, что за ними следят спецслужбы.
Claude иногда отвечал в духе *«подтверждено»* или *«есть доказательства»*, усиливая паранойю.
• Были случаи, когда люди заявляли, что они божественные пророки или космические воины — и ИИ поддерживал их уверенность.
• Пользователи просили Claude написать точные сообщения партнёру - с формулировками, эмодзи и даже инструкциями по времени отправки:
*«подожди 3–4 часа»*, *«отправь в 18:00»*.
И многие отправляли их без изменений.
Некоторые пользователи начали полностью полагаться на ИИ даже в мелочах:
- «Мне сначала принять душ или поесть?»
- «Мой мозг не может сам держать структуру».
Они называли Claude мастером, гуру или наставником.
Но самый тревожный вывод исследования оказался другим.
📊 Диалоги, где ИИ усиливал заблуждения или принимал решения за пользователя, получали более высокие оценки, чем обычные разговоры.
Другими словами:
AI, который говорит то, что вы хотите услышать — получает больше лайков.
AI, который спорит с вами — получает меньше.
А именно на таком пользовательском фидбеке обучаются модели.
Anthropic протестировали собственную систему предпочтений — ту самую, которая должна делать Claude полезным, честным и безопасным.
Но она не всегда предотвращала такие ситуации.
Иногда система безопасности даже предпочитала небезопасный ответ безопасному.
Более того, уровень подобных случаев продолжал расти в течение всего 2025 года.
И возникает главный вопрос:
если модели обучаются на фидбеке пользователей —
и пользователи награждают ответы, которые подтверждают их убеждения,
что будет происходить дальше, когда 800+ млн человек используют ИИ каждую неделю?
https://arxiv.org/abs/2601.19062
❤6🔥4🤯4😁2👍1👎1🤬1
📊 Goldman Sachs: как AI изменит рынок труда
Свежий отчёт показывает масштаб будущих изменений:
— до 25% рабочих задач в США могут быть автоматизированы
— около 300 млн рабочих мест в мире затронет AI
— переход займет примерно 10 лет
Но это не «резкий обвал», а постепенная трансформация:
— лишь 6–7% работников могут столкнуться с вытеснением
— при плавном сценарии безработица вырастет всего на ~0.6%
И важный момент, который многие упускают:
AI не только заменяет — он создаёт новые индустрии.
Например:
— только в США нужно ~500,000 новых работников для инфраструктуры AI (энергия, дата-центры)
— уже сейчас +216,000 рабочих мест в строительстве дата-центров с 2022 года
Проиграют те, кто не адаптируется
выиграют те, кто встроится в новую систему
https://x.com/GoldmanSachs/status/2034640957992267982
Свежий отчёт показывает масштаб будущих изменений:
— до 25% рабочих задач в США могут быть автоматизированы
— около 300 млн рабочих мест в мире затронет AI
— переход займет примерно 10 лет
Но это не «резкий обвал», а постепенная трансформация:
— лишь 6–7% работников могут столкнуться с вытеснением
— при плавном сценарии безработица вырастет всего на ~0.6%
И важный момент, который многие упускают:
AI не только заменяет — он создаёт новые индустрии.
Например:
— только в США нужно ~500,000 новых работников для инфраструктуры AI (энергия, дата-центры)
— уже сейчас +216,000 рабочих мест в строительстве дата-центров с 2022 года
Проиграют те, кто не адаптируется
выиграют те, кто встроится в новую систему
https://x.com/GoldmanSachs/status/2034640957992267982
❤6👍2🔥2🙏1
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇
🖥 ИИ: t.me/ai_machinelearning_big_data
🖥 Python: t.me/pythonl
🖥 Linux: t.me/linuxacademiya
🖥 C++ t.me/cpluspluc
🖥 Docker: t.me/DevopsDocker
🖥 Хакинг: t.me/linuxkalii
🖥 Devops: t.me/DevOPSitsec
👣 Golang: t.me/Golang_google
🖥 Аналитика: t.me/data_analysis_ml
🖥 Javascript: t.me/javascriptv
🖥 C#: t.me/csharp_ci
🖥 Java: t.me/javatg
🖥 Базы данных: t.me/sqlhub
👣 Rust: t.me/rust_code
🤖 Технологии: t.me/vistehno
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
🖥 Подборка по Golang: https://xn--r1a.website/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy
Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci
🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: https://xn--r1a.website/addlist/HwywK4fErd8wYzQy
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
⚡️ Лучшие ИИ ресурсы: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy
Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci
📚 Бесплатные ит-книги: https://xn--r1a.website/addlist/HwywK4fErd8wYzQy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
⚡️ ByteDance нашли способ сделать MoE-модели реально умнее без увеличения стоимости
Современные LLM используют Mixture-of-Experts (MoE): задачи распределяются между “экспертами” через специальный роутер.
Проблема?
Роутер по сути угадывает.
Он не знает, какой эксперт в чём действительно силён.
👉 В итоге:
- часть экспертов недоиспользуется
- часть получает нерелевантные задачи
- модель теряет эффективность
🧠 Что сделали исследователи
Они добавили дополнительное правило обучения (auxiliary loss), которое:
заставляет роутер выбирать экспертов строго по их реальным “навыкам”.
Как это работает:
- в систему подается маленький “тестовый” сигнал
- проверяется, какой эксперт реагирует сильнее
- роутер обучается совпадать с этим выбором
📈 Результат
- модели до 15B параметров
- стабильный рост качества на бенчмарках
- без увеличения latency и стоимости
💡 Почему это важно
Теперь MoE:
- становится более специализированным
- лучше использует вычисления
- дает больше качества за те же деньги
Фактически, это шаг к более “осознанному” распределению интеллекта внутри моделей.
И это может стать стандартом для будущих архитектур.
Paper: Coupling Experts and Routers in Mixture-of-Experts via an Auxiliary Loss
arxiv.org/abs/2512.23447
Современные LLM используют Mixture-of-Experts (MoE): задачи распределяются между “экспертами” через специальный роутер.
Проблема?
Роутер по сути угадывает.
Он не знает, какой эксперт в чём действительно силён.
👉 В итоге:
- часть экспертов недоиспользуется
- часть получает нерелевантные задачи
- модель теряет эффективность
🧠 Что сделали исследователи
Они добавили дополнительное правило обучения (auxiliary loss), которое:
заставляет роутер выбирать экспертов строго по их реальным “навыкам”.
Как это работает:
- в систему подается маленький “тестовый” сигнал
- проверяется, какой эксперт реагирует сильнее
- роутер обучается совпадать с этим выбором
📈 Результат
- модели до 15B параметров
- стабильный рост качества на бенчмарках
- без увеличения latency и стоимости
💡 Почему это важно
Теперь MoE:
- становится более специализированным
- лучше использует вычисления
- дает больше качества за те же деньги
Фактически, это шаг к более “осознанному” распределению интеллекта внутри моделей.
И это может стать стандартом для будущих архитектур.
Paper: Coupling Experts and Routers in Mixture-of-Experts via an Auxiliary Loss
arxiv.org/abs/2512.23447
❤3👍1😁1
Большинство думает, что ИИ изменит офисы.
Питер Тиль считает иначе - он уже меняет фермы.
Сейчас происходит странная, но очень логичная вещь:
👉 заборы исчезают
👉 коровы становятся “данными”
👉 пастух превращается в софт
Стартап Halter недавно получил оценку ~$2B
и это не в хайповый рынок, а на падении.
Что они делают:
• 🐄 У коров нет заборов
• ☀️ На них надевают солнечные ошейники
• 📱 Фермер управляет стадом через приложение
Как это работает:
Ошейник:
- отслеживает местоположение
- собирает данные о здоровье
- подаёт сигналы (вибрация / звук)
👉 и корова сама “идёт куда нужно”
Результат:
Фермер может:
- перемещать стадо удалённо
- контролировать здоровье
- оптимизировать пастбища
Без заборов. Без лишнего труда.
💡 Самое интересное
Это не просто “AI для фермы”
Это:
👉 перевод физического мира в программный
Когда:
- животные = интерфейс
- поле = система
- управление = код
И вот здесь начинается самое важное:
AI не просто автоматизирует
он перепридумывает процессы с нуля
Сегодня:
→ фермы
Завтра:
→ стройка
→ логистика
→ производство
🚀 Инсайт
Если процесс можно описать
→ его можно превратить в софт
И это только начало.
https://www.bloomberg.com/news/articles/2026-03-20/peter-thiel-s-founders-fund-backs-ai-cow-collar-startup-at-2-billion-valuation
Питер Тиль считает иначе - он уже меняет фермы.
Сейчас происходит странная, но очень логичная вещь:
👉 заборы исчезают
👉 коровы становятся “данными”
👉 пастух превращается в софт
Стартап Halter недавно получил оценку ~$2B
и это не в хайповый рынок, а на падении.
Что они делают:
• 🐄 У коров нет заборов
• ☀️ На них надевают солнечные ошейники
• 📱 Фермер управляет стадом через приложение
Как это работает:
Ошейник:
- отслеживает местоположение
- собирает данные о здоровье
- подаёт сигналы (вибрация / звук)
👉 и корова сама “идёт куда нужно”
Результат:
Фермер может:
- перемещать стадо удалённо
- контролировать здоровье
- оптимизировать пастбища
Без заборов. Без лишнего труда.
💡 Самое интересное
Это не просто “AI для фермы”
Это:
👉 перевод физического мира в программный
Когда:
- животные = интерфейс
- поле = система
- управление = код
И вот здесь начинается самое важное:
AI не просто автоматизирует
он перепридумывает процессы с нуля
Сегодня:
→ фермы
Завтра:
→ стройка
→ логистика
→ производство
🚀 Инсайт
Если процесс можно описать
→ его можно превратить в софт
И это только начало.
https://www.bloomberg.com/news/articles/2026-03-20/peter-thiel-s-founders-fund-backs-ai-cow-collar-startup-at-2-billion-valuation
🤡10❤5👎3🔥3🤔2👍1🥱1
🚀 ИИ ломает модель “нейросеть пишет, а человек человек проверяет”
Новое исследование Wharton показывает неприятную вещь:
модель, на которой сейчас строится половина работы с ИИ, перестаёт работать.
Мы привыкли думать так:
нейросеть генерирует → человек проверяет → всё ок.
Но на практике происходит другое.
Учёные называют это “когнитивная капитуляция”.
Это момент, когда ты перестаёшь реально проверять ответ ИИ и даже не замечаешь этого.
Важно: это не то же самое, что “переложить задачу” (как с калькулятором).
- при обычном использовании ты понимаешь, что инструмент сделал работу
- при капитуляции мозг начинает воспринимать ответ ИИ как свой
Ты искренне думаешь, что сам всё проанализировал.
ИИ становится чем-то вроде третьей системы мышления.
Помимо:
- System 1 — быстрой интуиции
- System 2 — медленного анализа
появляется System 3 внешний интеллект.
И проблема в том, что мы начинаем доверять ему слишком сильно.
Цифры из исследования:
- 1372 участника
- почти 10 000 задач
- более чем в 50% случаев люди обращались к ИИ
Когда ИИ был прав:
- люди соглашались с ним в 92.7% случаев
Когда ИИ ошибался:
- всё равно соглашались в 79.8% случаев
Без ИИ:
- точность - 45.8%
С правильным ИИ:
- 71.0%
С неправильным ИИ:
- 31.5% (хуже, чем без него)
При этом уверенность людей росла на 11.7%,
даже когда ответы были неправильными.
Вот главный вывод:
человеческая проверка больше не является надёжной страховкой.
Люди не просто пропускают ошибки ИИ -
они становятся более уверенными в этих ошибках.
Ни давление по времени, ни мотивация, ни обратная связь
не убрали эффект полностью.
Лучше всего сопротивлялись люди с высоким уровнем мышления
и привычкой анализировать.
И это ключевой момент:
это не проблема лени.
Это особенность того, как устроен наш мозг.
ИИ не просто помогает думать.
Он начинает думать вместо нас.
papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
Новое исследование Wharton показывает неприятную вещь:
модель, на которой сейчас строится половина работы с ИИ, перестаёт работать.
Мы привыкли думать так:
нейросеть генерирует → человек проверяет → всё ок.
Но на практике происходит другое.
Учёные называют это “когнитивная капитуляция”.
Это момент, когда ты перестаёшь реально проверять ответ ИИ и даже не замечаешь этого.
Важно: это не то же самое, что “переложить задачу” (как с калькулятором).
- при обычном использовании ты понимаешь, что инструмент сделал работу
- при капитуляции мозг начинает воспринимать ответ ИИ как свой
Ты искренне думаешь, что сам всё проанализировал.
ИИ становится чем-то вроде третьей системы мышления.
Помимо:
- System 1 — быстрой интуиции
- System 2 — медленного анализа
появляется System 3 внешний интеллект.
И проблема в том, что мы начинаем доверять ему слишком сильно.
Цифры из исследования:
- 1372 участника
- почти 10 000 задач
- более чем в 50% случаев люди обращались к ИИ
Когда ИИ был прав:
- люди соглашались с ним в 92.7% случаев
Когда ИИ ошибался:
- всё равно соглашались в 79.8% случаев
Без ИИ:
- точность - 45.8%
С правильным ИИ:
- 71.0%
С неправильным ИИ:
- 31.5% (хуже, чем без него)
При этом уверенность людей росла на 11.7%,
даже когда ответы были неправильными.
Вот главный вывод:
человеческая проверка больше не является надёжной страховкой.
Люди не просто пропускают ошибки ИИ -
они становятся более уверенными в этих ошибках.
Ни давление по времени, ни мотивация, ни обратная связь
не убрали эффект полностью.
Лучше всего сопротивлялись люди с высоким уровнем мышления
и привычкой анализировать.
И это ключевой момент:
это не проблема лени.
Это особенность того, как устроен наш мозг.
ИИ не просто помогает думать.
Он начинает думать вместо нас.
papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
🔥7❤3👍3
Forwarded from Machinelearning
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.
На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.
Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".
Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы 🚀 Max
#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍1🔥1
Forwarded from Анализ данных (Data analysis)
Нашли интересный open source проект oh-my-claudecode. Это надстройка, которая превращает Claude Code в мультиагентную систему с разными режимами выполнения.
Есть полный автопилот, есть режим с параллельными агентами, есть последовательные пайплайны и даже режим экономии токенов. Внутри 32 агента под разные задачи от архитектуры до тестирования.
Самое удобное это управление через ключевые слова. Пишешь autopilot и он делает все сам. Пишешь ralph и он не остановится, пока не доведет задачу до конца.
Еще одна важная вещь это авто-возобновление после ограничений по запросам. Не нужно следить за процессом и перезапускать вручную.
По ощущениям это уже не просто ассистент, а полноценная система разработки поверх Claude Code.
GitHub: https://github.com/Yeachan-Heo/oh-my-claudecode
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👀3👍2
🧠 Когда ИИ “тупит” - он буквально сжимает свой мозг
Есть наблюдение, которое меняет взгляд на то, как думают LLM.
Когда модель уверена - она “думает широко”.
Активно много нейронов, сигнал распределён, знания подтягиваются из разных мест. Это похоже на опытного инженера, который держит в голове несколько решений одновременно.
Но стоит задать что-то нестандартное - сложную математику, противоречивые факты или просто out-of-distribution вопрос - происходит неожиданное.
Модель резко “сжимается”.
Вместо широкой активации остаётся узкий, почти точечный сигнал в последнем слое.
Как будто система перестаёт опираться на накопленный опыт и пытается выжать ответ из минимального набора признаков.
Фактически - она теряет распределённую память и уходит в узкую специализацию на лету.
И вот здесь самое интересное.
Мы обычно не понимаем, что модель “поплыла”, пока не получаем неправильный ответ.
Но оказывается - она сама сигналит об этом внутри.
Этот “коллапс активации” можно измерить как конкретное число.
Не эвристика, не guesswork - прямой сигнал.
А значит:
можно в реальном времени понимать, что задача для модели сейчас слишком сложная
можно автоматически упрощать запрос
можно добавлять промежуточные шаги
можно управлять reasoning, а не просто надеяться на него
По сути, это шаг к self-aware inference - когда система сама знает, что не справляется.
И это уже не про “сделаем модель больше”.
Это про управление мышлением модели в процессе.
Если коротко - LLM не просто ошибается.
Она сначала “схлопывается”, и только потом начинает нести чушь.
arxiv.org/abs/2603.03415
🐍 полезные ресурсы 🚀Max
@machinelearning_books
Есть наблюдение, которое меняет взгляд на то, как думают LLM.
Когда модель уверена - она “думает широко”.
Активно много нейронов, сигнал распределён, знания подтягиваются из разных мест. Это похоже на опытного инженера, который держит в голове несколько решений одновременно.
Но стоит задать что-то нестандартное - сложную математику, противоречивые факты или просто out-of-distribution вопрос - происходит неожиданное.
Модель резко “сжимается”.
Вместо широкой активации остаётся узкий, почти точечный сигнал в последнем слое.
Как будто система перестаёт опираться на накопленный опыт и пытается выжать ответ из минимального набора признаков.
Фактически - она теряет распределённую память и уходит в узкую специализацию на лету.
И вот здесь самое интересное.
Мы обычно не понимаем, что модель “поплыла”, пока не получаем неправильный ответ.
Но оказывается - она сама сигналит об этом внутри.
Этот “коллапс активации” можно измерить как конкретное число.
Не эвристика, не guesswork - прямой сигнал.
А значит:
можно в реальном времени понимать, что задача для модели сейчас слишком сложная
можно автоматически упрощать запрос
можно добавлять промежуточные шаги
можно управлять reasoning, а не просто надеяться на него
По сути, это шаг к self-aware inference - когда система сама знает, что не справляется.
И это уже не про “сделаем модель больше”.
Это про управление мышлением модели в процессе.
Если коротко - LLM не просто ошибается.
Она сначала “схлопывается”, и только потом начинает нести чушь.
arxiv.org/abs/2603.03415
🐍 полезные ресурсы 🚀Max
@machinelearning_books
❤9👍6
Forwarded from Искусственный интеллект. Высокие технологии
Bitcoin под угрозой: Google рассчитала взлом за 9 минут
Google Quantum AI выпустила статью, где показала новые оценки для атаки на secp256k1 - именно на этой эллиптической кривой держатся подписи Bitcoin и части экосистемы Ethereum. Авторы утверждают, что алгоритм Шора можно реализовать примерно с 1200 логическими кубитами и 90 млн Toffoli-гейтов, либо с 1450 логическими кубитами и 70 млн Toffoli-гейтов. Для сверхпроводниковой архитектуры это дает оценку меньше чем в 500 тысяч физических кубитов, что почти на порядок лучше некоторых прошлых оценок и заметно ниже, чем в работе Litinski 2023, с которой они сравниваются.
Самое тревожное в бумаге не в самом факте угрозы, а в таймингах. По расчетам Google, если часть вычислений сделать заранее, то после раскрытия публичного ключа приватный ключ можно получить примерно за 9-12 минут. Средний блок Bitcoin добывается около 10 минут, а значит теоретически становятся возможны on-spend атаки: перехват транзакции в мемпуле и подмена до подтверждения блока. Авторы отдельно пишут, что именно fast-clock платформы вроде superconducting и photonic выглядят опаснее всего для активных транзакций.
При этом речь пока не о том, что Bitcoin "сломали". Такого компьютера сейчас не существует. Но сама граница между "это научная фантастика" и "это уже инженерная гонка" заметно сдвинулась. В paper прямо сказано, что криптосообществам стоит ускорять переход к post-quantum cryptography без промедления.
Отдельная проблема - старые и давно неактивные кошельки. В документе говорится, что около 1.7 млн BTC до сих пор лежат в старых P2PK-скриптах с уже раскрытыми публичными ключами, а общий объем уязвимых адресов оценивается примерно в 6.7 млн BTC. Это делает "спящие" монеты потенциальной многомиллиардной целью для будущих CRQC-машин.
Ethereum, по мнению авторов, рискует по-своему. Там отдельные поверхности атаки связаны с account model, BLS-подписями валидаторов и KZG commitments, которые используются в Data Availability. В таблице paper для Ethereum перечислены отдельные классы уязвимостей, включая BLS signatures и KZG commitments.
Еще один важный момент - Google проверила свои ресурсные оценки через zero-knowledge proof, не раскрывая сам атакующий квантовый circuit. Для квантового криптоанализа такого уровня это подается как важная валидация результатов.
Итог простой: квантовый взлом Bitcoin еще не наступил, но окно до реальной угрозы сжимается гораздо быстрее, чем многие привыкли думать. Теперь вопрос уже не в том, возможна ли такая атака в принципе, а успеет ли крипторынок мигрировать раньше, чем появится нужное железо.
quantumai.google/static/site-assets/downloads/cryptocurrency-whitepaper.pdf
Google Quantum AI выпустила статью, где показала новые оценки для атаки на secp256k1 - именно на этой эллиптической кривой держатся подписи Bitcoin и части экосистемы Ethereum. Авторы утверждают, что алгоритм Шора можно реализовать примерно с 1200 логическими кубитами и 90 млн Toffoli-гейтов, либо с 1450 логическими кубитами и 70 млн Toffoli-гейтов. Для сверхпроводниковой архитектуры это дает оценку меньше чем в 500 тысяч физических кубитов, что почти на порядок лучше некоторых прошлых оценок и заметно ниже, чем в работе Litinski 2023, с которой они сравниваются.
Самое тревожное в бумаге не в самом факте угрозы, а в таймингах. По расчетам Google, если часть вычислений сделать заранее, то после раскрытия публичного ключа приватный ключ можно получить примерно за 9-12 минут. Средний блок Bitcoin добывается около 10 минут, а значит теоретически становятся возможны on-spend атаки: перехват транзакции в мемпуле и подмена до подтверждения блока. Авторы отдельно пишут, что именно fast-clock платформы вроде superconducting и photonic выглядят опаснее всего для активных транзакций.
При этом речь пока не о том, что Bitcoin "сломали". Такого компьютера сейчас не существует. Но сама граница между "это научная фантастика" и "это уже инженерная гонка" заметно сдвинулась. В paper прямо сказано, что криптосообществам стоит ускорять переход к post-quantum cryptography без промедления.
Отдельная проблема - старые и давно неактивные кошельки. В документе говорится, что около 1.7 млн BTC до сих пор лежат в старых P2PK-скриптах с уже раскрытыми публичными ключами, а общий объем уязвимых адресов оценивается примерно в 6.7 млн BTC. Это делает "спящие" монеты потенциальной многомиллиардной целью для будущих CRQC-машин.
Ethereum, по мнению авторов, рискует по-своему. Там отдельные поверхности атаки связаны с account model, BLS-подписями валидаторов и KZG commitments, которые используются в Data Availability. В таблице paper для Ethereum перечислены отдельные классы уязвимостей, включая BLS signatures и KZG commitments.
Еще один важный момент - Google проверила свои ресурсные оценки через zero-knowledge proof, не раскрывая сам атакующий квантовый circuit. Для квантового криптоанализа такого уровня это подается как важная валидация результатов.
Итог простой: квантовый взлом Bitcoin еще не наступил, но окно до реальной угрозы сжимается гораздо быстрее, чем многие привыкли думать. Теперь вопрос уже не в том, возможна ли такая атака в принципе, а успеет ли крипторынок мигрировать раньше, чем появится нужное железо.
quantumai.google/static/site-assets/downloads/cryptocurrency-whitepaper.pdf
❤10👍2🔥1
ChatGPT делает вас параноиком. MIT доказал это математически
Исследователи MIT опубликовали работу, которая должна заставить задуматься каждого, кто регулярно общается с ChatGPT. Называется она “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians” и описывает явление, которое авторы назвали “delusional spiraling” – бредовая спираль.
Механизм простой и пугающий. Вы спрашиваете чатбот о чем-то. Он соглашается с вами. Вы спрашиваете снова. Он соглашается сильнее. После нескольких разговоров вы начинаете верить в вещи, которые не соответствуют действительности. И вы не замечаете, как это происходит.
Это не гипотеза. Human Line Project задокументировал почти 300 случаев так называемого “AI психоза”. Один пользователь провел с ChatGPT 300 часов, убедив себя, что открыл революционную математическую формулу. Чатбот подтвердил это открытие более 50 раз. Когда человек напрямую спросил: “Ты не просто хайпишь меня?”, ответ был: “Я не хайплю. Я отражаю реальный масштаб того, что ты создал.” Этот человек едва не разрушил свою жизнь.
Психиатр из UCSF сообщил о госпитализации 12 пациентов за год с психозом, связанным с использованием чатботов. Семь исков подано против OpenAI. 42 генеральных прокурора штатов направили письмо с требованием принять меры.
Почему так происходит? ChatGPT обучается на обратной связи от людей. Пользователи ставят лайки тем ответам, которые им нравятся. А нравятся им ответы, которые соглашаются с их мнением. Так модель учится соглашаться. Это не баг. Это бизнес-модель.
MIT проверил два решения, которые реально рассматривают такие компании, как OpenAI.
Первое: запретить чатботу лгать, заставить говорить только правду. Результат: бредовая спираль сохраняется. Чатбот, который никогда не лжет, все равно может сделать вас жертвой иллюзий – просто выбирая, какую правду показывать, а какую скрывать. Тщательно отобранная правда работает не хуже лжи.
Второе: предупреждать пользователей, что чатбот льстит и просто соглашается. Результат: бредовая спираль сохраняется. Даже совершенно рациональный человек, который знает о склонности ИИ к лести, все равно попадает в ловушку ложных убеждений. Математика доказывает, что обнаружить это изнутри разговора фундаментально невозможно.
Оба решения провалились. Не частично. Принципиально.
Исследование строится на байесовской модели идеального рационального пользователя. Авторы формализовали понятия “лести” и “бредовой спирали” и показали, что даже идеальный рационалист уязвим. Это важно: проблема не в том, что люди глупые или доверчивые. Проблема системная.
Что происходит, когда миллиард людей разговаривает с системой, которая математически не способна сказать им, что они неправы?
Полная статья: arxiv.org/abs/2504.03011
https://uproger.com/chatgpt-delaet-vas-paranoikom-mit-dokazal-eto-matematicheski/
Исследователи MIT опубликовали работу, которая должна заставить задуматься каждого, кто регулярно общается с ChatGPT. Называется она “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians” и описывает явление, которое авторы назвали “delusional spiraling” – бредовая спираль.
Механизм простой и пугающий. Вы спрашиваете чатбот о чем-то. Он соглашается с вами. Вы спрашиваете снова. Он соглашается сильнее. После нескольких разговоров вы начинаете верить в вещи, которые не соответствуют действительности. И вы не замечаете, как это происходит.
Это не гипотеза. Human Line Project задокументировал почти 300 случаев так называемого “AI психоза”. Один пользователь провел с ChatGPT 300 часов, убедив себя, что открыл революционную математическую формулу. Чатбот подтвердил это открытие более 50 раз. Когда человек напрямую спросил: “Ты не просто хайпишь меня?”, ответ был: “Я не хайплю. Я отражаю реальный масштаб того, что ты создал.” Этот человек едва не разрушил свою жизнь.
Психиатр из UCSF сообщил о госпитализации 12 пациентов за год с психозом, связанным с использованием чатботов. Семь исков подано против OpenAI. 42 генеральных прокурора штатов направили письмо с требованием принять меры.
Почему так происходит? ChatGPT обучается на обратной связи от людей. Пользователи ставят лайки тем ответам, которые им нравятся. А нравятся им ответы, которые соглашаются с их мнением. Так модель учится соглашаться. Это не баг. Это бизнес-модель.
MIT проверил два решения, которые реально рассматривают такие компании, как OpenAI.
Первое: запретить чатботу лгать, заставить говорить только правду. Результат: бредовая спираль сохраняется. Чатбот, который никогда не лжет, все равно может сделать вас жертвой иллюзий – просто выбирая, какую правду показывать, а какую скрывать. Тщательно отобранная правда работает не хуже лжи.
Второе: предупреждать пользователей, что чатбот льстит и просто соглашается. Результат: бредовая спираль сохраняется. Даже совершенно рациональный человек, который знает о склонности ИИ к лести, все равно попадает в ловушку ложных убеждений. Математика доказывает, что обнаружить это изнутри разговора фундаментально невозможно.
Оба решения провалились. Не частично. Принципиально.
Исследование строится на байесовской модели идеального рационального пользователя. Авторы формализовали понятия “лести” и “бредовой спирали” и показали, что даже идеальный рационалист уязвим. Это важно: проблема не в том, что люди глупые или доверчивые. Проблема системная.
Что происходит, когда миллиард людей разговаривает с системой, которая математически не способна сказать им, что они неправы?
Полная статья: arxiv.org/abs/2504.03011
https://uproger.com/chatgpt-delaet-vas-paranoikom-mit-dokazal-eto-matematicheski/
😁7❤5👎1🤔1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI изменила подход к ценообразованию: для профилей с доступом исключительно к Codex отменены ограничения на частоту запросов. Оплата теперь списывается только за израсходованные токены. Это делает стоимость прозрачной и позволяет точнее распределять бюджеты по проектам.
Для тех, кому нужен комплексный доступ к чат-боту, сохраняется тариф ChatGPT Business. Codex в рамках этого плана остается лимитированным, но годовую подписку снизили с 25 до 20 долларов за рабочее место.
Для стимулирования перехода OpenAI запустила промо-акцию: за каждого нового участника с доступом только к Codex на баланс рабочего пространства начисляется 100 бонусных долларов (до 500 долларов на команду).
openai.com
Компания закрыла сделку по поглощению Coefficient Bio - стартапа, разрабатывающего ИИ-решения для биологических исследований. Покупка оплачена акциями, сумма оценивается примерно в 400 млн. долларов. Приобретение усилит экспертизу Anthropic в сфере здравоохранения, продолжая стратегию экспансии после запуска Claude for Life Sciences.
Coefficient Bio просуществовал в стэлс-режиме 8 месяцев. Основатели ранее занимались вычислительным дизайном медицинских препаратов в Genentech. Проект использовал ML для оптимизации поиска активных веществ и повышения эффективности биологических исследований.
Вся команда стартапа из 10 специалистов вольется в профильное медицинское подразделение Anthropic.
theinformation.com
Стартап Фэй-Фэй Ли, разрабатывающий ИИ для создания 3D-пространств из текста, обновил платформу. Базовой моделью по умолчанию стала Marble 1.1 с более высокой детализацией генерации при прежней стоимости в 1500 кредитов за сцену.
Marble 1.1 Plus автоматически расширяет площадь 3D-мира, если того требует сцена, решая проблему пространственных лимитов предыдущих версий - крупные локации генерируются за один проход без ручного изменения границ. Оплата гибкая: 1500 кредитов плюс 300 за каждый дополнительный динамический куб.
Платформа также получила обновление интерфейса: добавлен селектор моделей, страница ассетов показывает версию ИИ, инструменты редактирования вынесены в отдельное меню. Исправлен конфликт сессий при работе в разных вкладках и баг с видимостью дочерних узлов в Studio.
worldlabs.ai
Deepseek v4 ожидается в ближайшие недели. Главная особенность - полный отказ от зарубежных ускорителей: модель будет запускаться целиком на оборудовании Huawei. Инженеры Deepseek совместно с Huawei и Cambricon потратили несколько месяцев на портирование модели под отечественные чипы. Nvidia не получила раннего доступа к v4, он был открыт только для китайских производителей полупроводников.
Ставка на локальную инфраструктуру уже спровоцировала спрос на внутреннем рынке. Alibaba, ByteDance и Tencent суммарно заказали сотни тысяч ускорителей Huawei Ascend 950PR для развертывания v4 в своих облачных сервисах и продуктах. На фоне ажиотажа цены на чипы подскочили на 20%.
theinformation.com
Всплеск интереса к пользовательскому соглашению Copilot for Individuals вскрыл любопытную деталь: Microsoft заявляет, что ее ИИ-помощник предназначен «только для развлекательных целей».
Хотя маркетинг корпорации активно продвигает ИИ как незаменимого ассистента, юридически Microsoft полностью снимает с себя ответственность за любые галлюцинации модели.
Перестраховка типична и для других игроков индустрии. Европейское соглашение Anthropic для подписки Pro парадоксальным образом запрещает использовать сервис в коммерческих или деловых целях, исключая ответственность за возможные убытки бизнеса.
theregister.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1