DeepSeek внезапно обновили статью годовой давности про DeepSeek-R1
Раньше в ней было 22 страницы, теперь же работа насчитывает 86 (!)
Ничего крайне необычного на дополнительных страницах, правда, не появилось: в основном все про эвал модели, self-evolution R1-Zero, дистилляцию и анализ способностей.
Если интересно, обновленная версия: https://arxiv.org/abs/2501.12948
Кстати, R1 вышла почти ровно год назад. Может, это знак, и в этом январе DeepSeek нам тоже что-нибудь завезут?
Раньше в ней было 22 страницы, теперь же работа насчитывает 86 (!)
Ничего крайне необычного на дополнительных страницах, правда, не появилось: в основном все про эвал модели, self-evolution R1-Zero, дистилляцию и анализ способностей.
Если интересно, обновленная версия: https://arxiv.org/abs/2501.12948
Кстати, R1 вышла почти ровно год назад. Может, это знак, и в этом январе DeepSeek нам тоже что-нибудь завезут?
3🔥116👍43😁15❤6🤯5🐳3🫡3👌2
OpenAI запускает ChatGPT Health
Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного:
– Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих врачей. Подчеркивается, что это все еще не замена врачам, а скорее инструмент для ориентации в данных (максимум может дать совет по питанию и прокомментировать анализы).
– Раздел изолирован отдельной памятью и усиленным шифрованием. Плюс эти чаты (пока что) не используются для обучения моделей OpenAI. Но помните: это не значит, что ваши данные не собирают.
– Есть интеграции с Apple Health, Peloton и другими релевантными приложениями. В перспективе это, конечно, огромная угроза всяким Oura Ring и Whoop.
Под капотом, как вы понимаете, специальной модели нет, просто другой системный промпт. Пока не очень понятно, чем это глобально отличается от временного ChatGPT чата, если не синхронизировать данные с приложениями. Но, возможно, кому-то будет актуально (нужен аккаунт США).
https://openai.com/index/introducing-chatgpt-health/
Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного:
– Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих врачей. Подчеркивается, что это все еще не замена врачам, а скорее инструмент для ориентации в данных (максимум может дать совет по питанию и прокомментировать анализы).
– Раздел изолирован отдельной памятью и усиленным шифрованием. Плюс эти чаты (пока что) не используются для обучения моделей OpenAI. Но помните: это не значит, что ваши данные не собирают.
– Есть интеграции с Apple Health, Peloton и другими релевантными приложениями. В перспективе это, конечно, огромная угроза всяким Oura Ring и Whoop.
Под капотом, как вы понимаете, специальной модели нет, просто другой системный промпт. Пока не очень понятно, чем это глобально отличается от временного ChatGPT чата, если не синхронизировать данные с приложениями. Но, возможно, кому-то будет актуально (нужен аккаунт США).
https://openai.com/index/introducing-chatgpt-health/
👍110❤45🔥17😁9🤯5✍4
Ученые из Университета Ватерлоо (Канада) впервые придумали способ безопасно сохранять и дублировать информацию в квантовых компьютерах
Раньше это считалось невозможным. Дело в том, что квантовую информация нельзя просто скопировать и вставить, как обычный файл.
Это фундаментальный закон квантовой физики – теорема о невозможности клонирования (no-cloning theorem). Она гласит, что невозможно создать механизм, который бы делал точную копию какого-либо квантового состояния.
Обойти это удалось с помощью шифрования информации. Сначала квантовые данные зашифровывают, и только потом копируют. Причем делать это можно сколько угодно раз, но есть нюанс: когда одна копия расшифровывается, ключ шифрования тут же физически разрушается, и больше его использовать нельзя. То есть все копии вскрываются как бы одновременно.
Если хотите разобраться в процессе подробнее, вот статья: uwaterloo.ca/news/media/scientists-discover-first-method-safely-back-quantum
Это, на самом деле, огромный шаг, потому что тут открываются виды и на квантовое облачное хранение, и на распределенные квантовые системы. Ух!
Раньше это считалось невозможным. Дело в том, что квантовую информация нельзя просто скопировать и вставить, как обычный файл.
Это фундаментальный закон квантовой физики – теорема о невозможности клонирования (no-cloning theorem). Она гласит, что невозможно создать механизм, который бы делал точную копию какого-либо квантового состояния.
Обойти это удалось с помощью шифрования информации. Сначала квантовые данные зашифровывают, и только потом копируют. Причем делать это можно сколько угодно раз, но есть нюанс: когда одна копия расшифровывается, ключ шифрования тут же физически разрушается, и больше его использовать нельзя. То есть все копии вскрываются как бы одновременно.
Если хотите разобраться в процессе подробнее, вот статья: uwaterloo.ca/news/media/scientists-discover-first-method-safely-back-quantum
Это, на самом деле, огромный шаг, потому что тут открываются виды и на квантовое облачное хранение, и на распределенные квантовые системы. Ух!
1🤯209👍54🔥30❤19😁4🤔4🗿2⚡1
Data Secrets
OpenAI запускает ChatGPT Health Это (очередной) отдельный раздел чат-бота, предназначенный для общения на тему здоровья. Из важного и интересного: – Разрабатывали совместно с врачами, за два года разработки собрали ~600 000 отзывов от >260 практикующих…
Первые отзывы на ChatGPT Health полетели
😁608❤36🤯19😎13🍾4🔥3
К вопросу о прогрессе. Агент от SakanaAI занял уверенное первое место на соревновании по кодингу. В прошлом году на этом же конкурсе агент от OpenAI занял только второе место.
В AtCoder Heuristic Contest в этом году принимало участие около 800 человек. ALE-Agent от японской лаборатории обошел всех и с приличным отрывом взял топ. Стоимость решения составила примерно $1300.
При этом, что интересно: сами авторы оптимизационной задачи этого года предполагали классический подход с использованием отжига и конструктивных эвристик, но агент Sakana пошел другим путем. Он внезапно реализовал эвристику virtual power, и это позволило ему выходить из локальных оптимумов даже лучше, чем эксперты-люди.
Агент представляет из себя достаточно хитрую обертку над (в данном случае) GPT‑5.2 high и Gemini 3 Pro high. Сами Sakana, в плане моделей, звезд с неба никогда не хватали, но научились грамотно работать с inference time scaling – и вот результат. Одним словом, молодцы.
https://sakana.ai/ahc058/
В AtCoder Heuristic Contest в этом году принимало участие около 800 человек. ALE-Agent от японской лаборатории обошел всех и с приличным отрывом взял топ. Стоимость решения составила примерно $1300.
При этом, что интересно: сами авторы оптимизационной задачи этого года предполагали классический подход с использованием отжига и конструктивных эвристик, но агент Sakana пошел другим путем. Он внезапно реализовал эвристику virtual power, и это позволило ему выходить из локальных оптимумов даже лучше, чем эксперты-люди.
Агент представляет из себя достаточно хитрую обертку над (в данном случае) GPT‑5.2 high и Gemini 3 Pro high. Сами Sakana, в плане моделей, звезд с неба никогда не хватали, но научились грамотно работать с inference time scaling – и вот результат. Одним словом, молодцы.
https://sakana.ai/ahc058/
👍135🔥54❤33☃4😁3❤🔥2
Очень интересная статья от MIT про дообучение моделей после деплоя
Фанфэкт: некоторые из авторов работают в OpenAI, так что читаем внимательно🤨
Подход красиво назвали тюленем: SEAL – Self-Adapting Language Models.
Суть тюленя в том, что модель учится извлекать из условных чатов информацию в таком виде, которая дообучит ее лучше всего. Звучит немного запутанно, поэтому разбираемся:
1. Модель получает на вход некоторый контекст и извлекает из него так называемые self-edit (SE). Это структура, на которой модель дальше будет дообучаться (например, список следствий/импликаций из абзаца).
2. Таких SE генерируется много, а затем по каждому из них мы делаем мини-файнтюн и смотрим, какие SE улучшили знания модели лучше всего. Тестирование проходит на той же downstream-задаче (например, вопросах по абзацу без подсказки-абзаца в контексте).
3. Чем лучше SE обучил модель, тем больший reward он получает. Далее политика генерации self-edit обновляется так, чтобы в следующий раз SE были более и полезными.
То есть модель как бы учиться выбирать наилучшую процедуру адаптации для самой себя. Красиво, да?
И работает неплохо. Из примера в статье: на бенчмарке SQuAD тюлень улучшил Qwen2.5-7B аж на 15 процентных пунктов. В сравнении, base model + дообучение на синтетике от сильной GPT-4.1 дает результат на пару процентов меньше, хотя разница в размере моделей «учителей» огромна.
Есть, конечно, и парочка НО. Например:
– Это адски дорого. Одна оценка self-edit занимает примерно 30–45 секунд. 750 итераций – это 6 часов на двух H100. Авторы предлагают это немного сгладить, применяя вместо мини-файнтюнингов Proxy reward, когда SE оценивает другая LLM. Это уже не так интересно, и метрики чуть хуже, но как вариант.
– Для тестов требуется разметка. Хотя тут, опять же, можно генерировать.
– Модели показывают деградацию на прошлых задачах по мере числа обновлений. Это частично лечится reward shaping, но полностью проблема не исчезает.
Стоит ли игра свеч, пока непонятно. Но идея прикольная. Статья полностью здесь -> https://arxiv.org/abs/2506.10943
Фанфэкт: некоторые из авторов работают в OpenAI, так что читаем внимательно
Подход красиво назвали тюленем: SEAL – Self-Adapting Language Models.
Суть тюленя в том, что модель учится извлекать из условных чатов информацию в таком виде, которая дообучит ее лучше всего. Звучит немного запутанно, поэтому разбираемся:
1. Модель получает на вход некоторый контекст и извлекает из него так называемые self-edit (SE). Это структура, на которой модель дальше будет дообучаться (например, список следствий/импликаций из абзаца).
2. Таких SE генерируется много, а затем по каждому из них мы делаем мини-файнтюн и смотрим, какие SE улучшили знания модели лучше всего. Тестирование проходит на той же downstream-задаче (например, вопросах по абзацу без подсказки-абзаца в контексте).
3. Чем лучше SE обучил модель, тем больший reward он получает. Далее политика генерации self-edit обновляется так, чтобы в следующий раз SE были более и полезными.
То есть модель как бы учиться выбирать наилучшую процедуру адаптации для самой себя. Красиво, да?
И работает неплохо. Из примера в статье: на бенчмарке SQuAD тюлень улучшил Qwen2.5-7B аж на 15 процентных пунктов. В сравнении, base model + дообучение на синтетике от сильной GPT-4.1 дает результат на пару процентов меньше, хотя разница в размере моделей «учителей» огромна.
Есть, конечно, и парочка НО. Например:
– Это адски дорого. Одна оценка self-edit занимает примерно 30–45 секунд. 750 итераций – это 6 часов на двух H100. Авторы предлагают это немного сгладить, применяя вместо мини-файнтюнингов Proxy reward, когда SE оценивает другая LLM. Это уже не так интересно, и метрики чуть хуже, но как вариант.
– Для тестов требуется разметка. Хотя тут, опять же, можно генерировать.
– Модели показывают деградацию на прошлых задачах по мере числа обновлений. Это частично лечится reward shaping, но полностью проблема не исчезает.
Стоит ли игра свеч, пока непонятно. Но идея прикольная. Статья полностью здесь -> https://arxiv.org/abs/2506.10943
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤86👍33🔥23🤔9😁2
Data Secrets
ИИ-система стартапа, существующего 4 месяца, решила 9/12 задач в одном из самых сложных в мире экзаменов по математике Putnam (полное название William Lowell Putnam Mathematical Competition) – это ежегодная очень сложная математическая олимпиада для студентов…
Агент Axiom Prover решил 12 из 12 задач на самом сложном математическом экзамене в мире
Возможно, вы помните, что это за система. В начале декабря (когда и проводился конкурс Putnam, о котором идет речь) она решила 8 из 12 задач за отведенное на олимпиаду время + еще одну вне зачета. Это очень классный результат: большинство студентов получает круглый ноль.
Теперь разработчики сообщили, что агент дорешал самые сложные оставшиеся задачи и выложили все его решения сюда.
Интересно, что среди задач явно выделяются группы таких, которые(1) просты для человека и сложны для ИИ; (2) и наоборот. Например:
– Комбинаторные задачи человек решает достаточно быстро, а Axiom Prover одна из таких обошлась в 2054 строки формального кода и 518 минут вычислений. Это из-за того, что Lean, в котором работает агент, требует формального доказательства даже очевидных фактов, и они получались крупными и долгими, хотя человеку было бы достаточно одной фразы.
– Есть задачи, где у ИИ и человека кардинально разный подход. Например, A4: люди думали алгебраически, а Axiom Prover внезапно подошел геометрически. Это занятно.
– А вот А6 ни один штатный математик Axiom не смог решить, а Axiom Prover довольно быстро довел решение от идеи до формального доказательства.
Короче: все равно люди все еще выигрывают в плане математической интуиции. Для ИИ задача становится сложной, если нет готовых библиотечных кирпичей + идеи. Плюс, внезапным узким местом становится доказательство мелких фактов (опять же, для человека это вопрос интуиции).
axiommath.ai/territory/from-seeing-why-to-checking-everything
Возможно, вы помните, что это за система. В начале декабря (когда и проводился конкурс Putnam, о котором идет речь) она решила 8 из 12 задач за отведенное на олимпиаду время + еще одну вне зачета. Это очень классный результат: большинство студентов получает круглый ноль.
Теперь разработчики сообщили, что агент дорешал самые сложные оставшиеся задачи и выложили все его решения сюда.
Интересно, что среди задач явно выделяются группы таких, которые(1) просты для человека и сложны для ИИ; (2) и наоборот. Например:
– Комбинаторные задачи человек решает достаточно быстро, а Axiom Prover одна из таких обошлась в 2054 строки формального кода и 518 минут вычислений. Это из-за того, что Lean, в котором работает агент, требует формального доказательства даже очевидных фактов, и они получались крупными и долгими, хотя человеку было бы достаточно одной фразы.
– Есть задачи, где у ИИ и человека кардинально разный подход. Например, A4: люди думали алгебраически, а Axiom Prover внезапно подошел геометрически. Это занятно.
– А вот А6 ни один штатный математик Axiom не смог решить, а Axiom Prover довольно быстро довел решение от идеи до формального доказательства.
Короче: все равно люди все еще выигрывают в плане математической интуиции. Для ИИ задача становится сложной, если нет готовых библиотечных кирпичей + идеи. Плюс, внезапным узким местом становится доказательство мелких фактов (опять же, для человека это вопрос интуиции).
axiommath.ai/territory/from-seeing-why-to-checking-everything
❤97👍53🔥20🤯5😁3🕊1👾1
У Суцкевера «нашли» 4 миллиарда долларов в акциях OpenAI
Все новые и новые интересные детальки пазла несет нам иск Илона Маска против OpenAI.
На этот раз в материалах дела оказалась переписка COO OpenAI Брэда Лайткапa с представителями Microsoft.
Когда в 2023 Альтмана внезапно уволили, Microsoft во главе с Сатьей Наделлой готовилась переманить его и команду OpenAI. CTO компании Кевин Скотт еще тогда публично говорил, что компания наняла бы и выровняла компенсации для любого сотрудника OpenAI, который ушел бы к ним вместе с Альтманом.
Но Альтмана в должности скоро восстановили, а вот переписки с обсуждением финансовых деталей – остались. И вот какая фраза в них есть:
То есть на момент ноября 2023 года у Ильи Суцкевера было около 4 млрд долларов доли в OpenAI. При этом подчеркивается, что 4 млрд – это только vested‑часть, а размер ещё не дозревших (unvested) опционов Суцкевера из переписки непонятен.
Короче, многих эта сумма, мягко говоря, удивила. Теперь Илью еще раз будут вызывать в суд для выяснения обстоятельств увольнения Сэма и выяснения его реальной доли в стартапе, потому что 4 миллиарда долларов превратили его в еще более заинтересованное лицо😐
Все новые и новые интересные детальки пазла несет нам иск Илона Маска против OpenAI.
На этот раз в материалах дела оказалась переписка COO OpenAI Брэда Лайткапa с представителями Microsoft.
Когда в 2023 Альтмана внезапно уволили, Microsoft во главе с Сатьей Наделлой готовилась переманить его и команду OpenAI. CTO компании Кевин Скотт еще тогда публично говорил, что компания наняла бы и выровняла компенсации для любого сотрудника OpenAI, который ушел бы к ним вместе с Альтманом.
Но Альтмана в должности скоро восстановили, а вот переписки с обсуждением финансовых деталей – остались. И вот какая фраза в них есть:
…чтобы выкупить доли сотрудников в рамках тендерного предложения, потребуется около 25 млрд долларов без учета пакета Суцкевера и примерно 29 млрд, если выкупать и его единицы.
То есть на момент ноября 2023 года у Ильи Суцкевера было около 4 млрд долларов доли в OpenAI. При этом подчеркивается, что 4 млрд – это только vested‑часть, а размер ещё не дозревших (unvested) опционов Суцкевера из переписки непонятен.
Короче, многих эта сумма, мягко говоря, удивила. Теперь Илью еще раз будут вызывать в суд для выяснения обстоятельств увольнения Сэма и выяснения его реальной доли в стартапе, потому что 4 миллиарда долларов превратили его в еще более заинтересованное лицо
Please open Telegram to view this post
VIEW IN TELEGRAM
1 210👍58❤24 11😁8🔥6🗿3
Есть две новости от Anthropic, и одна из них, предупреждаем, болезненная
На самом деле, они обе про одно и то же: Anthropic с разных концов затягивает гайки в политике использования их моделей для кодинга, и конкретно Claude Opus 4.5. Он сейчас негласно считается лучшим на рынке.
Так вот:
1. Anthropic отрезал xAI от Opus 4.5 в Cursor. Выяснилось, что разработчики xAI довольно активно использовали Claude для кодинга. Анропикам это не слишком понравилось, и они без церемоний просто отключили тем доступ.
Но тут, в целом, ничего нового. У них в условиях уже давно прописано, что их модели нельзя использовать для разработки конкурирующих продуктов. Так что это было вопросом времени. Разрабам xAI, конечно, соболезнуем.
2. Anthropic запретил прокидывать подписку Claude в сторонние клиенты типа OpenCode. И вот это уже по больному.
Раньше в OpenCode можно было использовать вашу купленную подписку Claude и использовать ее в тех же режимах и с теми же лимитами, что и в официальном клиенте. И это было в куууучу раз дешевле, чем напрямую покупать токены по API.
Теперь Anthropic лавочку прикрыли и оправдались тем, что подобное «портит им UX». Типа если что-то сломается у OpenCode, пользователь обвинит сервис Anthropic, а не интеграцию, и это бьет по репутации стартапа.
Звучит не очень убедительно. На самом деле страдает не репутация, а юнит-экономика + стратегия. В целом, понять Anthropic можно.
Теперь уже сочувствуем любителям OpenCode. В соцсетях ищут способ обойти ограничения, но из надежного пока ничего. F, короче
На самом деле, они обе про одно и то же: Anthropic с разных концов затягивает гайки в политике использования их моделей для кодинга, и конкретно Claude Opus 4.5. Он сейчас негласно считается лучшим на рынке.
Так вот:
1. Anthropic отрезал xAI от Opus 4.5 в Cursor. Выяснилось, что разработчики xAI довольно активно использовали Claude для кодинга. Анропикам это не слишком понравилось, и они без церемоний просто отключили тем доступ.
Но тут, в целом, ничего нового. У них в условиях уже давно прописано, что их модели нельзя использовать для разработки конкурирующих продуктов. Так что это было вопросом времени. Разрабам xAI, конечно, соболезнуем.
2. Anthropic запретил прокидывать подписку Claude в сторонние клиенты типа OpenCode. И вот это уже по больному.
Раньше в OpenCode можно было использовать вашу купленную подписку Claude и использовать ее в тех же режимах и с теми же лимитами, что и в официальном клиенте. И это было в куууучу раз дешевле, чем напрямую покупать токены по API.
Теперь Anthropic лавочку прикрыли и оправдались тем, что подобное «портит им UX». Типа если что-то сломается у OpenCode, пользователь обвинит сервис Anthropic, а не интеграцию, и это бьет по репутации стартапа.
Звучит не очень убедительно. На самом деле страдает не репутация, а юнит-экономика + стратегия. В целом, понять Anthropic можно.
Теперь уже сочувствуем любителям OpenCode. В соцсетях ищут способ обойти ограничения, но из надежного пока ничего. F, короче
👍123😁62 54❤30🤯8🫡8☃2😎1
Data Secrets
OpenAI немного переборщили с маркетингом и опозорились на весь Твиттер Помните, мы рассказывали, что GPT-5 "решила" открытую задачу по математике из списка Эрдёша? Кратко освежаем память: решить-то модель задачу решила, вот только решение было не ее. Она…
На этой неделе GPT-5.2 Pro решила уже две открытые математические задачи, которые люди не могли решить на протяжении многих лет
Речь снова пойдет про список Эрдеша. И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао.
Итак:
1. Первая задачка – под номером 728. Ее отдал GPT-5.2 сам Теренс. Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было.
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое.
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс.
Речь снова пойдет про список Эрдеша. И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао.
Итак:
1. Первая задачка – под номером 728. Ее отдал GPT-5.2 сам Теренс. Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было.
Задача была решена более или менее автономно (после получения обратной связи по результатам первоначальной попытки), и результат (насколько нам известно) не был воспроизведен в литературе (хотя были найдены результаты, доказанные аналогичными методами).
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое.
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс.
Доказательство было сгенерировано GPT 5.2 Pro и оформлено с помощью Harmonic.
Много открытых проблем просто сидят и ждут, когда кто-нибудь предложит ChatGPT решить их.
❤🔥149👍65❤36🤯16🕊7😁5🤨4🔥3🤔1🏆1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic анонсировали Cowork: computer use агента для non-coding рабочих задач
Это буквально Claude Code для отдельной директории на вашем компьютере. Cowork сможет читать, изменять и создавать файлы в конкретной папке, к которой вы его подключите.
Например, можно попросить его создать таблицу по каким-нибудь данным или сделать саммари по набору файлов.
Все будет происходить ровно как в Claude Code: сначала агент составляет план, потом исполняет его, дергая вас перед важными изменениями.
Можно подключить ваши существующие коннекторы или, например, связать агента с Claude в Chrome для задач, которые требуют выхода в Интернет.
Пока продукт доступен в качестве Research Preview, только для подписчиков Max и только на Mac. Скачивать тут
Блогпост | Лист ожидания
Это буквально Claude Code для отдельной директории на вашем компьютере. Cowork сможет читать, изменять и создавать файлы в конкретной папке, к которой вы его подключите.
Например, можно попросить его создать таблицу по каким-нибудь данным или сделать саммари по набору файлов.
Все будет происходить ровно как в Claude Code: сначала агент составляет план, потом исполняет его, дергая вас перед важными изменениями.
Можно подключить ваши существующие коннекторы или, например, связать агента с Claude в Chrome для задач, которые требуют выхода в Интернет.
Пока продукт доступен в качестве Research Preview, только для подписчиков Max и только на Mac. Скачивать тут
Блогпост | Лист ожидания
❤73👍44🗿15🔥11🤯6🫡6🤔4😁1🦄1 1
OpenAI купили Torch
Если вы поймали мини-инфаркт в первую секунду чтения этой новости – знайте, мы тоже
Но расслабьтесь, это не тот Torch. На самом деле ничего особо интересного: это, оказывается, такой стартап в сфере здравоохранения, который строит а-ля medical memory for AI. OpenAI поглощает его для ChatGPT Health.
Если вы поймали мини-инфаркт в первую секунду чтения этой новости – знайте, мы тоже
Но расслабьтесь, это не тот Torch. На самом деле ничего особо интересного: это, оказывается, такой стартап в сфере здравоохранения, который строит а-ля medical memory for AI. OpenAI поглощает его для ChatGPT Health.
😁362❤57🔥22🤯12 9🤨1🎄1
Anthropic инвестируют полтора миллиона долларов в Python и опенсорс
Anthropic заключила двухлетнее партнерство с Python Software Foundation (PSF). В течение этого периода стартап вложит в сумме 1.5 млн долларов с упором на развитие безопасности и поддержку ключевой инфраструктуры.
В частности, пишут, что планируют создать AI‑инструменты, которые будут автоматически проверять каждый загружаемый на PyPI пакет. Сейчас такого проактивного анализа не существует, только постфактум реакция на жалобы юзеров.
На первом этапе будут собирать огромный датасет известного малвара. Может, его даже выложат в опенсорс.
Anthropic точно что-то знают о том, как заслужить общественную симпатию
pyfound.blogspot.com/2025/12/anthropic-invests-in-python.html
Anthropic заключила двухлетнее партнерство с Python Software Foundation (PSF). В течение этого периода стартап вложит в сумме 1.5 млн долларов с упором на развитие безопасности и поддержку ключевой инфраструктуры.
В частности, пишут, что планируют создать AI‑инструменты, которые будут автоматически проверять каждый загружаемый на PyPI пакет. Сейчас такого проактивного анализа не существует, только постфактум реакция на жалобы юзеров.
На первом этапе будут собирать огромный датасет известного малвара. Может, его даже выложат в опенсорс.
Anthropic точно что-то знают о том, как заслужить общественную симпатию
pyfound.blogspot.com/2025/12/anthropic-invests-in-python.html
❤316👍112🔥47😁14 6🐳3 3
Так, у нас на повестке дня очередной скандал. Из Thinking Machines Lab (стартап Миры Мурати) ушли еще двое основателей – Баррет Зоф и Люк Метц.
Баррет занимал пост CTO. Он, вроде как, ушел по собственному желанию, но некоторые источники пишут, что это произошло из-за «неэтичного поведения».
В частности, какой-то источник, «близкий к Thinking Machines», заявил Wired, что Баррет делился конфиденциальной информацией о компании с конкурентами.
И Зоф, и Метц теперь возвращаются в OpenAI (откуда их когда-то и увела Мира). В Thinking Machines место CTO теперь займет Сумит Чинтала – один из ключевых разработчиков PyTorch.
Получается, по итогам менее одного года существования стартапа из него уже ушло 3/6 создателей (пару месяцев назад Meta переманили Эндрю Таллока). Интересный тренд😐
Баррет занимал пост CTO. Он, вроде как, ушел по собственному желанию, но некоторые источники пишут, что это произошло из-за «неэтичного поведения».
В частности, какой-то источник, «близкий к Thinking Machines», заявил Wired, что Баррет делился конфиденциальной информацией о компании с конкурентами.
И Зоф, и Метц теперь возвращаются в OpenAI (откуда их когда-то и увела Мира). В Thinking Machines место CTO теперь займет Сумит Чинтала – один из ключевых разработчиков PyTorch.
Получается, по итогам менее одного года существования стартапа из него уже ушло 3/6 создателей (пару месяцев назад Meta переманили Эндрю Таллока). Интересный тренд
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
⚡ 2026 год и без AI: как внедрить нейросети и не сойти с ума
Про тренды, экономику ML и реальные кейсы AI-решений для бизнеса — в новом сезоне подкаста Selectel «Сегодня на ретро»
Число AI-решений растет, а конкретных ответов на вопросы так нет. Чтобы разделить практическую пользу и хайп, Selectel посвятил ML новый сезон подкаста «Сегодня на ретро». В нем провайдер вместе с гостями из X5 Digital, Точка Банка, Контура и других компаний обозревают тренды ИИ, бенчмарки ML-моделей и актуальные кейсы.
👀 Почему стоит посмотреть подкаст?
Selectel собрал базу реальных бизнес-проектов, советов и конкретных инфраструктурных решений, в том числе в сфере ML и AI. Он уже помог компаниям из разных индустрий выстроить эффективную IT-инфраструктуру для внедрения нейросетей, а в подкасте резюмировал этот опыт.
▶️ Смотрите выпуски на YouTube-канале Selectel — и разбирайтесь в трендах AI-решений для бизнеса на 2026 год: https://slc.tl/80cls
Реклама. АО "Селектел". erid:2W5zFJfmZf6
Про тренды, экономику ML и реальные кейсы AI-решений для бизнеса — в новом сезоне подкаста Selectel «Сегодня на ретро»
Число AI-решений растет, а конкретных ответов на вопросы так нет. Чтобы разделить практическую пользу и хайп, Selectel посвятил ML новый сезон подкаста «Сегодня на ретро». В нем провайдер вместе с гостями из X5 Digital, Точка Банка, Контура и других компаний обозревают тренды ИИ, бенчмарки ML-моделей и актуальные кейсы.
👀 Почему стоит посмотреть подкаст?
Selectel собрал базу реальных бизнес-проектов, советов и конкретных инфраструктурных решений, в том числе в сфере ML и AI. Он уже помог компаниям из разных индустрий выстроить эффективную IT-инфраструктуру для внедрения нейросетей, а в подкасте резюмировал этот опыт.
▶️ Смотрите выпуски на YouTube-канале Selectel — и разбирайтесь в трендах AI-решений для бизнеса на 2026 год: https://slc.tl/80cls
Реклама. АО "Селектел". erid:2W5zFJfmZf6
😁17🗿14🤯2👍1🕊1
GPT-5.2 Codex теперь доступна в Cursor, и она может оказаться лучше Opus 4.5
Сами Cursor пишут, что модель лучше справляется с длинными задачами.
CEO Cursor написал у себя в Твиттере, что они с командой создали с помощью GPT-5.2 готовый браузер. Для этого модель без остановки работала неделю.
И да, браузер получился рабочий (не Chrome, конечно, но в целом-то!). Всего вышло около 3 миллионов строк кода, распределенного по тысячам файлов. Код открыли. Больше об эксперименте пишут тут.
По метрикам GPT-5.2 немного обгоняет Opus 4.5 на SWE bench Pro, но разрыв прям небольшой. Интересно, как будет ощущаться разница на практике.
Есть кто уже попробовал? Как вам по сравнению с Opus?
Сами Cursor пишут, что модель лучше справляется с длинными задачами.
Мы обнаружили, что модели GPT-5.2 гораздо лучше справляются с продолжительной автономной работой: следованием инструкциям, сохранением концентрации, предотвращением отклонений и точным и полным выполнением задач. Opus 4.5, как правило, останавливается раньше и использует упрощенные методы, когда это удобно.
CEO Cursor написал у себя в Твиттере, что они с командой создали с помощью GPT-5.2 готовый браузер. Для этого модель без остановки работала неделю.
И да, браузер получился рабочий (не Chrome, конечно, но в целом-то!). Всего вышло около 3 миллионов строк кода, распределенного по тысячам файлов. Код открыли. Больше об эксперименте пишут тут.
По метрикам GPT-5.2 немного обгоняет Opus 4.5 на SWE bench Pro, но разрыв прям небольшой. Интересно, как будет ощущаться разница на практике.
Есть кто уже попробовал? Как вам по сравнению с Opus?
🔥59👍20😁13❤7 6 6