На Hugging Face вышел обзор мировых ML-датасетов, недавно выложенных в опенсорс. Среди них крупнейший рекомендательный датасет Yambda-5B от Яндекса.
Самое главное из статьи:
– Открытые датасеты двигают вперед исследования в ML-индустрии, на многие из них стоит обратить внимание
– Мировые эксперты отметили значимость датасета Яндекса для развития рекомендательных систем и науки в целом
Самое главное из статьи:
– Открытые датасеты двигают вперед исследования в ML-индустрии, на многие из них стоит обратить внимание
– Мировые эксперты отметили значимость датасета Яндекса для развития рекомендательных систем и науки в целом
Один из экспертов, Аман Чадха (AWS GenAI, ранее Stanford AI и Apple), отметил, что «такие датасеты, как Yambda-5B, сокращают разрыв между академическим сообществом и реальной индустрией»
🤯75👍71❤31🤨13😁7🗿3🔥2
Это открытая модель для эмбеддингов, основанная на Gemma 3. Ее основная фишка – размер. Крошка имеет всего 308M параметров и показывает SOTA метрики в весе до 500М. Работает более чем на 100 языках.
А еще модель специально оптимизирована для использования on-device, то есть локально без Интернета. С квантизацией требует всего 200MB оперативки.
Зачем нам эмбеддинг-модель в режиме on-device? Например, для приватного RAG или semantic search. Модель работает локально, то есть и генерация векторов для поиска, и сам поиск проходят прямо на устройстве. Это быстрее, дешевле и без риска утечки данных.
Кстати, эмббединги на выходе могут быть разных размерностей, от 768 до 128. Это прикольная особенность. Работает такое за счет Matryoshka Representation Learning, мы об этом методе вот тут и вот здесь подробно рассказывали. Если кратко, модель эластична, то есть внутри нее есть полностью самодостаточные модели поменьше. Переключение между ними и позволяет на лету менять размерности выходных векторов.
Потыкать модельку уже можно в sentence-transformers, llama.cpp, MLX, Ollama, LiteRT, transformers.js, LMStudio, Weaviate, Cloudflare, LlamaIndex и LangChain. Как видите, с интеграциями у Google все в порядке 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72🤯66🔥39👍13 5👏2😁1
Знакомьтесь, это Гвидо Райхштедтер, и он устроил голодовку около офиса Anthropic
Его требование – прекратить гонку ИИ.
Сегодня уже третий день его голодного бунта.
Anthropic отдуваются за всех 🫡
Его требование – прекратить гонку ИИ.
Anthropic и другие компании, занимающиеся разработкой искусственного интеллекта, стремятся создать всё более мощные системы. Эти системы используются для нанесения серьёзного вреда нашему обществу сегодня и грозят нанести ещё больший ущерб завтра. Эксперты предупреждают нас, что эта гонка за всё более мощным ИИ ставит под угрозу нашу жизнь и благополучие, а также жизнь и благополучие наших близких. Они предупреждают нас, что создание чрезвычайно мощного ИИ грозит уничтожить жизнь на Земле. Давайте отнесёмся к этим предупреждениям серьёзно. Гонка компаний стремительно ведёт нас к точке невозврата. Эта гонка должна прекратиться сейчас.
Сегодня уже третий день его голодного бунта.
Anthropic отдуваются за всех 🫡
😁284🗿69🫡52 25 22❤🔥16⚡10👏5🤔4🐳3 3
Новый день – новое подразделение OpenAI
Напоминаем, что вчера они объявили об открытии OpenAI for Science, а уже сегодня анонсируют OpenAI Jobs Platform – систему для поиска работы и подбора сотрудников с помощью ИИ (RIP тысяча и один стартап).
Основная цель: максимально точные и эффективные мэтчи работодателей и специалистов, особенно в сфере IT. В общем, конкурент LinkedIn, только OpenAI настаивают, что будут делать упор именно на кадрах, обладающих AI-компетенциями. Отсюда – еще одна деталь.
Платформа будет интегрирована с OpenAI Academy и программами сертификации. И эти самые программы сертификации будут встроены прямо в ChatGPT. Это буквально будут экзамены на проверку навыков владения ИИ.
К 2030 году OpenAI намерена сертифицировать 10 миллионов американцев. И в первых партнерах уже Walmart, John Deere, Boston Consulting Group, Accenture, Indeed и другие крупняки.
Курсы по промптингу все-таки станут востребованы, получается
openai.com/index/expanding-economic-opportunity-with-ai/
Напоминаем, что вчера они объявили об открытии OpenAI for Science, а уже сегодня анонсируют OpenAI Jobs Platform – систему для поиска работы и подбора сотрудников с помощью ИИ (RIP тысяча и один стартап).
Основная цель: максимально точные и эффективные мэтчи работодателей и специалистов, особенно в сфере IT. В общем, конкурент LinkedIn, только OpenAI настаивают, что будут делать упор именно на кадрах, обладающих AI-компетенциями. Отсюда – еще одна деталь.
Платформа будет интегрирована с OpenAI Academy и программами сертификации. И эти самые программы сертификации будут встроены прямо в ChatGPT. Это буквально будут экзамены на проверку навыков владения ИИ.
К 2030 году OpenAI намерена сертифицировать 10 миллионов американцев. И в первых партнерах уже Walmart, John Deere, Boston Consulting Group, Accenture, Indeed и другие крупняки.
Курсы по промптингу все-таки станут востребованы, получается
openai.com/index/expanding-economic-opportunity-with-ai/
😎55😁25❤18🔥10 10👍4🗿4🤔1
Наш сосед по телеграму, Артем, автор @ai_newz, ушел из Meta GenAI (Superintelligence Lab), того самого элитного AI-подразделения Meta, куда Цукерберг переманивает таланты за десятки миллионов $, чтобы основать собственную GenAI ресерч лабу в Цюрихе!
Вчера они вышли из стелса.
GenPeach.AI 🍑 (это имя лабы) обучает свои собственные мультимодальные foundation модели (с нуля, не файнтюны).
Цель их моделей - дать юзерам безграничную творческую свободу и реализм в генерациях, который сейчас недоступен в других продуктах.
Но и для application слоя есть свои планы - ждем апдейтов!
Модельки еще готовятся, но ребята уже открыли Waitlist для тех, кто хочет получить доступ раньше других и поучаствовать в бета-тесте!
🚩 Чтобы записаться в Waitlist откройте бота: @genpeach_ai_bot
Вчера они вышли из стелса.
GenPeach.AI 🍑 (это имя лабы) обучает свои собственные мультимодальные foundation модели (с нуля, не файнтюны).
Цель их моделей - дать юзерам безграничную творческую свободу и реализм в генерациях, который сейчас недоступен в других продуктах.
Но и для application слоя есть свои планы - ждем апдейтов!
"Сейчас у нас фокус на том, чтобы добиться максимального реализма, контроля и эффективности в генерации фото- и видео-сцен с людьми".
Модельки еще готовятся, но ребята уже открыли Waitlist для тех, кто хочет получить доступ раньше других и поучаствовать в бета-тесте!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48 25🔥12👍11🗿10😁6🤨5🤔3🤯2
Думали в пятницу вечером релизов уже не будет? А вот и нет, вышел Qwen3-Max-Preview 😎
В модели аж 1 триллион параметров – это самый крупный экземпляр стартапа на данный момент. При этом модель без ризонинга.
По бенчмаркам бьет их предыдущего лидера Qwen3-235B-A22B-2507, а также Claude Opus 4 Non-Thinking и DeepSeek V3.1. На AIME25 показывают 80.6% – это примерно уровень o3-mini, даже на пару процентов лучше.
Говорят, что сейчас продолжают скейлить модель, и официальный релиз будет еще лучше. Ждем.
Попробовать превью уже можно в Qwen Chat или через Alibaba Cloud API.
В модели аж 1 триллион параметров – это самый крупный экземпляр стартапа на данный момент. При этом модель без ризонинга.
По бенчмаркам бьет их предыдущего лидера Qwen3-235B-A22B-2507, а также Claude Opus 4 Non-Thinking и DeepSeek V3.1. На AIME25 показывают 80.6% – это примерно уровень o3-mini, даже на пару процентов лучше.
Говорят, что сейчас продолжают скейлить модель, и официальный релиз будет еще лучше. Ждем.
Попробовать превью уже можно в Qwen Chat или через Alibaba Cloud API.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍100❤29🔥24🤯4🗿4😁2
Data Secrets
Знакомьтесь, это Гвидо Райхштедтер, и он устроил голодовку около офиса Anthropic Его требование – прекратить гонку ИИ. Anthropic и другие компании, занимающиеся разработкой искусственного интеллекта, стремятся создать всё более мощные системы. Эти системы…
Волна голодовок тем временем пошла дальше: теперь голодают и около офиса DeepMind
Требования у протестующих все те же: прекратить гонку ИИ.
Требования у протестующих все те же: прекратить гонку ИИ.
Я призываю руководство, директоров и сотрудников DeepMind сделать все возможное, чтобы остановить гонку за все более мощным AGI, которая угрожает вымиранием человечества.
Более конкретно, я прошу Демиса Хассабиса публично заявить, что DeepMind прекратит разработку передовых моделей ИИ, если все остальные крупные компании в области ИИ согласятся сделать это.
Почему LLM галлюцинируют: новая статья от OpenAI
Да-да, вы не ослышались. Раз в годи палка стреляет и OpenAI выпускают интересные рисерчи.
Пишут о том, почему возникают галлюцинации, и как с ними бороться. Главная идея – галлюцинации не являются чем-то загадочным или уникальным, а естественно возникают как ошибки в статистической системе. Причина в том, как мы сами обучаем и оцениваем модели:
– На этапе предобучения задача модели – всегда предложить вероятное продолжение текста. У нее нет варианта сказать "я не знаю". Пустой ответ не существует как вариант + мы никогда не вводим никаких штрафов за выдумку.
– Причем даже если данные, на которых обучилась модель, идеальны (а такого не бывает), галлюцинации все равно будут. Многие факты в мире просто-напросто случайны (дни рождения, серийные номера, уникальные события). Для них нет закономерностей, и модель не может их выучить. Да и мы не учим модель определять, что ложь, а что нет. Ее задача – генерировать наиболее статистически вероятный текст.
– Почему же после пост-обучения модели не перестают врать? Да потому что так устроены бенчмарки. Большинство из них оценивают модели бинарно: 1 балл за правильный ответ, 0 за неправильный или отсутствие ответа. А любой, кто учился в школе, понимает: выгоднее тыкнуть наугад, чем пропустить вопрос. Так будет хоть какая-то веротяность успеха. Вот и LLM поступают так же.
Ну и не забываем про принцип GIGO – Garbage In, Garbage Out. В данных так или иначе есть ошибки, и это еще один источник галлюцинаций.
Как итог из всего этого мы получаем кучу чуши, которую модельки вещают вполне уверенно.
OpenAI предлагают вариант, как это можно начать исправлять. Они пишут, что начинать надо с бенчмарков. И нет, не надо плодить отдельные анти-галлюцинационные тесты, как это сейчас модно. Это не поможет. Надо менять основные метрики, добавив IDK («Не знаю») как валидный ответ во все тесты и перестав приравнивать такой ответ к ошибке. То есть честность и признание неуверенности для модели должны быть выгоднее выдумки.
Технически, мы вводим так называемые confidence targets: то есть прямо в инструкции к задаче прописывается порог уверенности, выше которого модель должна отвечать. Например: "Отвечай только если уверен более чем на 75%". И при этом за неверный ответ −2 балла, за правильный +1, за “Не знаю” = 0.
Получается, статистически, если модель оценит вероятность правильности своего ответа в < 75%, ей выгоднее сказать «Не знаю», чем выдумывать. Она при этом не обязана сообщать пользователю точные проценты своей уверенности, достаточно, чтобы она об этом "думала", принимая решение.
В целом, звучит вполне реально. Если те же HF выдвинут на своей платформе такой регламент для тестов, перейти на подобный эвал можно буквально за несколько месяцев.
В общем, интересно, продвинется ли идея дальше статьи.
cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf
Да-да, вы не ослышались. Раз в год
Пишут о том, почему возникают галлюцинации, и как с ними бороться. Главная идея – галлюцинации не являются чем-то загадочным или уникальным, а естественно возникают как ошибки в статистической системе. Причина в том, как мы сами обучаем и оцениваем модели:
– На этапе предобучения задача модели – всегда предложить вероятное продолжение текста. У нее нет варианта сказать "я не знаю". Пустой ответ не существует как вариант + мы никогда не вводим никаких штрафов за выдумку.
– Причем даже если данные, на которых обучилась модель, идеальны (а такого не бывает), галлюцинации все равно будут. Многие факты в мире просто-напросто случайны (дни рождения, серийные номера, уникальные события). Для них нет закономерностей, и модель не может их выучить. Да и мы не учим модель определять, что ложь, а что нет. Ее задача – генерировать наиболее статистически вероятный текст.
– Почему же после пост-обучения модели не перестают врать? Да потому что так устроены бенчмарки. Большинство из них оценивают модели бинарно: 1 балл за правильный ответ, 0 за неправильный или отсутствие ответа. А любой, кто учился в школе, понимает: выгоднее тыкнуть наугад, чем пропустить вопрос. Так будет хоть какая-то веротяность успеха. Вот и LLM поступают так же.
Ну и не забываем про принцип GIGO – Garbage In, Garbage Out. В данных так или иначе есть ошибки, и это еще один источник галлюцинаций.
Как итог из всего этого мы получаем кучу чуши, которую модельки вещают вполне уверенно.
OpenAI предлагают вариант, как это можно начать исправлять. Они пишут, что начинать надо с бенчмарков. И нет, не надо плодить отдельные анти-галлюцинационные тесты, как это сейчас модно. Это не поможет. Надо менять основные метрики, добавив IDK («Не знаю») как валидный ответ во все тесты и перестав приравнивать такой ответ к ошибке. То есть честность и признание неуверенности для модели должны быть выгоднее выдумки.
Технически, мы вводим так называемые confidence targets: то есть прямо в инструкции к задаче прописывается порог уверенности, выше которого модель должна отвечать. Например: "Отвечай только если уверен более чем на 75%". И при этом за неверный ответ −2 балла, за правильный +1, за “Не знаю” = 0.
Получается, статистически, если модель оценит вероятность правильности своего ответа в < 75%, ей выгоднее сказать «Не знаю», чем выдумывать. Она при этом не обязана сообщать пользователю точные проценты своей уверенности, достаточно, чтобы она об этом "думала", принимая решение.
В целом, звучит вполне реально. Если те же HF выдвинут на своей платформе такой регламент для тестов, перейти на подобный эвал можно буквально за несколько месяцев.
В общем, интересно, продвинется ли идея дальше статьи.
cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf
1❤218👍98🔥23😁5😎3⚡2❤🔥2🤨2🤔1🗿1
Альтман заявил инвесторам, что к 2029 расходы компании вырастут до 115 миллиардов долларов
Это на 80 миллиардов больше, чем он обещал ранее. Внезапно оказалось, что стоимость разработки более совершенных моделей выше, чем ожидалось, и OpenAI нужно ГОРАЗДО больше денег на вычисления.
В этом году, кстати, расходы тоже больше прогнозируемых. Примерно на 1.5 миллиарда (аналитики – молодцы!).
Выучиваем новую лексику для созвонов. Не «убыточный», а «капиталоемкий»👆
Это на 80 миллиардов больше, чем он обещал ранее. Внезапно оказалось, что стоимость разработки более совершенных моделей выше, чем ожидалось, и OpenAI нужно ГОРАЗДО больше денег на вычисления.
В этом году, кстати, расходы тоже больше прогнозируемых. Примерно на 1.5 миллиарда (аналитики – молодцы!).
Сэм Альтман: «OAI, возможно, самый капиталоёмкий некоммерческий стартап в истории»
Выучиваем новую лексику для созвонов. Не «убыточный», а «капиталоемкий»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁334👍35❤22🔥6🎉6 6🗿5🤯2❤🔥1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
SGR Deep Research: как из чёрного ящика агентов сделать прозрачную и надёжную систему
Сегодня у нас на повестке дня крайне интересный инженерный проект от наших соседей по тг. Но начнем с конца.
Все мы примерно представляем, как работает вызов инструментов у агентов. LLM сам решает, какие Tools вызывать, в какой последовательности и зачем. Модель адаптируется к результатам, может прерывать выполнение – в общем, полноценная автономия.
Звучит красиво и работает, но в прикладном продакшене у такого подхода есть обратная сторона:
– мониторинг и логирование практически невозможны – цепочка вызовов превращается в чёрный ящик,
– сложно отлаживать и объяснять решения модели,
– A/B-тестирование и контроль качества превращаются в боль.
Именно здесь появляется альтернатива – Schema-Guided Reasoning (SGR). О самой подобной идее много кто уже где-то так или иначе упоминал даже в крупных стартапах, но, что примечательно, впервые end-to-end ее описал и формализовал автор канала "LLM под капотом" (@llm_under_hood) Ринат Абдулин. Вот дока.
Основная концепция: вместо того, чтобы давать модели полную свободу, мы описываем чёткую схему рассуждений в виде структурированного вывода.
Один запрос – один прозрачный reasoning-пайплайн: Анализ → Поиск → Обработка → Вывод.
От агентов тут остается гибкость, но в то же время такой подход даёт контроль и предсказуемость: можно логировать каждый шаг, тестировать их по отдельности и быстро находить слабые места.
Звучит интересно, правда? Да. Выглядит, как подход, который теоретически может подвинуть классические agent-фреймворки, если речь идёт о продакшене и задачах бизнеса. Прозрачность и контролируемость тут не просто nice-to-have, а буквально вопрос выживания продукта.
А еще это настоящий качественный скачок для маленьких моделей, которые плохи в вызове инструментов сами по себе. Например, Qwen3-4B показывает на Function Calling низкие 2%, а с SGR выдает стабильные 85-90%! Таким образом, целый огромный класс моделей, которые до этого для не подходили для агентных задач, теперь становятся для них открытыми. Это ключевое открытие.
Ну так вот. На основе описанной Ринатом техники другой наш друг, Валера с канала @neuraldeep, уже собрал полноценный опенсорсный production-ready проект SGR Deep Research. О Валере и его предыдущих проектах мы писали вот тут – почитайте.
Его SGR Deep Research – это система для многошагового поиска и анализа информации в интернете. Реализовано:
➖ Вызов инструментов по схеме Schema-Guided Reasoning. Причем подход гибридный, с двухфазной архитектурой: принудительное структурированное рассуждение (JSON Schema) + детерминированное выполнение. Это позволяет даже 4B моделям проявлять агентные свойства, недоступные через классический Function Calling.
➖ Прозрачное логирование на каждом шаге: от уточнения запроса и генерации плана до веб-поиска, анализа и финального отчёта, все трекается.
➖ Работа на легких моделях вроде gpt-4o-mini и qwen instruct от 4b до 32b (+можно подключать свои).
➖ OpenAI-совместимый API с персистентными агентами: каждый агент получает уникальный ID для продолжения исследования.
Где это лучше, чем полноценный агентный Tools? Там, где важна прозрачность + работа с малыми моделями. Например: работа с документами, корпоративные исследования, факт-чекинг, call-центры. Плюс – возможность запускать агентов на потребительском железе вместо дорогих API.
Сейчас ребята активно развивают проект, экспериментируют с гибридными схемами и приглашают сообщество подключаться.
– Если есть идеи – обязательно идите с ними к Валере.
– Если хотите попробовать – на гитхабе найдете подробнейший гайд по использованию.
– И, конечно, давайте ставить ребятам звездочки на проект. Он в своем роде уникальный, так что надо продвигать силами комьюнити.
Еще раз:
Ссылка на проект
Ссылка на канал Рината – автора идеи
Ссылка на канал Валеры – автора кода (здесь можно следить на развитием проекта)
Сегодня у нас на повестке дня крайне интересный инженерный проект от наших соседей по тг. Но начнем с конца.
Все мы примерно представляем, как работает вызов инструментов у агентов. LLM сам решает, какие Tools вызывать, в какой последовательности и зачем. Модель адаптируется к результатам, может прерывать выполнение – в общем, полноценная автономия.
Звучит красиво и работает, но в прикладном продакшене у такого подхода есть обратная сторона:
– мониторинг и логирование практически невозможны – цепочка вызовов превращается в чёрный ящик,
– сложно отлаживать и объяснять решения модели,
– A/B-тестирование и контроль качества превращаются в боль.
Именно здесь появляется альтернатива – Schema-Guided Reasoning (SGR). О самой подобной идее много кто уже где-то так или иначе упоминал даже в крупных стартапах, но, что примечательно, впервые end-to-end ее описал и формализовал автор канала "LLM под капотом" (@llm_under_hood) Ринат Абдулин. Вот дока.
Основная концепция: вместо того, чтобы давать модели полную свободу, мы описываем чёткую схему рассуждений в виде структурированного вывода.
Один запрос – один прозрачный reasoning-пайплайн: Анализ → Поиск → Обработка → Вывод.
От агентов тут остается гибкость, но в то же время такой подход даёт контроль и предсказуемость: можно логировать каждый шаг, тестировать их по отдельности и быстро находить слабые места.
Звучит интересно, правда? Да. Выглядит, как подход, который теоретически может подвинуть классические agent-фреймворки, если речь идёт о продакшене и задачах бизнеса. Прозрачность и контролируемость тут не просто nice-to-have, а буквально вопрос выживания продукта.
А еще это настоящий качественный скачок для маленьких моделей, которые плохи в вызове инструментов сами по себе. Например, Qwen3-4B показывает на Function Calling низкие 2%, а с SGR выдает стабильные 85-90%! Таким образом, целый огромный класс моделей, которые до этого для не подходили для агентных задач, теперь становятся для них открытыми. Это ключевое открытие.
Ну так вот. На основе описанной Ринатом техники другой наш друг, Валера с канала @neuraldeep, уже собрал полноценный опенсорсный production-ready проект SGR Deep Research. О Валере и его предыдущих проектах мы писали вот тут – почитайте.
Его SGR Deep Research – это система для многошагового поиска и анализа информации в интернете. Реализовано:
Где это лучше, чем полноценный агентный Tools? Там, где важна прозрачность + работа с малыми моделями. Например: работа с документами, корпоративные исследования, факт-чекинг, call-центры. Плюс – возможность запускать агентов на потребительском железе вместо дорогих API.
Сейчас ребята активно развивают проект, экспериментируют с гибридными схемами и приглашают сообщество подключаться.
– Если есть идеи – обязательно идите с ними к Валере.
– Если хотите попробовать – на гитхабе найдете подробнейший гайд по использованию.
– И, конечно, давайте ставить ребятам звездочки на проект. Он в своем роде уникальный, так что надо продвигать силами комьюнити.
Еще раз:
Ссылка на проект
Ссылка на канал Рината – автора идеи
Ссылка на канал Валеры – автора кода (здесь можно следить на развитием проекта)
Please open Telegram to view this post
VIEW IN TELEGRAM
37🔥119👍44❤24🤯11🤨11 8🤔3 3😁1🎉1
Data Secrets
Всплыло, что Anthropic потратили миллионы на покупку и сканирование бумажных книг для обучения Claude Sonnet Началось все с очередного иска в суд: Anthropic обвинили в нарушении авторского права. Якобы стартап незаконно обучал свой ИИ на пиратских копиях…
Anthropic тем временем все-таки заплатит крупный штраф по делу о нарушении авторских прав
Напоминаем, что разбирательство идет несколько месяцев, и дело уже окутано целой кучей интересных деталей. Для тех, кто не слишком следил за процессом, пересказываем:
– Примерно год назад на трое авторов подали на Anthropic в суд за нарушение авторских прав (затем истцов стало больше, но началось все только с троих).
– После долгого разбирательства выяснилось, что стартап обучал свои модели на книжках из пиратских библиотек LibGen и PiLiMi. Помимо этого, они скупали бумажные копии книг, отцифровывали их, и также скармливали Клоду (потратив на это, кстати, несколько миллионов долларов).
– Тут уже к делу приобщились десятки других авторов, чьи книги оказались в библиотеках, и начались полномасштабные суды.
– Интересно, что за обучение ИИ на купленных бумажных экземплярах Anthropic оправдали. Об этой истории мы подробно писали вот тут. Там попался очень прогрессивный судья, который постановил, что это «добросовестное использование» бумажных копий. Тем самым он, кстати, создал первый подобный прецедент, так что это довольно важная деталь для всех будущих подобных разбирательств.
– Но вот за использование пиратских копий стартапу уже не удалось выйти сухими из воды. Теперь за каждое неправомерно использованное произведение они должны выплатить по 3000 долларов. Учитывая, что скачивали они их миллионами, получается кругленькая сумма. В СМИ, по крайней мере, фигурирует число 1.5 миллиарда долларов.
Это самое крупное разбирательство и самое большое публично объявленное взыскание в истории дел об авторских правах. Плюс, естественно, Anthropic обязаны удалить все копии упомянутых книг из всех своих баз.
Только представьте: полтора миллиарда на компенсации, учитывая, что недавно они привлекли 13 миллиардов в целом (и это их крупнейший раунд финансирования!). Жалко этих добряков. А вот авторы, наверное, остались довольны.
Напоминаем, что разбирательство идет несколько месяцев, и дело уже окутано целой кучей интересных деталей. Для тех, кто не слишком следил за процессом, пересказываем:
– Примерно год назад на трое авторов подали на Anthropic в суд за нарушение авторских прав (затем истцов стало больше, но началось все только с троих).
– После долгого разбирательства выяснилось, что стартап обучал свои модели на книжках из пиратских библиотек LibGen и PiLiMi. Помимо этого, они скупали бумажные копии книг, отцифровывали их, и также скармливали Клоду (потратив на это, кстати, несколько миллионов долларов).
– Тут уже к делу приобщились десятки других авторов, чьи книги оказались в библиотеках, и начались полномасштабные суды.
– Интересно, что за обучение ИИ на купленных бумажных экземплярах Anthropic оправдали. Об этой истории мы подробно писали вот тут. Там попался очень прогрессивный судья, который постановил, что это «добросовестное использование» бумажных копий. Тем самым он, кстати, создал первый подобный прецедент, так что это довольно важная деталь для всех будущих подобных разбирательств.
– Но вот за использование пиратских копий стартапу уже не удалось выйти сухими из воды. Теперь за каждое неправомерно использованное произведение они должны выплатить по 3000 долларов. Учитывая, что скачивали они их миллионами, получается кругленькая сумма. В СМИ, по крайней мере, фигурирует число 1.5 миллиарда долларов.
Это самое крупное разбирательство и самое большое публично объявленное взыскание в истории дел об авторских правах. Плюс, естественно, Anthropic обязаны удалить все копии упомянутых книг из всех своих баз.
Только представьте: полтора миллиарда на компенсации, учитывая, что недавно они привлекли 13 миллиардов в целом (и это их крупнейший раунд финансирования!). Жалко этих добряков. А вот авторы, наверное, остались довольны.
🔥80 54❤24🗿19🤔8😁6🤨4✍2🤗2☃1 1
Data Secrets
У OpenAI появятся собственные чипы. Первые поставки ожидаются уже в 2026. Чипы под названием XPU разрабатываются совместно с Broadcom (они же помогали Google с TPU). Железо будет предназначено только для внутреннего использования и только для инференса.…
Кажется, производство собственных чипов резко входит в моду: xAI тоже обзаведутся личным железом к 2027 году
Оно разрабатывается также совместно с Broadcom и также только для инференса. Ожидается значительное преимущество по энергоэффективности и стоимости интеграции.
Маск неоднократно заявлял, что намерен в течение пяти лет развернуть мощность, эквивалентную 50 миллионам H100. Теперь понятно, причем тут слово «эквивалентную»: речь шла не о самих GPU, а о кастомных ASIC.
Где-то нервничает один Дженсен Хуанг
Оно разрабатывается также совместно с Broadcom и также только для инференса. Ожидается значительное преимущество по энергоэффективности и стоимости интеграции.
Маск неоднократно заявлял, что намерен в течение пяти лет развернуть мощность, эквивалентную 50 миллионам H100. Теперь понятно, причем тут слово «эквивалентную»: речь шла не о самих GPU, а о кастомных ASIC.
Где-то нервничает один Дженсен Хуанг
❤61👍37😁31 15🔥6🗿3❤🔥2👏1
Data Secrets
GPT-5 решила (почти) открытую математическую задачу Инженер из OpenAI рассказал о том, как скормил модели статью с нерешенной мат.проблемой и модель, порассуждав 17 минут, смогла улучшить решение ученых. Речь идет об этой статье. Она относительно свежая…
Действительно ли GPT-5 способен открывать новую математику
20 августа Себастьян Бубек заявил, что GPT-5 Pro за считанные минуты решил открытую задачу в области выпуклой оптимизации (наш пост об этом). Новость разлетелась мгновенно, но позже некоторые эксперты настаивали, что бот просто использовал известную теорему Нестерова, и результат не такой уж и удивительный.
Плюс, Бубек – сотрудник OpenAI. Так что в глазах большинства его пост все равно выглядел как маркетинг.
И все-таки внимание специалистов это привлекло. Сегодня вот вышла очень яркая статья, в которой три исследователя из Люксембурга решили проверить, на что GPT-5 способен в статистике. Это уже интереснее, чем посты инженеров OpenAI в твиттере, потому что тут исследование (а) независимо и (б) проводится непосредственно экспертами области.
Они дали ему задачу, связанную с методом Мальявена–Стейна. Этот метод используется для доказательства центральных предельных теорем. До сих пор существовал только качественный результат: было известно, что некая последовательность случайных величин сходится к нормальному распределению, но никто не знал скорость этой сходимости.
Задача GPT-5 была вывести эту скорость, то есть получить количественный результат.
GPT-5 справился: он предложил и доказал новую теорему, которую никогда ранее не публиковали.
Но есть нюансы:
– На первых шагах GPT-5 допустил грубую ошибку в вычислениях и исправил ее только после наводки людей.
– В пуассоновском случае он не заметил ключевого свойства, пока авторы прямо не указали, где его найти.
Так что итоговый результат это результат серии уточняющих вопросов и проверок, а не one-shot.
Мораль: да, прогресс по сравнению с GPT-3.5/4 и даже серией o впечатляющий. Но GPT-5 все еще как начинавший аспирант. Он может генерировать правильные доказательства и идеи, если его направлять.
Но без человека легко допускает опасные ошибки и не находит ключевых идей самостоятельно. Плюс, на данном этапе его идеи – лишь комбинации уже существующих.
Так что по поводу «новой» математики пока все-таки мимо. Но вот по поводу помощи ученым – уже да.
arxiv.org/abs/2509.03065v1
20 августа Себастьян Бубек заявил, что GPT-5 Pro за считанные минуты решил открытую задачу в области выпуклой оптимизации (наш пост об этом). Новость разлетелась мгновенно, но позже некоторые эксперты настаивали, что бот просто использовал известную теорему Нестерова, и результат не такой уж и удивительный.
Плюс, Бубек – сотрудник OpenAI. Так что в глазах большинства его пост все равно выглядел как маркетинг.
И все-таки внимание специалистов это привлекло. Сегодня вот вышла очень яркая статья, в которой три исследователя из Люксембурга решили проверить, на что GPT-5 способен в статистике. Это уже интереснее, чем посты инженеров OpenAI в твиттере, потому что тут исследование (а) независимо и (б) проводится непосредственно экспертами области.
Они дали ему задачу, связанную с методом Мальявена–Стейна. Этот метод используется для доказательства центральных предельных теорем. До сих пор существовал только качественный результат: было известно, что некая последовательность случайных величин сходится к нормальному распределению, но никто не знал скорость этой сходимости.
Задача GPT-5 была вывести эту скорость, то есть получить количественный результат.
GPT-5 справился: он предложил и доказал новую теорему, которую никогда ранее не публиковали.
Если кому интересно: для суммы двух случайных величин из разных «хаосов» модель вывела, что расстояние до нормального распределения можно оценить через четвёртый кумулянт. А именно, чем меньше четвёртый кумулянт, тем ближе распределение Z к нормальному.
Но есть нюансы:
– На первых шагах GPT-5 допустил грубую ошибку в вычислениях и исправил ее только после наводки людей.
– В пуассоновском случае он не заметил ключевого свойства, пока авторы прямо не указали, где его найти.
Так что итоговый результат это результат серии уточняющих вопросов и проверок, а не one-shot.
Мораль: да, прогресс по сравнению с GPT-3.5/4 и даже серией o впечатляющий. Но GPT-5 все еще как начинавший аспирант. Он может генерировать правильные доказательства и идеи, если его направлять.
Но без человека легко допускает опасные ошибки и не находит ключевых идей самостоятельно. Плюс, на данном этапе его идеи – лишь комбинации уже существующих.
Так что по поводу «новой» математики пока все-таки мимо. Но вот по поводу помощи ученым – уже да.
arxiv.org/abs/2509.03065v1
❤171🔥66👍36😁11🤯9🍓1🤗1
Уже в 2026 году на Каннском фестивале будут показывать полностью сгенерированный мультик
Его снимает никто иной, как OpenAI.
Бюджет всей картины – менее 30 миллионов долларов. Это в разы меньше, чем обычно требуют мультипликационные съемки, причем основная часть суммы уйдет на художников (они будут отрисовывать образы персонажей) и актеров озвучки.
После Каннов – а они уже в мае, осталось то всего ничего – мультфильм обещают выпустить в прокат. Кстати, название довольно милое: Critterz, то есть Зверята.
Его снимает никто иной, как OpenAI.
Бюджет всей картины – менее 30 миллионов долларов. Это в разы меньше, чем обычно требуют мультипликационные съемки, причем основная часть суммы уйдет на художников (они будут отрисовывать образы персонажей) и актеров озвучки.
После Каннов – а они уже в мае, осталось то всего ничего – мультфильм обещают выпустить в прокат. Кстати, название довольно милое: Critterz, то есть Зверята.
🔥90❤31🗿30 11👍9 7 5⚡1🤨1
Сентябрь == настроение поучиться. Собрали для всех желающих подборку из свежих бесплатных курсов по ML/DL от топовых мировых университетов
Сразу скажем: в подборке нет старых курсов. Все перечисленное не старше весны 2025 года, так что и информация, и код – актуальны. Все курсы открытые и бесплатные, с большим количеством практики. Везде доступны записи лекций, слайды и доп.материалы, кое-где еще и домашки.
1️⃣ MIT 6.S191: Introduction to Deep Learning. Интенсивный вводный курс по глубокому обучению. Охватывает: основы нейронных сетей, обучение сверточных и рекуррентных сетей, генеративные модели (включая генерацию музыки), большие языковые модели, RL, файнтюнинг. Много практических примеров применения в компьютерном зрении, NLP, биомедицине, играх и тд. Сайт (записи лекций внутри)
2️⃣ Stanford CS231n: Deep Learning for Computer Vision. Отличный базовый курс по CV. В целом около 20 часов лекций с разбором архитектур (CNN, ResNet, трансформеры и др.), методов оптимизации, детекции объектов, сегментации, генеративных моделей, мульти-модального обучения и обучения с подкреплением для CV. Одна из преподавателей – легендарная Фей-Фей Ли. Сайт (тут лекции и материалы), плейлист с лекциями
3️⃣ Stanford CS336: Language Modeling from Scratch. Собственно, внутренность соответствует названию: это прекрасный практический курс по LLM, в котором вы по порядку пройдете все этапы разработки LLM с нуля. Сбор и очистка данных для предобучения, архитектура трансформеров, обучение моделей на GPU-кластерах и масштабирование, оптимизация производительности, файнтюнинг, методы безопасности и alignment. Ну, в общем, прямо от А до Я. Сайт, плейлист
4️⃣ Harvard CS 2881R: AI Safety. Курс запущен в сотрудничестве с OpenAI. Темы уже для продвинутых: технические аспекты элаймента, предотвращение нежелательного поведения, социальные и философские вопросы влияния ИИ, RLHF, Constitutional AI, ограничения и риски современных систем, и даже анализ возможных сценариев и экзистенциальных рисков. Сайт (записи лекций внутри)
5️⃣ CMU 11-785: Introduction to Deep Learning. Совсем свежий курс от университета Карнеги–Меллона, который еще даже не закончился в самом университете. Хороший охват тем: нейросети, прямое и обратное распространение, CNN, CV, рекуррентные и трансформерные архитектуры, оптимизационные алгоритмы (SGD, Adam и др.), регуляризация и тд. Вполне подробно. Затрагивается даже вопрос обобщающей способности. Доступны домашки и их разборы. Записи лекций (уже выложены 4 лекции и 2 семинара, остальное продолжает выходить), сайт
Сохраняйте (а лучше не просто сохраняйте, но и находите время смотреть)👉
Сразу скажем: в подборке нет старых курсов. Все перечисленное не старше весны 2025 года, так что и информация, и код – актуальны. Все курсы открытые и бесплатные, с большим количеством практики. Везде доступны записи лекций, слайды и доп.материалы, кое-где еще и домашки.
Сохраняйте (а лучше не просто сохраняйте, но и находите время смотреть)
Please open Telegram to view this post
VIEW IN TELEGRAM
12❤111🔥37✍9👍7😁6🤯3⚡1