О, Cursor поделились статистикой самых популярных среди разработчиков моделей
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1 (видимо после выхода свежего чекпоинта)
4. GPT-4.1
5. Grok 3
Кстати, на днях основатель Cursor также поделился тем, что сейчас их агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув). Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек😱
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1 (видимо после выхода свежего чекпоинта)
4. GPT-4.1
5. Grok 3
Кстати, на днях основатель Cursor также поделился тем, что сейчас их агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув). Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥115👍41❤15🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic анонсировали Интеграции: теперь к Claude можно присоединить любой источник ваших данных
Это работает так: вы присоединяете какое-то свое приложение (ну, например, базу знаний Confluence), и с этого момента во время поиска бот будет искать не только в Интернете, но и по вашей интеграции.
При этом, конечно, можно попросить поискать только в базе знаний, задать по ней любой вопрос, выгрузить оттуда код и поработать с ним и прочее и прочее и прочее, любые действия с этим контекстом.
По сути это верифицированные MCP внутри чат-бота. Сейчас в партнерах уже Atlassian, GitLab, Asana, PayPal, CloudFlare и еще с десяток сервисов. Их можно подсоединить в пару кликов. Если нужного вам сервиса среди них нет, то можно и свой добавить, но потребуется чуть больше времени и сил.
www.anthropic.com/news/integrations
Это работает так: вы присоединяете какое-то свое приложение (ну, например, базу знаний Confluence), и с этого момента во время поиска бот будет искать не только в Интернете, но и по вашей интеграции.
При этом, конечно, можно попросить поискать только в базе знаний, задать по ней любой вопрос, выгрузить оттуда код и поработать с ним и прочее и прочее и прочее, любые действия с этим контекстом.
По сути это верифицированные MCP внутри чат-бота. Сейчас в партнерах уже Atlassian, GitLab, Asana, PayPal, CloudFlare и еще с десяток сервисов. Их можно подсоединить в пару кликов. Если нужного вам сервиса среди них нет, то можно и свой добавить, но потребуется чуть больше времени и сил.
www.anthropic.com/news/integrations
🔥117👍36❤18🤯5🤔1
Chatbot Arena больше не работает? Вышло исследование "The Leaderboard Illusion", в котором ученые доказали предвзятость всеми любимого рейтинга
Среди авторов – ученые из Cohere, Стэнфорда, Принстона, Ватерлоо, MIT и других вузов с именем. Вот что им удалось выяснить:
➖ Во-первых, у крупных провайдеров появляется нечестное преимущество за счет количества "попыток". На арене есть такая штука, как приватное тестирование. В ходе него можно "анонимно" запустить N версий своей модели (разные гиперпараметры, системные промпты, чекпоинты). При этом результаты этих N версий не появляются на лидерборде: туда отгружается только результат лучшей из них.
На первый взгляд все честно. Но на самом деле тут есть статистическая ошибка. Если из N моделей мы выбираем ту, у которой максимальный Arena Score и публикуем его, то он получается завышенным.
Дело в том, что при "истинном" умении X результаты модели колеблются на X+-Δ. Если мы тестируем одну модель (как это обычно делают мелкие провайдеры), то результат получается средним и отражает истинный X. Но в случае выбора из N моделей мы автоматически выбираем ту, которая больше раз случайно "стрельнула" в сторону завышения способностей, а значит отражаем результат выше, чем X (картинка 2).
В статье ученые даже показали это на реальном эксперименте (картинка 3). Взяли модель и дважды отправили ее на арену по разным путям тестирования. Разница получилась в 17 очков, а это довольно серьезно. При этом чем больше N, тем больше будет этот несправедливый разрыв. А у кого есть ресурсы на кучу тестов? Правильно, только у больших игроков.
➖ Во-вторых, большие игроки получают преимущество за счет ассиметрии количества баттлов (картинка 4). Посмотрите: проприетарные модели получают 54–70% всех диалогов, а значит им и данных достается гораздо больше. А значит, разработчики могут лучше файн-тюниться под арену. И дальше все превращается в снежный ком.
При этом в статье показано, что это переобучение в чистом виде. То есть чем больше мы файнтюним модель под арену, тем она хуже показывает себя на реальных бенчмарках (в статье брали MMLU).
И это уже не говоря о том, что на арене вендоры могут по-тихому удалять свои модели, что тоже портит статистику и влияет на рейтинги.
Значит ли все это, что арена совершенно бесполезная и непрезентативная? Нет, просто нужно переосмыслять концепцию и вводить больше правил и ограничений. В статье, кстати, даже предложили парочку.
Почитать работу полностью можно здесь (а вот тут, кстати, сами разрабы арены написали на нее свою рецензию-ревью)
Среди авторов – ученые из Cohere, Стэнфорда, Принстона, Ватерлоо, MIT и других вузов с именем. Вот что им удалось выяснить:
На первый взгляд все честно. Но на самом деле тут есть статистическая ошибка. Если из N моделей мы выбираем ту, у которой максимальный Arena Score и публикуем его, то он получается завышенным.
Дело в том, что при "истинном" умении X результаты модели колеблются на X+-Δ. Если мы тестируем одну модель (как это обычно делают мелкие провайдеры), то результат получается средним и отражает истинный X. Но в случае выбора из N моделей мы автоматически выбираем ту, которая больше раз случайно "стрельнула" в сторону завышения способностей, а значит отражаем результат выше, чем X (картинка 2).
В статье ученые даже показали это на реальном эксперименте (картинка 3). Взяли модель и дважды отправили ее на арену по разным путям тестирования. Разница получилась в 17 очков, а это довольно серьезно. При этом чем больше N, тем больше будет этот несправедливый разрыв. А у кого есть ресурсы на кучу тестов? Правильно, только у больших игроков.
При этом в статье показано, что это переобучение в чистом виде. То есть чем больше мы файнтюним модель под арену, тем она хуже показывает себя на реальных бенчмарках (в статье брали MMLU).
И это уже не говоря о том, что на арене вендоры могут по-тихому удалять свои модели, что тоже портит статистику и влияет на рейтинги.
Значит ли все это, что арена совершенно бесполезная и непрезентативная? Нет, просто нужно переосмыслять концепцию и вводить больше правил и ограничений. В статье, кстати, даже предложили парочку.
Почитать работу полностью можно здесь (а вот тут, кстати, сами разрабы арены написали на нее свою рецензию-ревью)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤87👍58🤯17🏆7⚡3😁3
Сегодня ночью Gemini 2.5 Pro впервые полностью прошла Pokémon Blue
Это первый случай полного прохождения моделью культовой франшизы. До этого в покемонов играл Claude Sonnet 3.7, но до конца он дойти так и не смог: застрял в карте.
Gemini 2.5 Pro на все прохождение понадобилось всего нескольких сотен часов. Правда, с небольшой помощью.
Например, для улучшения навигации на кадры в эмуляторе накладывается сетка (+ есть текстовая карта), а для решения головоломок и планирования маршрутов используются дополнительные агенты (тоже экземляры Gemini). Память тоже обновляется не абы как, а по специальной подходящей под игру логике.
Проект независимый, его запускали не в Google. Разработчики говорят, что сейчас готовятся запускать прохождения с o3 и Сlaude.
Лайвстрим можно смотреть здесь
Это первый случай полного прохождения моделью культовой франшизы. До этого в покемонов играл Claude Sonnet 3.7, но до конца он дойти так и не смог: застрял в карте.
Gemini 2.5 Pro на все прохождение понадобилось всего нескольких сотен часов. Правда, с небольшой помощью.
Например, для улучшения навигации на кадры в эмуляторе накладывается сетка (+ есть текстовая карта), а для решения головоломок и планирования маршрутов используются дополнительные агенты (тоже экземляры Gemini). Память тоже обновляется не абы как, а по специальной подходящей под игру логике.
Проект независимый, его запускали не в Google. Разработчики говорят, что сейчас готовятся запускать прохождения с o3 и Сlaude.
Лайвстрим можно смотреть здесь
❤78👍38🔥20🦄5❤🔥2🤔1
База: в открытом репозитории инженера xAI несколько месяцев лежали API ключи доступа к внутренним моделям стартапа
Пару дней назад первым уязвимость заметил chief hacking officer из компании Seralys (они занимаются консалтингом в сфере кибербеза). Он опубликовал об этом пост на линкедине, и публикацию заметили исследователи из GitGuardian.
Для контекста: GitGuardian занимаются постоянным авто-сканированием GitHub на предмет раскрытых ключей API и отправляют оповещения владельцам. Они провели мини-расследование и выяснили, что токен из репы xAI вел к нескольким невыпущенным моделям Grok. В общей сложности обнаружился доступ как минимум к 60 моделям.
xAI фейл никак не прокомментировал, но ключ уже удалили
Пару дней назад первым уязвимость заметил chief hacking officer из компании Seralys (они занимаются консалтингом в сфере кибербеза). Он опубликовал об этом пост на линкедине, и публикацию заметили исследователи из GitGuardian.
Для контекста: GitGuardian занимаются постоянным авто-сканированием GitHub на предмет раскрытых ключей API и отправляют оповещения владельцам. Они провели мини-расследование и выяснили, что токен из репы xAI вел к нескольким невыпущенным моделям Grok. В общей сложности обнаружился доступ как минимум к 60 моделям.
xAI фейл никак не прокомментировал, но ключ уже удалили
😁145❤39👍13😎7🤯5🔥2
Исследователи из Университета Карнеги-Меллон создали IT-компанию, полностью состоящую из ИИ-агентов. Вот что из этого вышло
Команда исследователей из CMU запустила необычный эксперимент: они создали автономную виртуальную среду, имитирующую небольшую software компанию, и поместили на "реальные" рабочие места современных LLM-агентов. Все оформили в виде бенчмарка и назвали TheAgentCompany.
По сути агенту необходимо делать все то же, что делает типичный работчик IT (картинка 1): писать код, использовать терминал, рыться в браузере и Google Drive, взамодействовать с коллегами в мессенджере, пользоваться GitLab и Jira. Выполнение всех задач, кстати, оценивалось по чекпоинтам, а не просто "выполнил/не выполнил" (картинка 2) + учитывали итоговую стоимость по токенам.
В компании успели поработать Claude 3.5 Sonnet, Gemini-2.0 Flash, GPT-4o, Gemini-1.5-Pro, Llama-3.3 и 3.1, Qwen-2.5 и другие. Задачи покрывали SWE, PM, HR и еще несколько классических сфер. Всего 175 тасок, рассчитанных на 3000 часов труда 20 живых людей.
Результаты в таблицах на картинке 3. Как видите, даже лучший Claude 3.5 Sonnet справляется только с четвертью базовых обязанностей. Следующум идет Gemini 2.0 Flash, но уже с большим отрывом: 11.4%. Все остальные – меньше 9%.
Забавно, что GitLab и кодинг давались агентам довольно легко, а вот самым сложным оказались банальные заполнения форм, браузинг, планирование встреч и общение в мессенджере (им просто не объяснили, что надо мемы отправлять ).
Хороший бенч, побольше бы таких
Статья | Код | Сайт (лидерборд внутри) | Результаты экспериментов
Команда исследователей из CMU запустила необычный эксперимент: они создали автономную виртуальную среду, имитирующую небольшую software компанию, и поместили на "реальные" рабочие места современных LLM-агентов. Все оформили в виде бенчмарка и назвали TheAgentCompany.
По сути агенту необходимо делать все то же, что делает типичный работчик IT (картинка 1): писать код, использовать терминал, рыться в браузере и Google Drive, взамодействовать с коллегами в мессенджере, пользоваться GitLab и Jira. Выполнение всех задач, кстати, оценивалось по чекпоинтам, а не просто "выполнил/не выполнил" (картинка 2) + учитывали итоговую стоимость по токенам.
В компании успели поработать Claude 3.5 Sonnet, Gemini-2.0 Flash, GPT-4o, Gemini-1.5-Pro, Llama-3.3 и 3.1, Qwen-2.5 и другие. Задачи покрывали SWE, PM, HR и еще несколько классических сфер. Всего 175 тасок, рассчитанных на 3000 часов труда 20 живых людей.
Результаты в таблицах на картинке 3. Как видите, даже лучший Claude 3.5 Sonnet справляется только с четвертью базовых обязанностей. Следующум идет Gemini 2.0 Flash, но уже с большим отрывом: 11.4%. Все остальные – меньше 9%.
Забавно, что GitLab и кодинг давались агентам довольно легко, а вот самым сложным оказались банальные заполнения форм, браузинг, планирование встреч и общение в мессенджере (
Хороший бенч, побольше бы таких
Статья | Код | Сайт (лидерборд внутри) | Результаты экспериментов
👍185😁67🔥35❤19🤯5⚡2❤🔥1👻1
Новый эпизод черного зеркала: Альтман официально запустил в США подтверждение вашей личности через сканирование сетчатки глаза
Помните, мы рассказывали про второй стартап Сэма World (пост, пост)? Так вот они наконец прошли все юридические проверки, и теперь понемного раскатывают свои центры сканирования по США. Цель компании – избежать исполнения теории мертвого интернета и сделать так, чтобы каждый человек в сети имел подтвержденный человеческий ID.
Сканирование выполняется небольшим устройством под названием Orb, каждый прошедший получает тот самый айдишник + можно приобрести криптовалюту WorldCoin.
К концу года устройства планируют разместить по всей Америке. Самое интересное, что уже сейчас в партнерах у стартапа Visa и Tinder («чтобы вы встречались с живыми людьми»).
Посмотрим, что из этого выйдет
Помните, мы рассказывали про второй стартап Сэма World (пост, пост)? Так вот они наконец прошли все юридические проверки, и теперь понемного раскатывают свои центры сканирования по США. Цель компании – избежать исполнения теории мертвого интернета и сделать так, чтобы каждый человек в сети имел подтвержденный человеческий ID.
Сканирование выполняется небольшим устройством под названием Orb, каждый прошедший получает тот самый айдишник + можно приобрести криптовалюту WorldCoin.
К концу года устройства планируют разместить по всей Америке. Самое интересное, что уже сейчас в партнерах у стартапа Visa и Tinder («чтобы вы встречались с живыми людьми»).
Посмотрим, что из этого выйдет
🤨149👍46🔥19🤯17🤔11❤9😁6🫡4🗿3👾3🕊2
Журналисты нашли на спутниковых снимках три секретных китайских завода Huawei по производству чипов
По сети распространяется все больше слухов об AI Ascend 910D – новых чипах компании Huawei, которые по производительности якобы превзойдут H100 от Nvidia. Есть даже информация, что на этих картах обучают DeepSeek-R2.
А сегодня Financial Times написали, что на спутниковых снимках они нашли три "построенных в одном стиле" завода, расположенных прямо около базы Huawei. Ранее о них никогда не сообщалось, но по словам инсайдеров на этих линиях производят как раз AI Ascend.
Интересно, что судя по снимкам, строить заводы начали сразу после введения Америкой первых технологических санкций. Инсайдеры также говорят, что объекты получают субсидии от государства.
Напоминаем, что сейчас импорт линейки Blackwell в Китае запрещен, поэтому компании и стартапы страдают от нехватки железа. Получается, что если AI Ascend действительно заменит стандарт H100, это может стать переломным моментом в ИИ-гонке.
По сети распространяется все больше слухов об AI Ascend 910D – новых чипах компании Huawei, которые по производительности якобы превзойдут H100 от Nvidia. Есть даже информация, что на этих картах обучают DeepSeek-R2.
А сегодня Financial Times написали, что на спутниковых снимках они нашли три "построенных в одном стиле" завода, расположенных прямо около базы Huawei. Ранее о них никогда не сообщалось, но по словам инсайдеров на этих линиях производят как раз AI Ascend.
Интересно, что судя по снимкам, строить заводы начали сразу после введения Америкой первых технологических санкций. Инсайдеры также говорят, что объекты получают субсидии от государства.
Напоминаем, что сейчас импорт линейки Blackwell в Китае запрещен, поэтому компании и стартапы страдают от нехватки железа. Получается, что если AI Ascend действительно заменит стандарт H100, это может стать переломным моментом в ИИ-гонке.
🤯90👍84🔥24😎10🐳7❤4😁2👻2👾2👌1🗿1
Шах и мат, ИИ-грубияны: старший научный сотрудник Google Deepmind и профессор когнитивной робототехники в Имперском колледже Лондона Мюррей Шанахан подтвердил, что слова "спасибо" и "пожалуйста" могут улучшить качество ответов модели
https://youtu.be/v1Py_hWcmkU?t=2327
"Конечно, это зависит от обстоятельств: модели ведь постоянно меняются. Однако в общем случае есть веская научная причина, почему четкие дружелюбные формулировки и использование таких слов, как «пожалуйста» и «спасибо», могут улучшить качество ответов.
Все дело в том, что это похоже на ролевую игру. ИИ, скажем, исполняет роль очень умного стажера. Стажер может быть менее эффективным, если его не хвалить и постоянно ругать. Модель имитирует поведение человека, поэтому может вести себя точно также"
https://youtu.be/v1Py_hWcmkU?t=2327
🤗192🔥39❤18👍13👾5😁4🤯3😍2🤓2💘2🤝1
Твиттерский ML-инженер поделился историей о том, как пошел к травматологу, а получил консультацию от ChatGPT
Когда тот самый мем уже не мем
Когда тот самый мем уже не мем
😁188🤯49❤12🤝11🔥7👀4👍3🗿2☃1🤨1
Media is too big
VIEW IN TELEGRAM
Полезная новость для всех, кто практикует data-driven: Arenadata релизнули новую мощную платформу для хранения и обработки данных
Arenadata One потянет любую архитектуру бигдаты, включая Lakehouse + вероятно будет дешевле имеющихся СУБД. Быстро пройдемся по фишкам:
➖ В отличие от классических bare-metal-СУБД, Arenadata One не требует резервации оборудования и работает в эластичной среде. Данные можно держать и в своём дата-центре, и в облаке – и перемещать между ними.
➖ Система умеет переиспользовать ресурсы и автоматически масштабирует нагрузки. За счет этого вы получите минимальный Total Cost of Ownership.
➖ Вычисления и хранение работают отдельно: это позволит быстро добавлять мощности, не прикасаясь к данным.
➖ Все совместимо с S3 и абсолютно не привязано к форматам данных, грузим что хотим.
➖ Реализовано multi-tiering: горячие данные лежат быстро и близко, холодные – экономно и глубже.
➖ Есть готовые панели и функции для мониторинга, управления доступами, отслеживания изменений и аудита.
➖ Аналитика и транзакции работают под одной крышей, больше не надо держать отдельную базу под отчёты и отдельную под приложение.
Ну и на десерт: Хранение AI-векторов и feautures. По факту, AI/ML-ready инфраструктура из коробки.
За подробностями сюда
Arenadata One потянет любую архитектуру бигдаты, включая Lakehouse + вероятно будет дешевле имеющихся СУБД. Быстро пройдемся по фишкам:
Ну и на десерт: Хранение AI-векторов и feautures. По факту, AI/ML-ready инфраструктура из коробки.
За подробностями сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26❤11🔥5🤯3🗿2