Data Secrets
77.3K subscribers
6.03K photos
591 videos
20 files
2.42K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Apple даст разработчикам доступ к локальным ИИ-моделям компании

Об этом объявили на WWDC 2025. Apple запускают целый фреймворк Foundation Models, с помощью которого их модели можно будет встраивать в приложения.

При этом у пользователей при использовании приложений эти модели будут запускаться локально. Ну, например, вы создаете в FatSecret персональный план питания с помощью ИИ, но при этом ваши данные не улетают в облако, а остаются только на устройстве.

Говорят, что фреймворк достаточно интуитивный, с поддержкой Swift. Доступ к моделям или к tool calling можно будет получить всего в 3-5 строк кода.

www.apple.com/newsroom/2025/06/apple-supercharges-its-tools-and-technologies-for-developers/
82🔥34👍236🤔2😁1🤝1
OpenAI пробила 10 миллиардов годового дохода

Сюда включены подписки, бизнес-продукты и API. В прошлом году этот показатель составлял 5.5 миллиардов. Тем не менее, это не значит, что компания вышла на положительную прибыль.

Свои операционные расходы OpenAI не раскрывает, но известно, что в плюс они планируют выйти только к 2029. Ожидается, что к этому времени доход стартапа увеличится до 125 миллиардов в год.
🤯12240🔥32😁8👍5🤨3🤔1🫡1
Mistral выпустили ризонинг-модель Magistral

Есть открытая версия Small на 24В и закрытая Medium – побольше. Medium работает на уровне R1 (непонятно, обновленной или нет).

Русский язык поддерживается, он в числе тех, на которых модель «думает лучше всего».

Еще хвастаются своей скоростью инференса: говорят, в режиме ризонинга с Flash Answers получать ответы можно в 10 раз быстрее, чем у конкурентов.

Попробовать превью бесплатно можно в Le Chat

Веса | Блогпост | Статья
71👍3515105🔥22🤯1
Ну, получается, дождались
175🎉47🍾32🔥1876🍓4433😎1
⚡️ o3-pro – вышла

По бенчмаркам – заметный скачок производительности на математике и кодинге по сравнению с обычной o3. И при этом, что интересно, модель почти в 8 раз дешевле o1-pro.

Уже раскатили на всех Pro юзеров. У кого 200$ завалялись?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
83😁36149🔥2🤔21🦄1
К слову, сегодня еще и мощно удешевили обычную o3 – она теперь стоит на 80% меньше

Теперь по ценам так:

🟦 o3 – $2.00 / 1M input, $8.00 / 1M output (было 10$ и 40$)
🟦 o3 pro – $20 / 1M input, $80 / 1M output (o1-pro 150$ и 600$)

Получается, цена o3 теперь на уровне с Gemini 2.5 Pro (1.25$ и 10$)
Please open Telegram to view this post
VIEW IN TELEGRAM
87🔥35👍12🦄3🗿2
Сэм Альтман в честь выхода o3-pro выпустил эссе под названием «Нежная сингулярность»

Снова пишет про будущее, но теперь среди прочего – конкретные предсказания (да). Итак, топ цитат:

Мы прошли горизонт событий; взлет начался. Человечество близко к созданию цифрового суперинтеллекта, и, по крайней мере, пока это гораздо менее странно, чем, как кажется, должно быть. Роботы пока не ходят по улицам, и большинство из нас не общаются с ИИ весь день.


В 2025 году появились агенты, способные выполнять настоящую когнитивную работу; написание кода уже никогда не будет прежним.
В 2026 году, скорее всего, появятся системы, открывать новые идеи
. В 2027 году могут появиться роботы, способные выполнять задачи в реальном мире.


В 2030-х годах интеллект и энергия — идеи и способность воплощать идеи — будут в диком изобилии. Эти два фактора долгое время были фундаментальными ограничителями человеческого прогресса; при их (и хорошем управлении)
мы теоретически можем иметь что угодно
.


Мы очень быстро переходим от удивления, что ИИ может написать абзац, к удивлению, когда он может создать прекрасно написанный роман. Или от удивления, что он может написать небольшую программу, к удивлению, когда он может создать целую новую компанию.
Вот как проходит сингулярность: чудеса становятся рутиной, а затем базовым минимумом
.


По мере автоматизации производства центров обработки данных
стоимость интеллекта должна в конечном итоге приблизиться к стоимости электроэнергии
.


Скорость создания новых чудес будет колоссальной. Сегодня даже трудно представить, что мы откроем к 2035 году; может быть, за один год мы перейдем от решения физики высоких энергий к началу колонизации космоса. Конечно, будут и сложные моменты: например, исчезнут целые классы профессий. Но
люди по-прежнему будут способны адаптироваться практически ко всему
.


Полностью читаем здесь
15489👍34😁18🤨17🤔1212🦄1075🤓2
MWS AI (ex MTS AI) представили open-source версию ИИ-ассистента для программистов — Kodify Nano.

Что умеет: писать код по текстовому запросу, объяснять его, генерировать юнит-тесты и документацию. Модель поддерживает Python, Java, JavaScript, C# и ещё ряд языков, содержит 1,5 миллиарда параметров и поддерживает контекст 32 тыс. токенов (примерно 16–25 тыс. строк кода).

Под капотом – Qwen2.5-Coder, дообученная командой на собственном датасете. Можно использовать в закрытом контуре, дообучать под себя, подключать к любимым редакторам через плагин.

Попробовать уже можно на сайте MWS AI.
😁5340👍30🤯88🤨4🐳32👀22
Data Secrets
⚡️ Финальный день стримов: OpenAI анонсируют o3! Это новая самая мощная модель рассуждений стартапа. Правда она будет еще некоторое время недоступна. На стриме показали только демо и предварительные метрики, но они поражают. o3 почти в два раза мощнее…
Fun fact: новая o3-pro все еще намного слабее модели o3 preview, которую OpenAI показывали в декабре

Когда o3 только анонсировали (пост от 20 декабря), на ARC-AGI она выбивала почти 80% при самом низком бюджете ризонинга.

Выпущенная недавно для всех o3 при самом высоком бюджете ризонинга выбивает всего 60 с хвостиком, и вышедшая вчера o3-pro – примерно столько же. Смотрите график.

Что это значит? Что ту самую o3, скорее всего, так и не выпустят (уж очень дорогая). Зато, возможно, будет оптимизированная o4, которая выйдет на тот же уровень и будет в разы дешевле.
😁92🤯3417👍12🤔5🤨311
Data Secrets
У Meta черная полоса Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы…
Цукерберг планирует еще побороться: Meta пересобирает ИИ-отдел

Помните новость о том, что после неудачного выхода Llama 4 Цукер психанул и обещал провести "большие изменения в составе" команд?

Ну так вот, он действительно решил это сделать. Говорят, сейчас CEO лично отбирает 50 человек (в том числе нового руководителя ИИ-рисерча), которые будут работать над ASI. Даже столы в офисе передвинул, чтобы эта команда сидела рядом с ним. Отделение будет называться Meta’s Superintelligence Group.

Звучит дорого. Надеемся, принесет плоды
👍16643😁402212🔥3👏11
Media is too big
VIEW IN TELEGRAM
CEO Nvidia Дженсен Хуанг рассказал, как он продал первую видеокарту OpenAI

«Это был 2016 год и мы создали суперкомпьютер для AI. 0 клиентов, 0 интереса, 0 хайпа. Только непонимание.

Но оказалось, что один молодой стартап был заинтересован. Я подумал, что сейчас наконец-то продам видеокарту, но потом узнал, что это был non-profit стартап.

Но я все равно взял видеокарту и повез им ее сам. Стартап назывался OpenAI»


Источник: свежий VivaTech Paris 2025
251😁84👍67🔥31🗿7
Хорошие новости: OpenAI удвоили лимиты на o3 для Plus юзеров

Конечно, o3-pro все еще недоступна в подписке за 20 долларов, но зато, после падения цен, в ней удвоились лимиты на обычную o3. Раньше было 100 запросов в неделю, теперь будет 200.

Кстати, вчера исполнилось ровно 5 лет API OpenAI. Его запустили 11 июня 2020 года, после выхода GPT-3.
👏91🔥3912👌10🦄4👍31
Avito раскрыли много интересных деталей про свою AI-кухню

Совсем недавно компания открывала двери своего московского офиса в рамках Data Fest. Во время выстеплений инженеры Avito раскрыли много занятных тех.деталей об A-Vibe. Собрали основное:

A-Vibe работает в два раза быстрее конкурентов на русском языке за счет кастомного токенизатора. Подменить токенизатор не так то просто: о том, как конкретно это делали можно почитать в нашей статье. Плюс, дообучение: 700 миллиардов токенов из открытых датасетов, обезличенные данные Авито и даже олимпиадные задачи.

Модель также хорошо умеет работать с изобрежениями. Для обучения создали датасет из 200 тысяч изображений реальных объявлений и миллиона пар вопрос-ответ, используя большие VLM для генерации разметки. На проде модель уже генерирует описание к объявлениям и используется в рексис.

В поддержке Авито агенты уже используют ИИ-инструменты. LLM научили переписывать ответы сотрудников поддержки, делая их более эмпатичными и грамотными. А когда диалог переходит от одного сотрудника к другому, модель делает саммари диалога, чтобы человек быстрее понял контекст.

Оказывается, у Avito есть собственная единая платформа для всех ML-задач. Внутри – хранилище фичей, система разметки данных людьми и LM, а также решение для для оптимизации инференса (опенсорс!). Главная цель – чтобы каждый сотрудник мог создать и запустить модель без кода. Уже сейчас платформа экономит 30% железа и кучу рабочего времени.

Над A-Vibe частично работали стажеры. Ребята работают над имплементацией свежих статей, пытаются решать проблемы типа взрыва градиентов и обучают модели с нуля. Один стажёрский проект даже сократил расходы на автоматическую проверку звонков в 10 раз.
Редкий случай, когда удается взглянуть на ИИ в бизнесе под таким углом. Авито – респект
Please open Telegram to view this post
VIEW IN TELEGRAM
88🤨54🔥30👍17🤯1
Sakana AI релизнули модель для генерации моделей

Она называется Text-to-LoRA. LoRA – это метод файнтюнинга, когда мы вместо полного дообучения всей сети настраиваем для нужных нам задач специальные низкоранговые адаптеры.

Это довольно эффективный метод, но и он требует сбора данных и какого-никакого обучения.

Sakana же предлагают модель, которая на лету генерирует сразу готовые LoRA адаптеры из обычного текстового промпта. Например, на вход: «хочу модель для анализа отзывов в картах». На выход: готовые веса адаптера, которые не надо обучать, а остается только запустить.

Под капотом у T2L лежит классический hypernetwork-подход. Гиперсеть получает на вход эмбеддинг описания задачи вместе с эмбеддингами для каждого слоя исходной модели, а потом через серию MLP-блоков генерирует нужные низкоранговые матрицы A и B, которые сразу прикладываются к базовым весам. Это и есть готовый LoRA-адаптер.

На тестах это работает хорошо: в среднем +8 % к точности над исходником. Это примерно на уровне или даже лучше, чем ручные LoRA и мульти-задачные LoRA.

Представьте, насколько это снижает порог входа в тюнинг моделей для не-инженеров

Статья | GitHub
🤯188👍6037🔥42🤔1🤝1😎11
Директор национальной разведки США радостно заявила толпе, что скормила ChatGPT 80000 страниц секретных документов об убийстве Кеннеди

Талси Габбард на днях выступала на конференции Amazon Web Services и рассказывала про плюсы ИИ. В числе прочего она как бы между прочим рассказала, как советовалась с чат-ботом по поводу того, какие секретные материалы стоит опубликовать, а какие лучше оставить в тайне.

«Это значительно ускорило обработку этих документов» – добавила она.

После конференции она, правда, заявила, что это была система развернутая внутри контура разведки (но это не точно)
😁45454🤗261911🤯6👍4👏44🔥3🤔3