This media is not supported in your browser
VIEW IN TELEGRAM
MrBeast за 25 секунд поясняет за рынок Data Science найма
😁141🗿7👍6🤝3❤1💘1
OpenAI зарабатывает не так много, как кажется
Вот репорт о доходах компании от FutureResearch. Основное:
➡️ Общий годовой доход составляет $3.4 млрд
➡️ $1,9 млрд за ChatGPT Plus,
$714 млн от ChatGPT Enterprise, $714 млн за ChatGPT Team, НО всего $510 млн от API
➡️ То есть они зарабатывают в 5 раз больше на ChatGPT, чем на каждом отдельном продукте, созданном на основе OpenAI, во всем мире вместе взятом.
Вывод один: ИИ еще далеко не так глубоко в бизнесе, как нам пропагандируют
Вот репорт о доходах компании от FutureResearch. Основное:
$714 млн от ChatGPT Enterprise, $714 млн за ChatGPT Team, НО всего $510 млн от API
Вывод один: ИИ еще далеко не так глубоко в бизнесе, как нам пропагандируют
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33👍14🔥6
LLM с visual способностями на самом деле слепы?
Как только появились первые visual модели, маркетологи сразу затрубили: "Они как люди, они могут видеть!".
Нет. Не могут. И это доказали в своем недавнем исследовании ученые из Обернского университета и Университета Альберты. Они протестировали модели на серии очень простых задач, с которыми справится даже трехлетний ребенок. Например, спрашивали, пересекаются ли две фигуры, сколько пятиугольников на картинке или какая буква в слове обведена.
Наверное вы уже поняли – ИИ многие тесты провалил (см. таблицы сверху). В статье это прокомментировано так:
И вообще-то это более чем естественно. Ведь модель действительно не видит изображения, она лишь извлекает из него некоторые эмбеддинги, которые по определению и являются сжатой информацией о картинке. Спрашивается, чему же мы тогда удивляемся?
P.S. Если хотите почитать подробнее о том, как мультимодельные модели работают с картинками – почитайте этот пост.
Как только появились первые visual модели, маркетологи сразу затрубили: "Они как люди, они могут видеть!".
Нет. Не могут. И это доказали в своем недавнем исследовании ученые из Обернского университета и Университета Альберты. Они протестировали модели на серии очень простых задач, с которыми справится даже трехлетний ребенок. Например, спрашивали, пересекаются ли две фигуры, сколько пятиугольников на картинке или какая буква в слове обведена.
Наверное вы уже поняли – ИИ многие тесты провалил (см. таблицы сверху). В статье это прокомментировано так:
"Модели не совсем слепы, но визуальная информация, которую они извлекают из изображения, является очень приблизительной и абстрактной, как если бы человеку кто-нибудь примерно рассказал о картинке, но не показали ее".
И вообще-то это более чем естественно. Ведь модель действительно не видит изображения, она лишь извлекает из него некоторые эмбеддинги, которые по определению и являются сжатой информацией о картинке. Спрашивается, чему же мы тогда удивляемся?
P.S. Если хотите почитать подробнее о том, как мультимодельные модели работают с картинками – почитайте этот пост.
👍37🔥12❤7⚡2
Data Secrets
Загадочный Q* от OpenAi Драма вокруг OpenAI подошла к концу: Сэм Альтман вернулся в компанию, Илья Суцкевер покинул совет директоров, а сама компания сменит систему управления. Однако мир все еще пытается выяснить, что все-таки могло так сильно напугать совет.…
OpenAI работает над новой технологией рассуждений Strawberry. Ранее проект был известен как Q*
Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого две новости от крупных СМИ о бывшем Q* за 24 часа.Что это, если не расжигание ажиотажа?
Что касается самой технологии Q*, то о ней мы уже развернуто писали здесь. Хотя с тех пор, как улегся первый хайп вокруг этого проекта, прошло пол года. Мало ли, что из него выросло.
Кстати, предположительно, в основе Strawberry aka Q* лежит метод STaR (self-taught reasoners). Вот оригинальная статья про STaR 2022 года.
Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого две новости от крупных СМИ о бывшем Q* за 24 часа.
Что касается самой технологии Q*, то о ней мы уже развернуто писали здесь. Хотя с тех пор, как улегся первый хайп вокруг этого проекта, прошло пол года. Мало ли, что из него выросло.
Кстати, предположительно, в основе Strawberry aka Q* лежит метод STaR (self-taught reasoners). Вот оригинальная статья про STaR 2022 года.
🍓23🔥11❤5👍5
Data Secrets
У нас для вас большой анонс! Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы……
Большой день для всей нашей команды: платформа для хакатонов, о которой мы вам рассказывали, запущена. И на ней уже есть первое соревнование, в котором вы можете поучаствовать!
Задачка очень занятная и посвящена прогнозированию эффективности клиентских промо-рассылок. Ее, вместе с данными, нам предоставили наши друзья из Dodo Pizza. Полное описание здесь.
10 победителей соревнования получат не только крутой опыт решения реальной продуктовой проблемы, но и наш яркий мерч Data Secrets!
Скорее регистрируйтесь: https://datasecrets.ru/hackathons/7.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤35 14👍7🔥7🤯3🤨3🌚1
Data Secrets
OpenAI работает над новой технологией рассуждений Strawberry. Ранее проект был известен как Q* Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого…
И кроме того, у OpenAI опять какой-то новый сайт: OpenAI Supply Co
Это дословно поставляющая компания. Интересно, что они там собираются поставлять? Модели? Мерч? А может чипы?🤩
Это дословно поставляющая компания. Интересно, что они там собираются поставлять? Модели? Мерч? А может чипы?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23 12👍4🤔4👀4
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯75🔥19❤4🏆3
Data Secrets
На видео любитель запускает Llama3 8B на домашнем кластере, состоящем из iPhone 15 Pro Max, iPad Pro, MacBook Pro, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal. Весь код тут, включая код для iOS, так что можно повторить 😏
Кстати про llama3: там TogetherAI выпустили классный кодовый туториал по файнтюнингу
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
🔥47👍12❤5😁5🗿1
С – смелость
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤯38👍9😁4❤1
В далеком 2019 году чемпион мира по Go Ли Седоль проиграл алгоритму AlphaGo. Прошло 5 лет, и теперь Ли читает лекции об опасностях ИИ
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
😁99👍18❤10 3👀2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤7🔥5⚡3🦄1
Microsoft и Apple в последние дни в статейном ударе. Подборка свежих интересных папир от них:
➡️ SpreadsheetLLM. Первое место в разделе Daily Papers на HF cегодня. Модель для работы с электронными таблицами. Основным достижением стал энкодер, который помогает эффективно скармливать LLM-ке таблицу в сжатом виде. С помощью такого энкодера можно обрабатывать большие таблицы, а перформанс при этом на 25,6 % выше стандарта GPT4.
➡️ MUSCLE. Топ-4 в Daily Papers. Вы замечали, что когда обновляются LLM, они могут начинать отвечать бредово на вопросы, с которыми легко справлялась предыдущая версия? Это потому что разработчики фокусируются на общем перформансе, а не на совместимости.
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
➡️ Arena Learning. Что-то на GANском. Модель X (послабее, та, которую мы хотим затюнить) конкурирует в ответах с какой-нибудь SOTA, а третья модель (тоже какая-нибудь сильная) выступает в роли судьи и выбирает победителя. Каждый такой "диалог" – это данные для RL для обучения модели X, то есть предложенная схема это ничто иное как замена дорогого и долгого RLHF.
Обновляем статейный бэклог🕺
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
Обновляем статейный бэклог
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍8 4❤🔥1🔥1🗿1
Грязный секрет scikit learn заключается в том, что на самом деле predict_proba возвращает НЕ вероятности
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:если собираетесь участвовать в нашем свежем ML-соревновании, то для вас пост особенно полезен. Читайте полное описание задачи и регистрируйтесь вот тут .
Десять лет в документации Scikit-learn было написано, что эта функция якобы возвращает вероятности (а это не так). Только несколько дней назад разработчики наконец исправили соответствующую страницу. Давайте разбираться, что же на самом деле возвращает эта загадочная функция.
Спойлер:
🤯64👍24🔥9❤3🤔3