Смотрите, что нашли: сайт с мини-задачами по ML в стиле LeetCode
Все также разделено на Easy, Medium и Hard, а также помечено категориями (есть линейная алгебра, ML и DL). Интерфейс простой, задачи интересные. Такое точно стоит сохранить💃
Все также разделено на Easy, Medium и Hard, а также помечено категориями (есть линейная алгебра, ML и DL). Интерфейс простой, задачи интересные. Такое точно стоит сохранить
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥99❤15👍10🎉4
Наш открытый вебинар «Spark UDAF: разрабатываем свой агрегатор» идеален для разработчиков, которые хотят овладеть навыком создания собственных агрегатных функций (UDAF).
На уроке мы рассмотрим:
- агрегирование данных в Spark и особенности стандартных агрегатных функций;
- создание собственных агрегатных функций;
- ответы на все возникающие вопросы.
Занятие будет полезно начинающим и специалистам в области аналитики данных и Data Engineering, а также руководителям и менеджерам команд разработки.
Развивайте свой потенциал в Spark и станьте мастером создания собственных агрегаторов!
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576, www.otus.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите: это робот от DeepMind ездит по офису Google
Самое интересное: малыш двигается благодаря Gemini 1.5 Pro. Идея применять LLM в робототехнике не новая, но обычно мешает ограниченное контекстное окно. У Google оно рекордное – 1млн токенов – вот и получился приятный результат.
За подробностями в статью.
Самое интересное: малыш двигается благодаря Gemini 1.5 Pro. Идея применять LLM в робототехнике не новая, но обычно мешает ограниченное контекстное окно. У Google оно рекордное – 1млн токенов – вот и получился приятный результат.
За подробностями в статью.
🔥53👍10😁4❤3🗿2🌚1💅1
This media is not supported in your browser
VIEW IN TELEGRAM
MrBeast за 25 секунд поясняет за рынок Data Science найма
😁141🗿7👍6🤝3❤1💘1
OpenAI зарабатывает не так много, как кажется
Вот репорт о доходах компании от FutureResearch. Основное:
➡️ Общий годовой доход составляет $3.4 млрд
➡️ $1,9 млрд за ChatGPT Plus,
$714 млн от ChatGPT Enterprise, $714 млн за ChatGPT Team, НО всего $510 млн от API
➡️ То есть они зарабатывают в 5 раз больше на ChatGPT, чем на каждом отдельном продукте, созданном на основе OpenAI, во всем мире вместе взятом.
Вывод один: ИИ еще далеко не так глубоко в бизнесе, как нам пропагандируют
Вот репорт о доходах компании от FutureResearch. Основное:
$714 млн от ChatGPT Enterprise, $714 млн за ChatGPT Team, НО всего $510 млн от API
Вывод один: ИИ еще далеко не так глубоко в бизнесе, как нам пропагандируют
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33👍14🔥6
LLM с visual способностями на самом деле слепы?
Как только появились первые visual модели, маркетологи сразу затрубили: "Они как люди, они могут видеть!".
Нет. Не могут. И это доказали в своем недавнем исследовании ученые из Обернского университета и Университета Альберты. Они протестировали модели на серии очень простых задач, с которыми справится даже трехлетний ребенок. Например, спрашивали, пересекаются ли две фигуры, сколько пятиугольников на картинке или какая буква в слове обведена.
Наверное вы уже поняли – ИИ многие тесты провалил (см. таблицы сверху). В статье это прокомментировано так:
И вообще-то это более чем естественно. Ведь модель действительно не видит изображения, она лишь извлекает из него некоторые эмбеддинги, которые по определению и являются сжатой информацией о картинке. Спрашивается, чему же мы тогда удивляемся?
P.S. Если хотите почитать подробнее о том, как мультимодельные модели работают с картинками – почитайте этот пост.
Как только появились первые visual модели, маркетологи сразу затрубили: "Они как люди, они могут видеть!".
Нет. Не могут. И это доказали в своем недавнем исследовании ученые из Обернского университета и Университета Альберты. Они протестировали модели на серии очень простых задач, с которыми справится даже трехлетний ребенок. Например, спрашивали, пересекаются ли две фигуры, сколько пятиугольников на картинке или какая буква в слове обведена.
Наверное вы уже поняли – ИИ многие тесты провалил (см. таблицы сверху). В статье это прокомментировано так:
"Модели не совсем слепы, но визуальная информация, которую они извлекают из изображения, является очень приблизительной и абстрактной, как если бы человеку кто-нибудь примерно рассказал о картинке, но не показали ее".
И вообще-то это более чем естественно. Ведь модель действительно не видит изображения, она лишь извлекает из него некоторые эмбеддинги, которые по определению и являются сжатой информацией о картинке. Спрашивается, чему же мы тогда удивляемся?
P.S. Если хотите почитать подробнее о том, как мультимодельные модели работают с картинками – почитайте этот пост.
👍37🔥12❤7⚡2
Data Secrets
Загадочный Q* от OpenAi Драма вокруг OpenAI подошла к концу: Сэм Альтман вернулся в компанию, Илья Суцкевер покинул совет директоров, а сама компания сменит систему управления. Однако мир все еще пытается выяснить, что все-таки могло так сильно напугать совет.…
OpenAI работает над новой технологией рассуждений Strawberry. Ранее проект был известен как Q*
Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого две новости от крупных СМИ о бывшем Q* за 24 часа.Что это, если не расжигание ажиотажа?
Что касается самой технологии Q*, то о ней мы уже развернуто писали здесь. Хотя с тех пор, как улегся первый хайп вокруг этого проекта, прошло пол года. Мало ли, что из него выросло.
Кстати, предположительно, в основе Strawberry aka Q* лежит метод STaR (self-taught reasoners). Вот оригинальная статья про STaR 2022 года.
Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого две новости от крупных СМИ о бывшем Q* за 24 часа.
Что касается самой технологии Q*, то о ней мы уже развернуто писали здесь. Хотя с тех пор, как улегся первый хайп вокруг этого проекта, прошло пол года. Мало ли, что из него выросло.
Кстати, предположительно, в основе Strawberry aka Q* лежит метод STaR (self-taught reasoners). Вот оригинальная статья про STaR 2022 года.
🍓23🔥11❤5👍5
Data Secrets
У нас для вас большой анонс! Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы……
Большой день для всей нашей команды: платформа для хакатонов, о которой мы вам рассказывали, запущена. И на ней уже есть первое соревнование, в котором вы можете поучаствовать!
Задачка очень занятная и посвящена прогнозированию эффективности клиентских промо-рассылок. Ее, вместе с данными, нам предоставили наши друзья из Dodo Pizza. Полное описание здесь.
10 победителей соревнования получат не только крутой опыт решения реальной продуктовой проблемы, но и наш яркий мерч Data Secrets!
Скорее регистрируйтесь: https://datasecrets.ru/hackathons/7.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤35 14👍7🔥7🤯3🤨3🌚1
Data Secrets
OpenAI работает над новой технологией рассуждений Strawberry. Ранее проект был известен как Q* Об этом сообщает Reuters. Также, как выяснил Bloomberg, на внутреннем собрании OpenAI некоторый проект продемонтрировал "человеческие" способности к мышлению. Итого…
И кроме того, у OpenAI опять какой-то новый сайт: OpenAI Supply Co
Это дословно поставляющая компания. Интересно, что они там собираются поставлять? Модели? Мерч? А может чипы?🤩
Это дословно поставляющая компания. Интересно, что они там собираются поставлять? Модели? Мерч? А может чипы?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23 12👍4🤔4👀4
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯75🔥19❤4🏆3
Data Secrets
На видео любитель запускает Llama3 8B на домашнем кластере, состоящем из iPhone 15 Pro Max, iPad Pro, MacBook Pro, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal. Весь код тут, включая код для iOS, так что можно повторить 😏
Кстати про llama3: там TogetherAI выпустили классный кодовый туториал по файнтюнингу
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
В примере они дотюнили Llama-3-8B для математических задач и в итоге увеличили точность с 47% до 65%, а это почти что GPT-4o.
Туториал пошаговый, весь код уже готов, останется только загрузить свои данные. Вот за что мы любим опенсорс
🔥47👍12❤5😁5🗿1
С – смелость
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤯38👍9😁4❤1
В далеком 2019 году чемпион мира по Go Ли Седоль проиграл алгоритму AlphaGo. Прошло 5 лет, и теперь Ли читает лекции об опасностях ИИ
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
В 2019 Седоль так и не смог справиться с горечью поражения машине, и закончил свою карьеру из-за AlphaGo. "Весь мой мир тогда рухнул" – сказал 41-летний кореец в своем свежем интервью с New York Times.
Сейчас он занимается тем, что читает лекции школьникам и студентам о потенциальных опасностях ИИ. Он говорит, что из-за ИИ мировая система ценностей поворачивает не туда, и советует молодым людям осваивать только те профессии, которые труднее всего автоматизировать.
Вот такая история. Кстати, шахматисты Гарри Каспаров и Магнус Карлсен тоже проигрывали AlphaZero, но оказались менее обидчивыми. Они, наоборот, утверждают, что AlphaZero не только не вредит шахматам, но и очень полезен.
😁99👍18❤10 3👀2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤7🔥5⚡3🦄1
Microsoft и Apple в последние дни в статейном ударе. Подборка свежих интересных папир от них:
➡️ SpreadsheetLLM. Первое место в разделе Daily Papers на HF cегодня. Модель для работы с электронными таблицами. Основным достижением стал энкодер, который помогает эффективно скармливать LLM-ке таблицу в сжатом виде. С помощью такого энкодера можно обрабатывать большие таблицы, а перформанс при этом на 25,6 % выше стандарта GPT4.
➡️ MUSCLE. Топ-4 в Daily Papers. Вы замечали, что когда обновляются LLM, они могут начинать отвечать бредово на вопросы, с которыми легко справлялась предыдущая версия? Это потому что разработчики фокусируются на общем перформансе, а не на совместимости.
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
➡️ Arena Learning. Что-то на GANском. Модель X (послабее, та, которую мы хотим затюнить) конкурирует в ответах с какой-нибудь SOTA, а третья модель (тоже какая-нибудь сильная) выступает в роли судьи и выбирает победителя. Каждый такой "диалог" – это данные для RL для обучения модели X, то есть предложенная схема это ничто иное как замена дорогого и долгого RLHF.
Обновляем статейный бэклог🕺
Эта работа предлагает решение в виде: а) новой метрики, которая оценивает вот такую совместимость; б) стратегии обучения со "встроенной" моделью совместимости, которая не дает новой версии регрессировать относительно предыдущей.
Обновляем статейный бэклог
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍8 4❤🔥1🔥1🗿1