Data Secrets
77.4K subscribers
6.05K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
10 миллионов долларов достанется тому, кто научит LLM решать математические задачи на уровне победителей уровне IMO (International Mathematical Olympiad).

Сейчас на Kaggle проходит соревнование AI Mathematical Olympiad, участники которого пробуют заставить модели решать задачи уровня олимпиады старших классов на уровне человека. Gemma, например, выбивает accuracy меньше 2%.

Соревнуются уже более 10к участников. Только учтите: если вы после прочтения поста пойдете участвовать и выиграете 10 🍋, с вас процент.

Мы, кстати, подобрали интересные исследования по теме мат. рассуждений LLM, которые можно почитать уже сейчас:

▪️Llemma – LLM для математических задач. Недавно выпущена учеными из Принстона. Обучена на миллионах образцов кода и статей, на 4-shot решила 43% задач из MATH.

◾️MathBERT для анализа математических формул.

◾️Minerva от Google. Долгое время эта модель оставалась SOTA. Основной вывод статьи - дело в данных.

◾️Knowledge Processing Unit от Maisa. Хитрая архитектура, сильно повышающая способности модели решать сложные многоэтапные, в том числе математические, задачи.

◾️Китайский DeepSeekMath. Самая свежая модель из перечисленных. Воспользовавшись выводами Google о данных, исследователи придумали изящный способ составления корпуса, прикрутили RL, и получили новую SOTA.
👍39🔥1812😁5🌚2
Когда плачут даже мужчины:
😁174🔥1811😨10👍31
Я трачу и не плачу 💸

По данным нового финансового отчета Meta, компания каждый месяц теряет миллиарды на AR и VR. Стесняются ли они этого?

Ни капли. Цукерберг сам говорит инвесторам о том, что пройдет куча времени, пока ИИ начнет приносить прибыль.

При этом в планах у Meta увеличить инвестиции в разработку ИИ до $35-40 млрд в год. Ничего не скажешь, делают красиво.
Please open Telegram to view this post
VIEW IN TELEGRAM
😎43👍16🔥7🤩32
Интересное открытие: французский sklearn имеет только одного инвестора со статусом Platinum, и это… Chanel.

CTO HuggingFace в ответ на это сострил: «Франция богата, но не на GPU».
61😁33🔥7💅4🏆2👍1
Тем временем GPU, которые подпольно производит Chanel:
😁108💅21🌚8👍41
В Google уволили целую команду Python разработчиков 😳

Конспирологи уже утверждают, что ИИ в Google способен полностью заменить разработчиков, и поэтому те больше компании не нужны.

На самом деле все проще. Google просто решили сократить косты и будут набирать новую команду в Мюнхене, где труд программистов в среднем дешевле.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁114😨18👍9🤔73🫡3
Forwarded from XOR
⚡️ В Абу-Даби прошла первая гонка болидов-беспилотников. Заезды начались с дуэли автопилота с российским гонщиком «Формулы-1» Даниилом Квятом, в которой он уверенно одержал победу.

Дальше беспилотники восьми команд гонялись уже между собой, иногда врезаясь в стены и внезапно разворачиваясь. В итоге первым финишировал болид ребят из мюнхенского университета — им вручили приз $2.25 млн.

Самое время собирать команду XOR для участия, принимаем заявки.

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯35👍19🔥92🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите, какой модный 💅

Это Сэм Альтман в 2008 на презентации Apple рассказывает про приложение для шэринга локаций. Приложение было создано Loopt – первой компанией Альтмана, которую он основал еще в колледже.

Кстати, в 2012 Loopt чуть не обанкротился, но основатели успели вовремя продать компанию.
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰40🤪24👍9😁5🌚42💅2🔥1👀1
Data Secrets
Где взять данные? Этим вопросом хотя бы однажды задавался каждый из нас. Итак, подборка дата-ресурсов от редакции: 1. Kaggle. Не нуждается в представлении. Тысячи бесплатных датасетов. 2. Awesome Data Github репозиторий. Список открытых наборов данных…
+ 1 ресурс в коллекцию: датасеты для LLM

На многих примерах (в том числе на LLama-3 и Phi-3) мы уже видели, что развитие LLM = создание качественных корпусов данных.

Так вот. Тут разработчик из Лондона взял и описал в этом репозитории все датасеты для предобучения или файнтюнинга LLM в формате таблицы: ссылка, размер, авторы, дата и личные пометки.

Кроме того, там есть указания, как собрать свой собственный качественный датасет, и что вообще значит «качественный».

Одним словом - кайф. Забирайте себе.
🔥5512👍10
Загадка века: на LMSYS арене появилась таинственная модель gpt2-chatbot, которая лучше gpt-4

На самом лидерборде модель пока не отображается, но в разделе Direct Chat с ней можно поболтать. Энтузиасты уже потестили бота, и вот что нам известно:

☯️С большинством задач модель действительно справляется лучше, чем gpt-4. Например, она без подсказок щелкнула олимпиадную задачу по математике.

☯️Непонятно, кто выпустил модель, но несколько критериев (в том числе общие рабочие приемчики джейлбрейкинга) указывают на то, что за всем стоит OpenAI.

☯️Пока что все сходятся в предположении, что это GPT-4.5.

☯️Альтман сразу после выпуска написал в своем X: «i do have a soft spot for gpt2», то есть «да, у меня есть слабость к gpt2». Совпадение? Не думаем.

А что подсказывает вам ваш внутренний детектив?
❤️ – 100% OpenAI
🗿 – да нет, не они
Please open Telegram to view this post
VIEW IN TELEGRAM
201🗿20👍6🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь любимый мем админа
😁7165🔥8👍53👏3🤪3🌚2
Forwarded from XOR
This media is not supported in your browser
VIEW IN TELEGRAM
40 лет развития Boston Dynamics за полторы минуты.

@xor_journal
🔥73👍145👏1🤯1🤨1
Apple переманивает десятки инженеров из Google для своего ИИ-проекта

По данным FT, в последнее время Apple массово расширенияет подразделения по ИИ и ML. Больше всего новых сотрудников пришли из Google (речь идет о десятках).

Самым значимым стал переход главы лаборатории ИИ Google Brain Джона Джаннандреа, который пришел на руководящую должность в Apple. Затем его примеру последовали не менее 36 инженеров Google.

Вот такая нынче реальность, борьба БигТеха идет не за их выбор пользователем, а за выбор их компании разработчиками.
🤯44🔥17👍6🤩21
Внимание: градиентный спуск
😁23936👍22🦄5🗿4🤯2
Google подружили Gemini с медициной

Вчера вышла новая статья от исследователей из Google, в которой они файнтюнят свою LLM для медицинских задач. Кстати, в ней 71(!) соавтор.

Файнтюнили на датасете, схожем с Med-PaLM2, но с добавлением self-training с поиском. Идея:
1) просим модель сгенерировать поисковой запрос по вопросу, иначе говоря "загуглить" то, что у нее спрашивают
2) на основе результатов запроса генерим с помощью модели цепочки мыслей
3) фильтруем ложные цепочки, а на остальных дообучаем модель
4) с дообученной моделью возвращаемся к пункту №1

Итеративные алгоритмы сбора данных сейчас в моде, это исследование не стало исключением. Еще ученые прикрутили поиск с учетом неопределенности и дополнительную генерацию запросов для решения конфликтов среди ответов модели.

Конечно же, Med-Gemini выбила SOTA. Результат: 91% на MedQA. Обратите внимание: это всего на 1п.п. лучше GPT-4, который специально не файнтюнился под медицину. Кроме того, стоит отметить, что MedQA - классический, но далеко не лучший бенчмарк для оценки такой модели (исследование).
👍42🔥10😁62
Data Secrets
Новости о дикой погоне за AI-специалистами на Google не заканчиваются. В последнее время отовсюду так и сыпятся подобные истории. Например Цукерберг, в отличии от Брина, сотрудникам с мольбами остаться еще не звонит, НО хантинговые емейлы уже пишет. Кстати…
Продолжается дикая погоня за ИИ-специалистами. На этот раз новости из Apple.

Как мы уже слышали, за 10 лет Apple скупила около 20 ИИ-стартапов, в первую очередь из-за людей. В том числе корпорацией выкуплены FaceShift, Fashwell, Emotient и другие.

Но это не все. Оказывается, Apple активно хантит сотрудников Google. С 2018 они переманили как минимум 36 топовых специалистов.

И еще одна интересная деталь: Apple рекламирует свои вакансии с работой из двух офисов в Цюрихе. При этом об одном из них неизвестно вообще ничего, на карте его нет и даже люди, живущие по соседству, не знают о его существовании.

Только секретных лабораторий нам не хватало…
33🤯20🌚10😁4👍2
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️

В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.

А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.

KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.

Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.

И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.

Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
145🔥54👍32🤯4🏆2👨‍💻1