В России появился первый онлайн-тренажер по математике в приложении Т-Банка “Число Т”. В нем собраны самые разные задачи, которые подбираются под каждого пользователя индивидуально: алгоритмы приложения анализируют его успеваемость и усложняют или упрощают задания. Также с помощью приложения можно повысить свою финансовую грамотность и даже начать осваивать IT-профессии. Задачи в приложении не повторяются, а игровая механика поддерживает интерес пользователей.
В Т-Банке отмечают, что любая инновация в современном цифровом мире всегда начинается с языка математики. Для того, чтобы поднять престиж и интерес к этой науке на новый уровень компания разработала ряд бесплатных инициатив, которые затем объединила в масштабный образовательный проект “Т=Математика”. “Число Т” позволяет детям в игровой форме узнавать новое, а взрослым –- поддерживать в тонусе работу мозга. В компании уверены, что интерес к математике у нового поколения и способность решать сложные задачи позволит обеспечить технологический суверенитет стране.
Так, запуск онлайн-тренажера “Число Т”, как и проведение ежегодного Всероссийского математического диктанта 1 декабря, стало частью образовательного проекта “Т=Математика”. Попробовать свои силы в онлайн-тренажере можно на сайте или в приложении банка.
В Т-Банке отмечают, что любая инновация в современном цифровом мире всегда начинается с языка математики. Для того, чтобы поднять престиж и интерес к этой науке на новый уровень компания разработала ряд бесплатных инициатив, которые затем объединила в масштабный образовательный проект “Т=Математика”. “Число Т” позволяет детям в игровой форме узнавать новое, а взрослым –- поддерживать в тонусе работу мозга. В компании уверены, что интерес к математике у нового поколения и способность решать сложные задачи позволит обеспечить технологический суверенитет стране.
Так, запуск онлайн-тренажера “Число Т”, как и проведение ежегодного Всероссийского математического диктанта 1 декабря, стало частью образовательного проекта “Т=Математика”. Попробовать свои силы в онлайн-тренажере можно на сайте или в приложении банка.
👍45😐22🔥12❤🔥4❤3🤔2
Hugging Face выпустили бесплатный открытый курс по файнтюнингу
В программе – теория и приктика по LoRA, файнтюнингу с учителем, DPO, ORPO и другим техникам alignment'а и настройки модели под ваши задачи. Все ноутбуки сделаны на примере SmolLM2 и вообще курс заточен под локальные модельки, но знания легко переносятся.
Полезная и крутая практика, особенно если реально имеете дело с файнтюнингом на работе или учитесь. Ссылка
В программе – теория и приктика по LoRA, файнтюнингу с учителем, DPO, ORPO и другим техникам alignment'а и настройки модели под ваши задачи. Все ноутбуки сделаны на примере SmolLM2 и вообще курс заточен под локальные модельки, но знания легко переносятся.
Полезная и крутая практика, особенно если реально имеете дело с файнтюнингом на работе или учитесь. Ссылка
👍91🔥30❤10☃3🍓2
Ух ты: Amazon вышли из спячки и релизнули новую линейку моделей Nova
В семейство вошли модели Nova Pro, Micro и Lite. Флагманская крупная Pro где-то на уровне Llama 3.2 90B. По некоторым бенчмаркам наступает на пятки Sonnet 3.5 и GPT-4o, но вряд ли все-таки будет полезнее в использовании (судить сложно, будем ждать результатов на арене). Зато цены приятные: $0.8/1M Input, $3.2/1M output. Это примерно треть цены GPT-4o. Контекст – 300К.
Micro и Lite, кажется, получились лучше. Lite примерно на уровне Gemini Flash, а Micro чуть хуже Haiku 3.5, но имеет отличную скорость: 157 input tokens/s, что быстрее, чем у Gemini 1.5 Flash, Llama 3.1 8B и GPT-4o mini.
Попробовать уже можно на Арене или на aws
В семейство вошли модели Nova Pro, Micro и Lite. Флагманская крупная Pro где-то на уровне Llama 3.2 90B. По некоторым бенчмаркам наступает на пятки Sonnet 3.5 и GPT-4o, но вряд ли все-таки будет полезнее в использовании (судить сложно, будем ждать результатов на арене). Зато цены приятные: $0.8/1M Input, $3.2/1M output. Это примерно треть цены GPT-4o. Контекст – 300К.
Micro и Lite, кажется, получились лучше. Lite примерно на уровне Gemini Flash, а Micro чуть хуже Haiku 3.5, но имеет отличную скорость: 157 input tokens/s, что быстрее, чем у Gemini 1.5 Flash, Llama 3.1 8B и GPT-4o mini.
Попробовать уже можно на Арене или на aws
👍35🔥11👏5☃1👌1
На случай важных переговоров краудсорсингов
Разработчик из Твиттера соединил Claude Sonnet и Flux и попросил их вместе разработать пропагандистские плакаты на тему популяризации ручной разметки и RLHF. В итоге получились футуристичные постеры с надписями вроде «Благословенные оценщики: каждый клик формирует нашу судьбу», «Ваши пальцы делают нас лучше», «Максимизируйте счастье и другие метрики» и прочее. Милота, в общем.
Пользуйтесь, когда в следующий раз будете уговаривать стажера разметить датасет👍
Разработчик из Твиттера соединил Claude Sonnet и Flux и попросил их вместе разработать пропагандистские плакаты на тему популяризации ручной разметки и RLHF. В итоге получились футуристичные постеры с надписями вроде «Благословенные оценщики: каждый клик формирует нашу судьбу», «Ваши пальцы делают нас лучше», «Максимизируйте счастье и другие метрики» и прочее. Милота, в общем.
Пользуйтесь, когда в следующий раз будете уговаривать стажера разметить датасет
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁71🔥32👍9👻3❤1
Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет 5 и 6 декабря 🍳
Делимся подробным расписанием онлайн-митапа, где исследователи расскажут про свои статьи на NeurIPS 2024.
5 декабря: YouTube, VK Bидео
6 декабря: YouTube, VK Bидео
Ведущий ИИшницы — Артур Кадурин, AIRI.
До встречи!
Делимся подробным расписанием онлайн-митапа, где исследователи расскажут про свои статьи на NeurIPS 2024.
5 декабря: YouTube, VK Bидео
◼️ 15:35
Вводный доклад про Optimal Transport — Александр Коротин, AIRI, Сколтех◼️ 15:45
Optimal Flow Matching: Learning Straight Trajectories in Just One Step — Никита Корнилов, МФТИ, Сколтех◼️ 16:05
Adversarial Schrödinger Bridge Matching — Даниил Селиханович, Сколтех◼️ 16:25
Light Unbalanced Optimal Transport — Милена Газдиева, Сколтех◼️ 16:45
Rethinking Optimal Transport in Offline Reinforcement Learning — Арип Асадулаев, AIRI, МФТИ, ИТМО◼️ 17:05
Energy-Guided Continuous Entropic Barycenter Estimation for General Costs — Александр Колесов, Сколтех◼️ 17:25
ENOT: Expectile Regularization for Fast and Accurate Training of Neural Optimal Transport — Назар Бузун, AIRI◼️ 17:45
On the Optimal Time Complexities in Decentralized Stochastic Asynchronous Optimization
Freya PAGE: First Optimal Time Complexity for Large-Scale Nonconvex Finite-Sum Optimization with Heterogeneous Asynchronous Computations
Shadowheart SGD: Distributed Asynchronous SGD with Optimal Time Complexity Under Arbitrary Computation and Communication Heterogeneity
Improving the Worst-Case Bidirectional Communication Complexity for Nonconvex Distributed Optimization under Function Similarity
— Александр Тюрин, AIRI◼️ 19:05
Group and Shuffle: Efficient Structured Orthogonal Parametrization — Михаил Горбунов, EPFL
6 декабря: YouTube, VK Bидео
◼️ 15:35
∇2DFT: A Universal Quantum Chemistry Dataset of Drug-Like Molecules and a Benchmark for Neural Network Potentials — Кузьма Храбров, AIRI◼️ 15:55
XLand-MiniGrid: Scalable Meta-Reinforcement Learning Environments in JAX — Александр Никулин, AIRI◼️ 16:15
BABILong: Testing the Limits of LLMs with Long Context Reasoning-in-a-Haystack — Юрий Куратов, AIRI, МФТИ◼️ 16:35
RClicks: Realistic Click Simulation for Benchmarking Interactive Segmentation — Антон Антонов, AIRI◼️ 16:55
HairFastGAN: Realistic and Robust Hair Transfer with a Fast Encoder-Based Approach — Максим Николаев, AIRI◼️ 17:15
EAI: Emotional Decision-Making of LLMs in Strategic Games and Ethical Dilemmas — Михаил Мозиков, AIRI, МИСИС
Ведущий ИИшницы — Артур Кадурин, AIRI.
До встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍29🤯16❤9🔥5😁5🤔2🙈1
Оказывается, у Twelve Labs, которые занимаются разработкой мультимодальных моделей с упором на видео, есть YouTube канал с еженедельными разборами свежих статей
В каждом выпуске ребята разбирают 2-4 статьи про мультимодальные LLM, сегментацию, генеративные архитектуры, новые подходы к эвалу и так далее. В последний выпуск, например, вошли папиры про Test-Time адаптацию, HallusionBench, Eagle и новую вариацию аттеншена.
Забирайте себе
В каждом выпуске ребята разбирают 2-4 статьи про мультимодальные LLM, сегментацию, генеративные архитектуры, новые подходы к эвалу и так далее. В последний выпуск, например, вошли папиры про Test-Time адаптацию, HallusionBench, Eagle и новую вариацию аттеншена.
Забирайте себе
👍41❤11🔥7
OpenAI приготовили всем в подарок на Рождество собственный адвент-календарь
Начиная с завтра и в течение 12 дней они будут ежедневно анонсировать что-то новое. Обещают что будут «запоминающиеся» релизы.
Полный хо-хо-хо от Сэма🚗
Начиная с завтра и в течение 12 дней они будут ежедневно анонсировать что-то новое. Обещают что будут «запоминающиеся» релизы.
Полный хо-хо-хо от Сэма
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥115🎅26❤8🌚6👍1🎄1🗿1