🔥 Руководство по разработке модели Responsible Foundation: обзор инструментов и ресурсов
Представляет собой постоянно растущую коллекцию из более чем 250 инструментов и ресурсов, охватывающих текстовые, визуальные и речевые аспекты
проект: https://fmcheatsheet.org
abs: https://arxiv.org/abs/2406.16746
@machinelearning_ru
Представляет собой постоянно растущую коллекцию из более чем 250 инструментов и ресурсов, охватывающих текстовые, визуальные и речевые аспекты
проект: https://fmcheatsheet.org
abs: https://arxiv.org/abs/2406.16746
@machinelearning_ru
👍3❤2🔥1
⚡️ Почитать о том, как файн-тюниный Mistral-7B + RAG может превзойти Claude 3 Opus и GPT-4o в некоторых популярных бенчмарках для генерации кода!
Повышение точности до 19%, увелеченеи скоросиь в 3,7 раза и снижаем затраты в 150 раз.
https://together.ai/blog/rag-fine-tuning
@machinelearning_ru
Повышение точности до 19%, увелеченеи скоросиь в 3,7 раза и снижаем затраты в 150 раз.
https://together.ai/blog/rag-fine-tuning
@machinelearning_ru
👍9❤2👎1🔥1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Nvidia представляет L4 GM!
Масштабную 4D-модель реконструкции, которая может превратить видео с одного просмотра в анимированный 3D-объект.
https://research.nvidia.com/labs/toronto-ai/l4gm
@machinelearning_ru
Масштабную 4D-модель реконструкции, которая может превратить видео с одного просмотра в анимированный 3D-объект.
https://research.nvidia.com/labs/toronto-ai/l4gm
@machinelearning_ru
👍10❤2🔥2😁1
⚡️ Как переводить экран любого приложения на русский двойным тапом
Читаем короткую статью на Хабре и настраиваем перевод.
▪️ Читать
@machinelearning_ru
Читаем короткую статью на Хабре и настраиваем перевод.
▪️ Читать
@machinelearning_ru
👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 AuraSR- это модлеь с открытым исходным
кодом для апскейлинга, с помощью GigaGAN от Adobe.
🤏 Параметры 600 М
⭐️ Отлично подходит для придания резкости и мелких деталей изображениям
▶️ https://huggingface.co/spaces/gokaygokay/AuraSR
@machinelearning_ru
кодом для апскейлинга, с помощью GigaGAN от Adobe.
🤏 Параметры 600 М
⭐️ Отлично подходит для придания резкости и мелких деталей изображениям
▶️ https://huggingface.co/spaces/gokaygokay/AuraSR
@machinelearning_ru
👍10👎2❤1🔥1
⚡️ Nvidia учит модели diffusion считать!
Count Gen может генерировать правильное количество объектов, указанное в подсказке ввода, сохраaняя при этом естественный формат, соответствующий подсказке.
• GIthub: https://github.com/Litalby1/make-it-count
• Project: https://make-it-count-paper.github.io/
@machinelearning_ru
Count Gen может генерировать правильное количество объектов, указанное в подсказке ввода, сохраaняя при этом естественный формат, соответствующий подсказке.
• GIthub: https://github.com/Litalby1/make-it-count
• Project: https://make-it-count-paper.github.io/
@machinelearning_ru
❤6🔥3👍2
⚡️ Гайд в которой показано, как создать чат-бота с помощью Gemma 2 9B
Здесь используется Keras 3, работает на любом сервере - JAX, PyTorch, TensorFlow. Лично рекомендую JAX для обеспечения лучшей производительности.
https://colab.research.google.com/github/google-gemini/gemma-cookbook/blob/main/Gemma/Keras_Gemma_2_Quickstart_Chat.ipynb
@machinelearning_ru
Здесь используется Keras 3, работает на любом сервере - JAX, PyTorch, TensorFlow. Лично рекомендую JAX для обеспечения лучшей производительности.
https://colab.research.google.com/github/google-gemini/gemma-cookbook/blob/main/Gemma/Keras_Gemma_2_Quickstart_Chat.ipynb
@machinelearning_ru
👍8❤2🔥2
Эффективность SotA в задачах манипулирования роботами превосходит подход, аналогичный RT-2
репозиторий: https://github.com/LostXine/LLaRA
abs: https://arxiv.org/abs/2406.20095
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
—
pip install local-gemma"[cpu]"local-gemma предоставляет простой и быстрый способ локального запуска Gemma-2 прямо из терминала (или можно использовать в коде как обычную библиотеку).
local-gemma построена на основе библиотек Transformers и bitsandbytes.
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍1🥰1🤔1
erid: LjN8KWxB8
Проверь свой модный уровень! Разгадай все фэшн-термины и получи подарок 🎁
Кофта с капюшоном или худи? Ботинки с дырками или броги? Если вы ищете вещи на Lamoda, необязательно знать все модные названия. Нейропоиск на платформе сделает все за вас: поймет контекст и предложит максимальное число вариантов. Даже если бренды называют вещь не так, как вы привыкли.
Но задумывались ли вы над тем, как правильно называются вещи на фэшн-языке?
Предлагаем проверить знания и выяснить, получится ли из вас модный инфлюенсер! Пройдите тест и угадайте все названия. А после участвуйте в розыгрыше сертификата от Lamoda Tech.
Для этого нужно подписаться на наш канал и поделиться результатом теста под постом с розыгрышем.
8 июля мы рандомно выберем трех счастливчиков и подарим им по сертификату на 10 000 рублей, чтобы лето стало еще более стильным 💃
➡️ Вперед за подарком!
Проверь свой модный уровень! Разгадай все фэшн-термины и получи подарок 🎁
Кофта с капюшоном или худи? Ботинки с дырками или броги? Если вы ищете вещи на Lamoda, необязательно знать все модные названия. Нейропоиск на платформе сделает все за вас: поймет контекст и предложит максимальное число вариантов. Даже если бренды называют вещь не так, как вы привыкли.
Но задумывались ли вы над тем, как правильно называются вещи на фэшн-языке?
Предлагаем проверить знания и выяснить, получится ли из вас модный инфлюенсер! Пройдите тест и угадайте все названия. А после участвуйте в розыгрыше сертификата от Lamoda Tech.
Для этого нужно подписаться на наш канал и поделиться результатом теста под постом с розыгрышем.
8 июля мы рандомно выберем трех счастливчиков и подарим им по сертификату на 10 000 рублей, чтобы лето стало еще более стильным 💃
➡️ Вперед за подарком!
👍4👎1
Storm-7B🌪️
Эта модель обеспечивает выигрыш в 50,5% по сравнению с GPT-4 Preview, что делает ее первой моделью с открытым исходным кодом, которая соответствует GPT-4 Preview в AlpacaEval 2.0.
📄https://arxiv.org/pdf/2406.11817
🤗https://huggingface.co/jieliu/Storm-7B
@machinelearning_ru
Эта модель обеспечивает выигрыш в 50,5% по сравнению с GPT-4 Preview, что делает ее первой моделью с открытым исходным кодом, которая соответствует GPT-4 Preview в AlpacaEval 2.0.
📄https://arxiv.org/pdf/2406.11817
🤗https://huggingface.co/jieliu/Storm-7B
@machinelearning_ru
👍5❤3🔥1
Лучший локальный LLM до 10B
Семейство InternLM-2.5 7B только что появилось на
https://huggingface.co/collections/internlm/internlm25-66853f32717072d17581bc13
Семейство InternLM-2.5 7B только что появилось на
https://huggingface.co/collections/internlm/internlm25-66853f32717072d17581bc13
👍7🔥1
CoIR: Комплексный бенчмарк для моделей генерации кода
Huawei представляет бенчмарк, включающий 10 датасетов для различных задач работы с кодом .
📝https://arxiv.org/abs/2407.02883
👨🏽💻https://github.com/CoIR-team/coir
@machinelearning_ru
Huawei представляет бенчмарк, включающий 10 датасетов для различных задач работы с кодом .
📝https://arxiv.org/abs/2407.02883
👨🏽💻https://github.com/CoIR-team/coir
@machinelearning_ru
👍4❤2🔥1
⚡️ Как устроена одна из крупнейших рекомендательных систем
При каждом запросе “баннерная крутилка” просматривает базу из миллиардов документов, чтобы выдать наиболее подходящие для пользователя. Но сделать это нужно, не только хорошо, но и быстро — всего за 0,2 секунды, ведь никто не хочет ждать, когда загрузится сайт. Как нейросети помогают в ранжировании, Яндекс рассказывает на Хабре.
habr: https://habr.com/ru/companies/yandex/articles/816205/
@machinelearning_ru
При каждом запросе “баннерная крутилка” просматривает базу из миллиардов документов, чтобы выдать наиболее подходящие для пользователя. Но сделать это нужно, не только хорошо, но и быстро — всего за 0,2 секунды, ведь никто не хочет ждать, когда загрузится сайт. Как нейросети помогают в ранжировании, Яндекс рассказывает на Хабре.
habr: https://habr.com/ru/companies/yandex/articles/816205/
@machinelearning_ru
🔥9👍3❤1
LazyDiffusion — это диффузионный трансформер, который очень быстро генерирует объекты по промпту в области, заданной маской. Генерируются только пиксели под маской, и время выполнения зависит больше от размера маски, чем от размера изображения.
Если маска размера ~10% от всего изображения, то LazyDiffusion показывает в 10 раз большую скорость, чем другие модели и методы инпейнтинга.
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥2
Этот учебник по Deep Learning поможет вам освоить основы нейросетей за одни выходные! Внутри вы найдете простые объяснения по Diffusion моделям, трансформерам, GNN, RL и многому другому — всё, что нужно для работы. Автор — настоящий гений, он изложил материал понятным языком и подготовил отличные практические задания.
И самое удивительное — учебник бесплатен и уже ждет вас!
https://udlbook.github.io/udlbook/
@machinelearning_ru
И самое удивительное — учебник бесплатен и уже ждет вас!
https://udlbook.github.io/udlbook/
@machinelearning_ru
👍16🔥6❤1
DeepMind’s New AI Found The Sound Of Pixels!
https://www.youtube.com/watch?v=YvHfCM0V5es
@machinelearning_ru
https://www.youtube.com/watch?v=YvHfCM0V5es
@machinelearning_ru
YouTube
DeepMind’s New AI Found The Sound Of Pixels!
❤️ Check out Weights & Biases and sign up for a free demo here: https://wandb.me/papers
If you are interested in a sponsorship:
https://form.jotform.com/241831324457354
DeepMind's Veo:
https://deepmind.google/discover/blog/generating-audio-for-video/
h…
If you are interested in a sponsorship:
https://form.jotform.com/241831324457354
DeepMind's Veo:
https://deepmind.google/discover/blog/generating-audio-for-video/
h…
❤2👍1🔥1
Forwarded from Machinelearning
TTT - это метод, который позволяет моделям искусственного интеллекта адаптироваться и учиться непосредственно во время использования, а не только во время предварительного обучения.
Основное преимущество TTT заключается в том, что он может эффективно обрабатывать длинные контексты (большие объемы входных данных) без значительного увеличения вычислительных затрат.
Исследователи провели эксперименты на различных наборах данных, включая книги, и обнаружили, что TTT часто превосходит традиционные методы.
По сравнительным бенчмаркам с другими популярными методами машинного обучения, такими как трансформеры и рекуррентные нейронные сети, было обнаружено, что в некоторых задачах TTT работает лучше.
Этот революционный метод позволит приблизиться к созданию более гибких и эффективных моделей искусственного интеллекта, способных лучше адаптироваться к новым данным в реальном времени.
На Github опубликованы адаптации метода:
- адаптация под Pytorch
- адаптация под JAX
@ai_machinelearning_big_data
#Pytorch #Jax #TTT #LLM #Training
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥1