Neural Networks | Нейронные сети
1.61K subscribers
117 photos
33 videos
19 files
628 links
Нейронные сети в действии! Обучающие материалы и эксперименты. Также подписывайтесь на группу VK: https://vk.com/neurolearn

📨 Сотрудничество: @thelans
Download Telegram
​​Факт-чекинг для LLM: Может ли дообучение на новых данных вызвать галлюцинации?

📚 Основные моменты:
- Дообучение больших языковых моделей (LLM) на новых фактических данных может привести к генерации фактически неверных ответов, известных как галлюцинации.
- Контролируемые исследования в задачах вопросов и ответов (QA) показывают, что LLM сложно быстро усваивать новую информацию через дообучение.
- Примеры новых данных усваиваются значительно медленнее, чем те, которые соответствуют уже известным модели знаниям.

🔍 Результаты:
- По мере постепенного усвоения новой информации через дообучение, склонность LLM к галлюцинациям линейно возрастает.
- Лучшие результаты достигаются, когда модель усваивает большинство известных примеров, но только несколько новых.
- Введение слишком большого количества новой информации во время дообучения может снизить общую точность модели.

⚠️ Выводы:
- Необходимо тщательно балансировать количество новых данных при дообучении, чтобы предотвратить галлюцинации.
- LLM в основном приобретают фактические знания через предобучение, а дообучение оптимизирует использование этих знаний.

🤖 Детали исследования:
- Исследование включает смесь известных и новых примеров во время дообучения.
- Точная категоризация примеров на известные и новые с помощью структуры SliCK помогает оценить поведение модели при обучении.

#LLM #МашинноеОбучение #AIResearch #Дообучение #Галлюцинации

🔗 Читать полную статью
This media is not supported in your browser
VIEW IN TELEGRAM
[Трансформер] на пальцах (буквально) ✍️📺
5-минутный видеоурок


Короткое видео, чтобы объяснить устройство "Трансформеров".

За 5 минут демонстрируется основная математика Трансформеров, с помощью ручки и бумаги!

@machinelearning_ru
​​🔬⚡️ Test-Time Training RNN (ТТТ) - новый прорыв в машинном обучении! 🚀

Self-attention справляется с длинным контекстом, но имеет квадратичную сложность. Существующие слои RNN линейно сложны, но ограничены способностью скрытых состояний. Мы предлагаем новый класс слоев моделирования последовательностей с линейной сложностью и выразительными скрытыми состояниями.

💡 Главная идея: сделать скрытое состояние моделью машинного обучения и обновлять его путем самообучения даже на тестовых последовательностях. Наши слои называются Test-Time Training (TTT), и мы предлагаем две реализации: TTT-Linear и TTT-MLP.

👥 Исследования показывают, что TTT-Linear и TTT-MLP превосходят существующие модели. Они эффективно используют длинный контекст и показывают значительную производительность по сравнению с Transformer и Mamba.

📊 TTT-Linear уже быстрее Transformer при контексте 8k и сопоставим с Mamba по времени выполнения. TTT-MLP ориентирован на дальнейшие исследования и решает проблемы с памятью ввода-вывода, открывая новые горизонты для будущих исследований.

Для подробностей и доступа к статье посетите arXiv:
🟡Arxiv

🔗 Код доступен в JAX и PyTorch.
🖥 GitHub for Pytorch Stars: 277 | Issues: 3 | Forks: 12
🖥 GitHub for Jax [ Stars: 129 | Issues: 1 | Forks: 6 ]

Не пропустите этот инновационный шаг в машинном обучении! 🚀

#MachineLearning #RNN #AI #Research #Innovation
🚀 Векторные базы данных: простым языком про устройство и принцип работы

⚙️ Проблема
Нужно находить объекты, похожие по характеристикам. Простой подход через поиск совпадений слишком примитивен и не учитывает контексты и синонимы.

👾 Решение в лоб
Сравнение текстов или данных по количеству совпадений недостаточно. Требуется более умный метод для глубокого понимания объектов.

💡 Машинное обучение и векторизация
Машинное обучение решает задачу путем представления объектов (слова, текста, изображения) в виде числовых векторов. Эти вектора помогают компьютерам "понимать" данные. Разные методы, такие как Bag of Words, TF-IDF или Word2Vec, помогают векторизировать объект.

🔥 Векторные базы данных (ВБД)
Векторные базы данных (ВБД) — это NoSQL решения для хранения, индексирования и поиска похожих векторов, обеспечивая:
- Рекомендательные системы (например, рекомендации товаров)
- Поисковые системы (поиск по смысловому содержанию текста)
- Анализ изображений и видео (поиск похожих картинок)

🔍 Как это работает:
1. Преобразование объекта в вектор с помощью векторизатора.
2. Сохранение вектора и метаданных на диск.

📥 Чтение данных
Когда приложение отправляет новый объект для рекомендации:
1. Векторизуем объект той же моделью, получая вектор той же размерности.
2. Ищем наиболее близкий вектор. Возможна предварительная фильтрация по метаданным (например, длина текста > n).
3. Для ускорения поиска используется индексация, замедляющая запись, но делающая чтение быстрее. Разные базы данных могут предлагать различные сортиры и алгоритмы индексации.

Некоторые ВБД поддерживают только хранение, индексацию и чтение, а другие предлагают готовые векторизаторы, избавляя от необходимости писать и обучать свои модели.

#ВБД #МашинноеОбучение #РекомендательныеСистемы #Векторизация #IT #БазыДанных
​​🚀 Векторные базы данных: простым языком про устройство и принцип работы
https://habr.com/ru/companies/tochka/articles/809493/

⚙️ Проблема
Нужно находить объекты, похожие по характеристикам. Простой подход через поиск совпадений слишком примитивен и не учитывает контексты и синонимы.

👾 Решение в лоб
Сравнение текстов или данных по количеству совпадений недостаточно. Требуется более умный метод для глубокого понимания объектов.

💡 Машинное обучение и векторизация
Машинное обучение решает задачу путем представления объектов (слова, текста, изображения) в виде числовых векторов. Эти вектора помогают компьютерам "понимать" данные. Разные методы, такие как Bag of Words, TF-IDF или Word2Vec, помогают векторизировать объект.

🔥 Векторные базы данных (ВБД)
Векторные базы данных (ВБД) — это NoSQL решения для хранения, индексирования и поиска похожих векторов, обеспечивая:
- Рекомендательные системы (например, рекомендации товаров)
- Поисковые системы (поиск по смысловому содержанию текста)
- Анализ изображений и видео (поиск похожих картинок)

🔍 Как это работает:
1. Преобразование объекта в вектор с помощью векторизатора.
2. Сохранение вектора и метаданных на диск.

📥 Чтение данных
Когда приложение отправляет новый объект для рекомендации:
1. Векторизуем объект той же моделью, получая вектор той же размерности.
2. Ищем наиболее близкий вектор. Возможна предварительная фильтрация по метаданным (например, длина текста > n).
3. Для ускорения поиска используется индексация, замедляющая запись, но делающая чтение быстрее. Разные базы данных могут предлагать различные сортиры и алгоритмы индексации.

Некоторые ВБД поддерживают только хранение, индексацию и чтение, а другие предлагают готовые векторизаторы, избавляя от необходимости писать и обучать свои модели.

#ВБД #МашинноеОбучение #РекомендательныеСистемы #Векторизация #IT #БазыДанных
Forwarded from Культурный Кавер (Дмитрий)
Дубляж умер: завирусились видео с нейропереводом актёров на русский — голоса не отличить от настоящих, а губы пугающе точно попадают в речь.
Возможно, скоро мы увидим новую жизнь старых музыкальных клипов на всех языках мира.
#нейрозвук #нейровидео
🎬 Магия видео генерации теперь для всех: знакомьтесь с Klingai.com! 🚀

Раньше искусственный интеллект, который создавал потрясающие видеоролики, был доступен лишь избранным в Китае. Но времена меняются, и теперь каждый из нас может прикоснуться к этой магии благодаря Klingai.com! 🌐

Klingai.com — это суперсовременный генератор видео от топовых китайских разработчиков. 📹 Он позволяет создавать видео выдающегося качества, и всё это с помощью ИИ! 🤖 Да, у сервиса есть свои нюансы, но главное — теперь он открыт для всех желающих! 👐

Так что не упустите шанс проявить своё творчество! Начинать творить прямо сейчас проще простого! 🎨🔥

Заходите на Klingai.com и создавайте свои уникальные видеошедевры! 💡💥
Forwarded from Machinelearning
🌟 OpenCoder - модели для кодинга, cookbook обучения и датасеты.

OpenCoder - это открытое и воспроизводимое семейство LLM для программирования, включающее 1,5B и 8B базовые и instruct версии, поддерживающее английский и китайский языки.

Семейство моделей OpenCoder обучалось с нуля на 2,5 трлн. лексем, состоящих на 90 % из сырого кода и на 10 % из веб-данных, связанных с кодом, и прошло отладку на более чем 4,5 млн. высококачественных примеров SFT, в итоге достигнув производительности топовых LLM с похожей специализацией.

В открытый доступ опубликованы не только веса моделей и код для инференса, но и датасеты, полный цикл обработки данных, результаты экспериментальной абляции и подробные протоколы обучения.

OpenCoder тщательно протестирован с помощью исследований абляции на различных стратегиях очистки данных и процессах обучения, включая эксперименты по дедупликации на уровне файлов и репозиториев, что обеспечило семейству тщательную проверку производительности моделей.

OpenCoder достигает высокой производительности в различных бенчмарках, что ставит их в ряд SOTA-моделей с открытым исходным кодом для задач программирования.

▶️ Семейство моделей OpenCoder :

🟢OpenCoder-1.5B-Base, 4 тыс. токенов контекста;

🟢OpenCoder-8B-Base, 8 тыс. токенов контекста;

🟠OpenCoder-1.5B-Instruct, 4 тыс. токенов контекста;

🟠OpenCoder-8B-Instruct, 8 тыс. токенов контекста;

▶️ Датасеты:

🟢OpenCoder-SFT-Stage1, 4.21 млн. строк;

🟠OpenCoder-SFT-Stage2, 375 тыс.строк.


▶️ Пример инференса на HF Transformers:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "infly/OpenCoder-8B-Instruct"
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

messages=[
{ 'role': 'user', 'content': "write a quick sort algorithm in python."}
]

inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")

outputs = model.generate(inputs, max_new_tokens=512, do_sample=False)

result = tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True)



🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Набор датасетов
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #OpenCoder #Datasets
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла крутая нейронка для кодинга — Qwen2.5-Coder-32B-Instruct. Модель выложили в открытый доступ, её можно скачать и пользоваться бесплатно.

По многим параметрам она круче ChatGPT-4. Причина этому — масштабное обучение модели на 5,2 триллионах токенов, в то время как GPT-4o — лишь на сотнях миллиардов.

Забираем имбу — тут.

@techmedia
Новое открытие в сфере ИИ - это адаптивные модели Lora для проекта FLUX, доступные на платформе Hugging Face: ссылка на модели 🌐.

За полгода существования FLUX, сообществом было обучено и загружено более 7500 моделей. Несмотря на то, что часть из них может не оправдать ожиданий и содержать ненадлежащий контент, впечатляет сам объём работы и вклада сообщества 🤖.

Оцените разнообразие и примите участие в развитии этой области!