Reflection 70B: новый лидер открытых ИИ-моделей (нет :))
Компания HyperWrite ( https://x.com/mattshumer_ ) презентовала Reflection 70B - новую открытую LLM.
Основана на Llama 3.1-70B Instruct, но с добавлением механизма самооценки и самокоррекции (Reflection).
Уникальность Reflection 70B заключается в способности распознавать и исправлять собственные ошибки благодаря методу "reflection tuning".
Модель демонстрирует превосходство над аналогами в тестах и готовится к интеграции в основной продукт HyperWrite.
В планах компании - выпуск еще более мощной версии Reflection 405B.
Больше мощных открыток! Где на это видеокарт только взять?!
Error: The model mattshumer/Reflection-Llama-3.1-70B is too large to be loaded automatically (282GB > 10GB). Please use Spaces
Полный размер - 282GB это примерно 12 карт 4090.
т.е. дома только в урезанном виде можно запустить.
Мне кажется даже если NVidia не будет выпускать новый камень для видеокарт, а просто выпустит что-то вроде AI Edition 4090 с 64Gb - их сметут.
Ну потому что 5 видеокарт можно как-то разместить в формате майнинг-фермы и Reflection в неё влезет тогда
Для 405B варианта понадобится 1,7Tb Видеопамяти!
Помянем.
UPD: Сам Reflection похоже оказался скамом и выливается в скандал. Детали в камментах.
Что не отменяет общей картины с требованиям моделей к железу.
#HyperWrite #ReflectionAI #OpenSourceAI
-------
@tsingular
Компания HyperWrite ( https://x.com/mattshumer_ ) презентовала Reflection 70B - новую открытую LLM.
Основана на Llama 3.1-70B Instruct, но с добавлением механизма самооценки и самокоррекции (Reflection).
Уникальность Reflection 70B заключается в способности распознавать и исправлять собственные ошибки благодаря методу "reflection tuning".
Модель демонстрирует превосходство над аналогами в тестах и готовится к интеграции в основной продукт HyperWrite.
В планах компании - выпуск еще более мощной версии Reflection 405B.
Больше мощных открыток! Где на это видеокарт только взять?!
Error: The model mattshumer/Reflection-Llama-3.1-70B is too large to be loaded automatically (282GB > 10GB). Please use Spaces
Полный размер - 282GB это примерно 12 карт 4090.
т.е. дома только в урезанном виде можно запустить.
Мне кажется даже если NVidia не будет выпускать новый камень для видеокарт, а просто выпустит что-то вроде AI Edition 4090 с 64Gb - их сметут.
Ну потому что 5 видеокарт можно как-то разместить в формате майнинг-фермы и Reflection в неё влезет тогда
Для 405B варианта понадобится 1,7Tb Видеопамяти!
Помянем.
UPD: Сам Reflection похоже оказался скамом и выливается в скандал. Детали в камментах.
Что не отменяет общей картины с требованиям моделей к железу.
#HyperWrite #ReflectionAI #OpenSourceAI
-------
@tsingular
👍11
Forwarded from Machinelearning
⚡️ LongCat-Flash-Omni - открытая 560B MoE-модель (27B активных параметров), которая умеет вести живой диалог в реальном времени, слышать, видеть и отвечать голосом.
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
🔥9✍6❤4⚡1
Forwarded from Machinelearning
Tencent выложила в open-source новую модель HunyuanOCR.
Это компактная, быстрая и полностью готовая end-to-end система для OCR, построенная на мультимодальной архитектуре Hunyuan.
Главное - при размере только 1 миллиард параметров она показывает результаты уровня крупных моделей и стоит в разы дешевле в запуске.
⚡ Топ по бенчмаркам
• 860 на OCRBench среди всех моделей до 3B
• 94.1 на OmniDocBench - лучший результат в задачах распознованяисложных документов
🌐 Что умеет HunyuanOCR
Модель закрывает практически все типы OCR задач
• текст на улицах, витринах, табличках
• рукописный текст и художественные шрифты
• сложные документы: таблицы, формулы, встроенный HTML и LaTeX
• субтитры в видео
• перевод текста на фото end-to-end сразу на 14 языков
Это не каскадный пайплайн, а единое решение
Один запрос и одно инференс-прогон дают готовый результат.
Это быстрее, надёжнее и удобнее, чем традиционные OCR-цепочки.
📌 Project Page
web: https://hunyuan.tencent.com/vision/zh?tabIndex=0
mobile: https://hunyuan.tencent.com/open_source_mobile?tab=vision&tabIndex=0
🔗 GitHub
https://github.com/Tencent-Hunyuan/HunyuanOCR
🤗 Hugging Face
https://huggingface.co/tencent/HunyuanOCR
📄 Technical Report
https://github.com/Tencent-Hunyuan/HunyuanOCR/blob/main/HunyuanOCR_Technical_Report.pdf
@ai_machinelearning_big_data
#HunyuanOCR #TencentAI #OCR #VisionAI #DeepLearning #Multimodal #AIModels #OpenSourceAI #ComputerVision #DocumentAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9⚡3❤2👍1