🧠 ChatGPT поставил диагноз, который не могли найти врачи за 10 лет
На Reddit набирает популярность история пользователя, который десятилетие мучился от странных симптомов. Он проходил МРТ, КТ, сдавал десятки анализов — врачи проверяли его даже на рассеянный склероз и болезнь Лайма. Но точного диагноза так и не было.
В отчаянии он решил попробовать ChatGPT: загрузил свои медицинские данные и попросил ИИ проанализировать всё.
🔍 Ответ оказался неожиданным: ChatGPT предположил редкую мутацию гена MTHFR, нарушающую усвоение витамина B12. Врач подтвердил диагноз — и лечение оказалось простым: нужно было лишь поднять уровень B12 в организме.
> «Прошло несколько месяцев, и мои симптомы почти исчезли», — пишет он.
💬 Самое интересное — он оказался не один. В комментариях десятки пользователей рассказали похожие истории: ИИ помогал находить редкие болезни, давал новые идеи, которые врачи упускали.
⚠️ Конечно, ChatGPT — не замена врачу. Но как второй взгляд, особенно когда традиционная медицина бессильна — он может реально помочь.
📌 Источник
🤔 А ты бы доверил свой диагноз ИИ?
На Reddit набирает популярность история пользователя, который десятилетие мучился от странных симптомов. Он проходил МРТ, КТ, сдавал десятки анализов — врачи проверяли его даже на рассеянный склероз и болезнь Лайма. Но точного диагноза так и не было.
В отчаянии он решил попробовать ChatGPT: загрузил свои медицинские данные и попросил ИИ проанализировать всё.
🔍 Ответ оказался неожиданным: ChatGPT предположил редкую мутацию гена MTHFR, нарушающую усвоение витамина B12. Врач подтвердил диагноз — и лечение оказалось простым: нужно было лишь поднять уровень B12 в организме.
> «Прошло несколько месяцев, и мои симптомы почти исчезли», — пишет он.
💬 Самое интересное — он оказался не один. В комментариях десятки пользователей рассказали похожие истории: ИИ помогал находить редкие болезни, давал новые идеи, которые врачи упускали.
⚠️ Конечно, ChatGPT — не замена врачу. Но как второй взгляд, особенно когда традиционная медицина бессильна — он может реально помочь.
📌 Источник
🤔 А ты бы доверил свой диагноз ИИ?
❤17👍3🔥2😁2
🚀Kafka must-have инструмент для современных проектов MLOps!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
Присоединяйся к вебинару и узнай, как настроить Kafka для обработки потоковых данных и интегрировать её в MLOps-проекты. Вебинар проходит в рамках подписки на курсы OTUS, которая даёт возможность приобрести 3 курса по цене одного.
🔑 Что будет:
— Практическое и теоретическое руководство по настройке Kafka в Docker и взаимодействию с ней через Python.
— Обзор инструментов для работы с Kafka: поднятие UI-интерфейса и управление потоками данных.
— Примеры использования Kafka для связи микросервисов и обзор ключевых функций, делающих её незаменимой брокером сообщений.
— Как использовать Kafka в MLOps: сбор данных для ML-моделей, мониторинг их работы и интеграция предсказаний в реальном времени.
🚀Регистрация по ссылке - https://otus.pw/18rU/
Подробнее о подписке OTUS - https://otus.pw/SMQu/
👉 Запишись сейчас, количество мест ограничено!
❤2👍1
🩺 II-Medical-32B-Preview - новый мощный медецинский LLm
🏆 90% на MedQA | 71.5% средний результат
(для сравнения: студенты-медики ~60%)
💻 Открытый, код и датасеты
🚀 Работает на одном GPU
+ Внутри 3 датасета:
II-Medical-SFT, II-Medical-RL, ChatDoctor-RL
https://huggingface.co/Intelligent-Internet/II-Medical-32B-Preview
🏆 90% на MedQA | 71.5% средний результат
(для сравнения: студенты-медики ~60%)
💻 Открытый, код и датасеты
🚀 Работает на одном GPU
+ Внутри 3 датасета:
II-Medical-SFT, II-Medical-RL, ChatDoctor-RL
https://huggingface.co/Intelligent-Internet/II-Medical-32B-Preview
🔥8🥰4❤3
📢 Skywork представила Skywork‑Reward‑V2 — новый подход к обучению reward‑моделей через синергию человека и ИИ
🔍 В свежем релизе Skywork показала, как масштабировать создание данных предпочтений (preference data) с помощью Human‑AI Synergy — совместного отбора, микширования и обучения.
Что важно:
✅ Детализированная методология по сбору и очистке данных для reward-моделей
✅ Использование различных источников: человеческие оценки, LLM-аннотации, активное обучение
✅ Комбинация нескольких подходов: supervision, self-training, rejection sampling, data ranking
✅ Отличные результаты на новом RewardBench 2 — одном из первых публичных сравнений моделей
🚀 Модели уже опубликованы: Skywork‑Reward‑V2 теперь доступна и готова к использованию в вашем fine-tuning пайплайне.
📖 Чтение обязательно для тех, кто строит RLAIF и хочет улучшить reward-сигналы без десятков тысяч ручных аннотаций.
🔗 Подробнее: https://huggingface.co/Skywork/Skywork-Reward-V2
🔍 В свежем релизе Skywork показала, как масштабировать создание данных предпочтений (preference data) с помощью Human‑AI Synergy — совместного отбора, микширования и обучения.
Что важно:
✅ Детализированная методология по сбору и очистке данных для reward-моделей
✅ Использование различных источников: человеческие оценки, LLM-аннотации, активное обучение
✅ Комбинация нескольких подходов: supervision, self-training, rejection sampling, data ranking
✅ Отличные результаты на новом RewardBench 2 — одном из первых публичных сравнений моделей
🚀 Модели уже опубликованы: Skywork‑Reward‑V2 теперь доступна и готова к использованию в вашем fine-tuning пайплайне.
📖 Чтение обязательно для тех, кто строит RLAIF и хочет улучшить reward-сигналы без десятков тысяч ручных аннотаций.
🔗 Подробнее: https://huggingface.co/Skywork/Skywork-Reward-V2
🔥 Beelzebub — продвинутый low-code honeypot с LLM 🔥
Beelzebub — легковесный honeypot-фреймворк с ядром LLM, текстом симулирующий «живую» систему. Позволяет безопасно ловить атакующих, создавая иллюзию реального сервера.
Основные возможности:
- Модульная настройка через YAML-конфиги для добавления сервисов и портов
- Поддержка SSH, HTTP, TCP и MCP-протоколов на основе ИИ
- Сбор метрик Prometheus и интеграция с ELK
- Запуск через Docker, Helm или Kubernetes
Быстрый старт:
📌 Github
Beelzebub — легковесный honeypot-фреймворк с ядром LLM, текстом симулирующий «живую» систему. Позволяет безопасно ловить атакующих, создавая иллюзию реального сервера.
Основные возможности:
- Модульная настройка через YAML-конфиги для добавления сервисов и портов
- Поддержка SSH, HTTP, TCP и MCP-протоколов на основе ИИ
- Сбор метрик Prometheus и интеграция с ELK
- Запуск через Docker, Helm или Kubernetes
Быстрый старт:
git clone https://github.com/mariocandela/beelzebub.git
cd beelzebub
docker-compose up -d
📌 Github
👍3❤2🔥1
Модель генерации изображений в стиле аниме основана на Stable Diffusion 1.5, генерирует в разрешении до 1024x1024 пикселей и использует предпоследний слой энкодера CLIP.
Diffusion Anime V2 распространяется под двойной лицензией, которая допускает только некоммерческое использование с обязательным указанием авторства. NovelAI напоминает, что V2 является устаревшей версией, а все новые модели остаются проприетарными и эксклюзивными для их веб-сервиса. Веса Diffusion Anime V2 доступны на Hugging Face.
blog.novelai.net
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1🔥1
Forwarded from Machinelearning
Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.
Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.
Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.
Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.
На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.
Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.
T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.
Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.
@ai_machinelearning_big_data
#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍2
✨ Google представили GenAI Processors — open-source библиотеку для создания AI-приложений в реальном времени
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
🔥4👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Крутой способ управлять AI-видео: LTX-Video с Control LoRA теперь доступен в Spaces!
🔥 Что это такое:
- Качество ControlNet, но без изменения архитектуры
- Летает быстрее большинства текущих решений
- Поддерживает 3 типа контроля: canny, depth, pose
Простое подключение, стабильный результат — попробуй генерацию с canny LoRA прямо сейчас👇
spaces/ltx-video/control-lora
https://huggingface.co/spaces/Lightricks/ltx-video-iclora
🔥 Что это такое:
- Качество ControlNet, но без изменения архитектуры
- Летает быстрее большинства текущих решений
- Поддерживает 3 типа контроля: canny, depth, pose
Простое подключение, стабильный результат — попробуй генерацию с canny LoRA прямо сейчас👇
spaces/ltx-video/control-lora
https://huggingface.co/spaces/Lightricks/ltx-video-iclora
👍2❤1
Forwarded from Machinelearning
Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.
Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.
Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.
На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.
Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.
Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.
В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.
Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.
@ai_machinelearning_big_data
#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2
Система готова из коробки и может сразу писать проекты любой сложности.
Что внутри:
• ИИ-агенты с разными ролями — один пишет код, другой проверяет, третий ищет уязвимости и передаёт задачи дальше по цепочке
• Генератор структуры проекта — помогает агентам понимать архитектуру и держать весь контекст
• Интеграция с MCP — ИИ использует только актуальные спецификации и документацию
🔧 Установка и подробности — по ссылке: https://github.com/peterkrueck/Claude-Code-Development-Kit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8😁4👍2❤1👎1🥰1
Forwarded from Machinelearning
MUVERA - алгоритм, разработанный Google Research, который сводит сложную задачу многовекторного поиска обратно к простому и быстрому MIPS, как в подходах с одним вектором.
Суть проста: вместо того чтобы работать с громоздким набором векторов, MUVERA сжимает его в единый вектор фиксированной длины, так называемый Fixed Dimensional Encoding (FDE). Главный трюк в том, что скалярное произведение этих новых FDE-векторов очень точно аппроксимирует исходную, «честную» метрику Чамфера.
На практике процесс выглядит как двухэтапный конвейер. Сначала MUVERA генерирует FDE для всех документов в базе и индексирует их с помощью обычного MIPS-солвера. Когда приходит запрос, для него тоже создается FDE, и система молниеносно находит небольшой список кандидатов. А уже затем этот короткий список переранжируется с использованием оригинальной, медленной, но точной метрики Чамфера. На выходе получаем и скорость, и качество.
В практическом сравнении с предыдущим SOTA методом PLAID, MUVERA показывает в среднем на 10% более высокую полноту выдачи при сокращении задержки на 90%. Чтобы достичь того же качества, алгоритму требуется отобрать в 5-20 раз меньше кандидатов для финального переранжирования.
Более того, эти FDE-векторы отлично сжимаются — до 32 раз с минимальной потерей качества.
Для тех. кто хочет попробовать, в репозитории проекта на Github есть реализации MUVERA на Python и C++ .
@ai_machinelearning_big_data
#AI #ML #LLM #MUVERA #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2🔥2