🩺 Google выпустила MedGemma — открытые модели ИИ для медицины
На Hugging Face вышла коллекция MedGemma, созданная Google на базе Gemma 3 специально для медицинских задач. Это мощные модели, способные анализировать как текст, так и медицинские изображения — от рентгена до дерматологии.
📦 В коллекции:
•
•
•
🔍 Что умеют:
✅ Обнаружение патологий на рентген-снимках
✅ Ответы на медицинские вопросы (VQA)
✅ Генерация медицинских отчётов
✅ Обработка клинических заметок, триажа, историй болезни
📊 Бенчмарки:
• CheXpert F1 (Top‑5): 48.1 vs 31.2 у базовой
• DermMCQA точность: 71.8%
• VQA‑Rad F1: 49.9
🧪 Пример использования:
🔗 Hugging Face: https://huggingface.co/collections/google/medgemma-release-680aade845f90bec6a3f60c4
📝 Лицензия: Apache 2.0 (с медицинским соглашением)
#MedGemma #GoogleAI #Gemma3 #HealthcareAI #RadiologyAI #MedicalAI #OpenSourceAI #HuggingFace
На Hugging Face вышла коллекция MedGemma, созданная Google на базе Gemma 3 специально для медицинских задач. Это мощные модели, способные анализировать как текст, так и медицинские изображения — от рентгена до дерматологии.
📦 В коллекции:
•
medgemma-4b-it — мультимодальная модель (текст + изображения) •
medgemma-4b-pt — предварительно обученная версия •
medgemma-27b-text-it — огромная текстовая модель для клинической документации🔍 Что умеют:
✅ Обнаружение патологий на рентген-снимках
✅ Ответы на медицинские вопросы (VQA)
✅ Генерация медицинских отчётов
✅ Обработка клинических заметок, триажа, историй болезни
📊 Бенчмарки:
• CheXpert F1 (Top‑5): 48.1 vs 31.2 у базовой
• DermMCQA точность: 71.8%
• VQA‑Rad F1: 49.9
🧪 Пример использования:
from transformers import pipeline
pipe = pipeline("image-text-to-text", model="google/medgemma-4b-it")
🔗 Hugging Face: https://huggingface.co/collections/google/medgemma-release-680aade845f90bec6a3f60c4
📝 Лицензия: Apache 2.0 (с медицинским соглашением)
#MedGemma #GoogleAI #Gemma3 #HealthcareAI #RadiologyAI #MedicalAI #OpenSourceAI #HuggingFace
👍22❤16🔥6
🌍 NVIDIA лидирует в опенсорсе в области ИИ, а китайские лаборатории только догоняют.
Всего пару лет назад большинство моделей - особенно крупные языковые - были закрыты
.
Теперь всё иначе: экосистема открытого ИИ растёт взрывными темпами. Только за последние 90 дней на Hugging Face появилось более миллиона новых репозиториев.
NVIDIA вышла в лидеры по количеству открытых проектов в 2025 году: серии Nemotron, BioNeMo, Cosmos, Gr00t и Canary.
Китайские компании (Alibaba Cloud с Qwen, Baidu, Tencent и другие) активно догоняют и уже способны конкурировать с западными лабораториями.
Открытый ИИ стал не только про гигантов - тысячи независимых разработчиков публикуют модели, датасеты и адаптации (например, LoRA). Это превращается в целое движение.
Меняется глобальная карта ИИ: Китай и США усиливают позиции, а Европа и другие страны всё больше уходит в тень.
⚠️ Но есть нюансы:
Открытость ≠ качество: важно следить за достоверностью данных, этикой и устойчивостью моделей.
Рост числа репозиториев требует фильтрации — не всё из нового имеет практическую ценность.
Лицензии и совместимость становятся критически важными: ошибки здесь могут стоить дорого.
📎 Подробнее: https://aiworld.eu/story/nvidia-leads-open-source-ai-momentum-as-chinese-labs-close-in
#OpenSourceAI #NVIDIA #China #Innovation #AI #Ecosystem
Всего пару лет назад большинство моделей - особенно крупные языковые - были закрыты
.
Теперь всё иначе: экосистема открытого ИИ растёт взрывными темпами. Только за последние 90 дней на Hugging Face появилось более миллиона новых репозиториев.
NVIDIA вышла в лидеры по количеству открытых проектов в 2025 году: серии Nemotron, BioNeMo, Cosmos, Gr00t и Canary.
Китайские компании (Alibaba Cloud с Qwen, Baidu, Tencent и другие) активно догоняют и уже способны конкурировать с западными лабораториями.
Открытый ИИ стал не только про гигантов - тысячи независимых разработчиков публикуют модели, датасеты и адаптации (например, LoRA). Это превращается в целое движение.
Меняется глобальная карта ИИ: Китай и США усиливают позиции, а Европа и другие страны всё больше уходит в тень.
⚠️ Но есть нюансы:
Открытость ≠ качество: важно следить за достоверностью данных, этикой и устойчивостью моделей.
Рост числа репозиториев требует фильтрации — не всё из нового имеет практическую ценность.
Лицензии и совместимость становятся критически важными: ошибки здесь могут стоить дорого.
📎 Подробнее: https://aiworld.eu/story/nvidia-leads-open-source-ai-momentum-as-chinese-labs-close-in
#OpenSourceAI #NVIDIA #China #Innovation #AI #Ecosystem
❤11👍7🔥2
PINA теперь официально входит в PyTorch Ecosystem — и приносит в него единый фреймворк для Scientific Machine Learning.
PINA — это открытая Python-библиотека, построенная на PyTorch и PyTorch Lightning, с совместимостью с PyTorch Geometric. Она упрощает весь SciML-пайплайн: от моделирования физических систем и решения PDE до построения ML-силовых полей и симуляции динамики.
Фреймворк модульный: чёткая структура для постановки задачи, дизайна модели, выбора солвера и обучения. Это даёт гибкость для исследования и воспроизводимость для инженерии.
🔗 Подробнее о проекте и способах участия:
https://pytorch.org/blog/pina-joins-the-pytorch-ecosystem-a-unified-framework-for-scientific-machine-learning/
#PyTorch #OpenSourceAI #SciML #MachineLearning
PINA — это открытая Python-библиотека, построенная на PyTorch и PyTorch Lightning, с совместимостью с PyTorch Geometric. Она упрощает весь SciML-пайплайн: от моделирования физических систем и решения PDE до построения ML-силовых полей и симуляции динамики.
Фреймворк модульный: чёткая структура для постановки задачи, дизайна модели, выбора солвера и обучения. Это даёт гибкость для исследования и воспроизводимость для инженерии.
🔗 Подробнее о проекте и способах участия:
https://pytorch.org/blog/pina-joins-the-pytorch-ecosystem-a-unified-framework-for-scientific-machine-learning/
#PyTorch #OpenSourceAI #SciML #MachineLearning
❤12🔥9🥰2
⚡️ Вышел PyTorch 2.12,
Что завезли:
- batched
- появился новый
-
- Adagrad теперь умеет
- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов
PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.
Особенно интересен
А ускорение
pytorch.org/blog/pytorch-2-12-release-blog
#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
Что завезли:
- batched
linalg.eigh на CUDA теперь может работать до 100x быстрее- появился новый
torch.accelerator.Graph для graph capture и replay на разных ускорителях-
torch.export.save получил поддержку Microscaling quantization- Adagrad теперь умеет
fused=True- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов
PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.
Особенно интересен
torch.accelerator.Graph. Это шаг к более нормальной абстракции над CUDA, XPU и внешними backend-ами, чтобы код меньше зависел от конкретного ускорителя.А ускорение
linalg.eigh до 100x - хороший пример того, как одна внутренняя замена backend-логики может превратить минуты ожидания в секунды.pytorch.org/blog/pytorch-2-12-release-blog
#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
👍13❤11🔥6🥱3