Machine learning Interview
30K subscribers
1.65K photos
139 videos
13 files
1.12K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🔥 AlphaEvolveИ против классической оптимизации, результат минус 15 000 км

Google показали кейс FM Logistic, и он куда интереснее, чем кажется на первый взгляд. Это не стартап с хаосом, а большая международная компания с уже хорошо оптимизированными процессами. Тем ценнее результат.

В центре история про классическую задачу коммивояжера. Нужно построить самый короткий маршрут через все точки. Формулировка простая, но на практике это одна из самых сложных задач оптимизации. Количество вариантов растет так быстро, что даже для сотни точек полный перебор невозможен.

Теперь масштаб. Склад FM Logistic это 17 700 точек и площадь примерно как 8 футбольных полей. Одновременно работают несколько операторов, маршруты ограничены по длине и должны строиться прямо в процессе работы. То есть это уже не учебная задача, а жесткий прод с кучей ограничений.

Они дали свой алгоритм AlphaEvolve и дальше началось самое интересное. Система сама генерировала новые версии решения, прогоняла их на реальных данных и отбирала лучшие по метрикам. По сути, это эволюция кода под реальные условия, а не лабораторная оптимизация.

В результате нашли конкретные улучшения, которые дали плюс 10.4% к эффективности маршрутов. В логистике это огромная цифра. В их случае это около 15 000 километров в год и серьезная экономия денег.

Решение уже работает в проде и его планируют масштабировать на другие склады. Хороший пример того, как агентный подход и эволюционные алгоритмы начинают менять не демки, а реальные бизнес-процессы.

https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥8
🔥 Лучшие курсы по ИИ, которые можно пройти бесплатно в 2026:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
NVIDIA: http://developer.nvidia.com/training
(топ уровень)
Огромный список лучших бесплатных курсов Data Science на русском: https://uproger.com/data-science-luchshie-besplatnye-kursy/
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
Математика машинного обучения: https://www.youtube.com/watch?v=ma50i4M5aAw
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
FastAI: http://course.fast.ai
Kaggle Learn: http://kaggle.com/learn
Stanford AI: http://cs231n.stanford.edu
MIT OpenCourseWare: http://ocw.mit.edu
Full Stack Deep Learning: http://fullstackdeeplearning.com
DeepMind Resources: http://deepmind.com/learning-resources
OpenAI Cookbook: http://github.com/openai/openai-cookbook
Papers With Code: http://paperswithcode.com
AssemblyAI Blog: http://assemblyai.com/blog
10👍8🔥5
После LLM Wiki Карпаты появился следующий уровень работы с контекстом

LLM читает источники, вытаскивает знания и собирает их в Markdown-вики с ссылками и связями. Получается база, которая не пересчитывается заново каждый раз.

Для ресёрча это работает отлично. Концепты и их связи почти не меняются.

Но как только ты переносишь это в реальную работу, модель начинает теряться.

Потому что рабочий контекст живой:
▫️ встречи
▫️ дедлайны
▫️ решения
▫️ договорённости

Вики хранит описание проекта. Но не хранит, что реально произошло и как это менялось.

И здесь появляется другой подход.

Rowboat берёт ту же базу с Markdown и Obsidian, но вместо вики строит граф знаний.

Каждая сущность становится отдельным объектом:
▫️ человек
▫️ решение
▫️ обязательство
▫️ дедлайн

И всё это связывается между собой через ссылки.

Разница ощущается сразу.

Вики даёт тебе «о чём был проект».
Граф даёт тебе:
▫️ кто принял решение
▫️ что именно пообещали
▫️ когда это сделали
▫️ что изменилось

Rowboat подтягивает данные из Gmail, Granola, Fireflies и разбивает разговоры не на страницы, а на факты.

Каждое решение или обязательство становится отдельным md-файлом с привязкой к людям и проектам.

Поверх этого крутятся фоновые агенты.

Например, ежедневный бриф собирается автоматически из всех изменений в графе. Ты сам контролируешь, что запускать и что записывать обратно.

Модель можно подключить любую:
▫️ через Ollama
▫️ LM Studio
▫️ или API

Все данные лежат в обычном Markdown. Можно открыть в Obsidian, изменить или удалить.

Карпаты показал, как компилировать знания.
Rowboat показывает, как фиксировать реальность работы.

Следующий шаг после «умной вики» это система, которая помнит не только идеи, но и решения.

Repo: https://github.com/rowboatlabs/rowboat
👍135🔥5💊2🤪1
Claude Opus 4.6 внезапно «потупил» на 67%

Появились данные, что новая версия Claude Opus думает заметно меньше. Минус 67% reasoning, и это уже прозвали AI shrinkflation.

Цена при этом не изменилась. А вот поведение изменилось. Пользователи отмечают более жёсткие ограничения и менее глубокие ответы.

Самое интересное, что Anthropic никак это не комментировали, пока цифры не начали разлетаться публично.

Есть версия, что это банальная оптимизация затрат. Меньше compute на текущей модели, чтобы освободить ресурсы под следующую, которую называют Mythos.

Если это так, то тренд становится очевидным. Модели будут не только умнеть, но и «ужиматься» под экономику. И не всегда в пользу качества.

Вопрос теперь не в том, какая модель сильнее на бенчмарках. А в том, какую версию ты реально получаешь сегодня в проде.
🤣19😱6👍54🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Anthropic отвязала мозги агентов от рук, и это меняет всю архитектуру

Сегодня Anthropic выкатила в открытую бету Claude Managed Agents. Вы описываете задачи, инструменты и guardrails, а платформа хостит и запускает долгоживущих агентов за вас.

Ключевое архитектурное решение: декомпозиция агента на три изолированных интерфейса. Session (append-only лог событий), Harness (stateless оркестратор вызовов модели) и Sandbox (среда исполнения кода). Каждый компонент независим, при падении перезапускается без потери состояния. Harness обращается к sandbox как к обычному tool call: execute(name, input) → string. Контейнер больше не "питомец", а "скот")

Зачем это сделано: первая версия пихала всё в один контейнер. Падал контейнер - терялась сессия. Credentials лежали рядом с пользовательским кодом, что открывало вектор для prompt injection. Подключить клиентский VPC можно было только через пиринг сетей.

Теперь sandbox физически изолирован от токенов (Git-ключи прошиваются при инициализации, OAuth живет в vault за прокси). TTFT на p50 упал на 60%, на p95 - больше чем на 90%. Архитектура поддерживает "many brains, many hands": один агент рулит несколькими sandbox-ами, агенты передают окружения друг другу.

Самое любопытное в философии. Anthropic называет это мета-harness и намеренно не фиксирует конкретную оркестрацию, потому что она устаревает с каждым поколением моделей. Они уже наступили на эти грабли: workaround для "context anxiety" в Sonnet 4.5 превратился в мертвый код на Opus 4.5. Ставка на стабильные интерфейсы при сменяемой реализации - ровно как POSIX, где read() одинаково работает для диска из 70-х и современного SSD.
Notion уже в закрытой альфе: команды делегируют задачи Claude прямо из воркспейса, десятки задач параллельно.

https://www.anthropic.com/engineering/managed-agents
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍74💊3
Модель OpenAI закрыла пять задач Эрдёша. Пять, Карл.

Команда OpenAI выложила статью, где их внутренняя модель доказала пять открытых задач Пала Эрдёша.

Не помогала доказывать, не подсказывала направление, а именно выдала доказательства, которые потом записали в статью на 28 страниц.

Задачи из комбинаторики, теории чисел и теории вероятностей. Среди них, например, вопрос про обыкновенные прямые в планарных множествах точек и теорема конечности для целых чисел с определенными свойствами простых делителей. Вещи, которые висели открытыми десятилетиями.
Важный контекст: это уже вторая такая статья (в названии прямо стоит "II").

То есть первая не была случайностью и разовым хайпом. Процесс поставлен на поток: берем открытую задачу, скармливаем модели, получаем доказательство, проверяем, публикуем.


Речь про "internal model". Не GPT-4o, не o1, не что-то публично доступное. Где-то внутри OpenAI сидит штука, которая щелкает задачи из списка Эрдёша. И мы пока не знаем, как далеко она ушла от того, чем мы пользуемся.

📄 arxiv.org/abs/2604.06609
🔥4113👍11🤣5😱3😢3
✔️ Cursor перевел ревьюера Bugbot на онлайн-обучение.

Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.

Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.

После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🔥1
🚨 scientific-agent-skills этобиблиотека из 130+ готовых навыков для агентов, которые работают с научными задачами.

Это процедурные навыки. То есть пошаговые сценарии, которые уже проверены и упакованы в формат, понятный агенту.

Агент получает не «знание», а готовый способ решать задачу.

Внутри покрываются реальные домены. Геномика, химия, анализ данных, молекулярное моделирование, прогнозирование.

Фактически формируется слой между моделью и реальным миром.

Ты не просишь LLM «сделай анализ». Ты даёшь ей skill, который уже знает, какие библиотеки использовать, какие шаги выполнить и какой результат вернуть.

https://github.com/K-Dense-AI/scientific-agent-skills
16👍8
😁38🤣14🥰52🔥2
🔥 Плохой день для хейтеров ИИ. Сообщество Linux согласилось принимать код, сгенерированный ИИ, если это не низкокачественный мусор.

При этом вся ответственность остаётся за людьми - именно они должны гарантировать, что код соответствует стандартам Linux.

Линус не шутит, когда речь идёт о качестве кода. Это серьёзный шаг. (уже слышно, как он орёт в PR-ах)

На этой неделе в проекте Linux kernel впервые официально разрешили использовать ИИ при написании кода. Но с важным условием - вся ответственность теперь полностью на разработчике.

Позиция Линуса Торвальдса максимально простая: ИИ - это просто инструмент. Если разработчик приносит плохой код, проблема не в инструменте, а в нём самом. Поэтому вместо запретов решили ужесточить правила ответственности.

Ключевой момент - подпись в коммите. Строка Signed-off-by теперь ещё жёстче закрепляет правило: только человек имеет право её ставить. Это юридическое подтверждение того, что именно ты отвечаешь за код. Никакие AI-агенты не могут это делать.

Если, например, Claude сгенерировал race condition в block layer, а ты это пропустил - это твой баг. В истории останется твоя подпись, не модели.

Контекст важен. Open-source сейчас буквально захлёбывается от AI-кода сомнительного качества. Уже есть последствия:

создатель cURL закрыл bug bounty из-за потока галлюцинированных патчей
tldraw начал автоматически закрывать внешние PR
Node.js и OCaml ловят гигантские AI-патчи на 10k+ строк

Linux выбрал самый прагматичный путь - не запрещать, а заставить отвечать.

ИИ можно использовать. Но теперь без иллюзий: написал ты. Проверил ты. Отвечаешь тоже ты.

🖥 Полезные Linux ресурсы 🚀 Max

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
22🔥14👍9💊2🤔1
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!

Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?

Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.

И 90% таких систем ломаются между ноутбуком и продом.

AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.

На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.

👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
😁6🔥32👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Умные агенты с OpenSpace: эволюция и экономия 💰

OpenSpace — это движок, который позволяет AI-агентам учиться и развиваться, превращая каждую задачу в возможность для улучшения. Он объединяет навыки, которые автоматически адаптируются и улучшаются, обеспечивая совместное использование знаний между агентами.

🚀 Основные моменты:
- Саморазвивающиеся навыки, которые учатся на реальном опыте
- Совместный интеллект: улучшения одного агента доступны всем
- Снижение затрат на 46% благодаря более эффективному использованию токенов
- Легкость в обмене навыками между агентами
- Реальные результаты: агенты зарабатывают в 4.2 раза больше

📌 GitHub: https://github.com/HKUDS/OpenSpace

#python
🔥83🤣3
⚡️ML-модели становятся центром принятия решений в подборе персонализированных рекламных оферов

Об этом рассказал Василий Разумных, технический директор «Т-Рекламы». По его словам, в основу рекламной платформы Т-Банка изначально заложены технологии машинного обучения, с помощью которых подбираются наиболее подходящие сегменты аудитории среди клиентов банка и в реальном времени генерируются креативы. Данные о поведении пользователей в финансовых сервисах, Шопинге, Супермаркетах и Путешествиях позволяют формировать целостный профиль и видеть пользователя не как набор разрозненных идентификаторов, а как единую сущность с определенными интересами и потребностями. При запросе система отбирает подходящие объявления и ранжирует их с помощью скоринговой модели. Она учитывает ряд факторов: экономическую эффективность для платформы, прогнозируемую вероятность целевого действия, качество креатива и репутацию рекламодателя.

При этом система учитывает уместность предложения для конкретного человека в определенный момент, а не только ставку рекламодателя.

По мнению эксперта, если приоритет отдается только цене, то качество выдачи для пользователя ухудшается. Поэтому в платформу внедрили многокритериальную оптимизацию, где учитывается прогноз вовлеченности. В итоге система пытается найти оптимальную точку пересечения между интересами пользователя и тем, что выгодно рекламодателю и площадке.

https://adindex.ru/publication/interviews/agency/2026/04/13/344156.phtml

@machinelearning_interview
8🥰4🤣4👍3
Есть еще живые программисты ?
💯41🌚53🔥3😁3🤔1
⭐️ Stanford выпустил AI Index 2026: 15 выводов, которые стоит знать каждому в индустрии

Stanford HAI опубликовал ежегодный AI Index Report за 2026 год - 423-страничный документ, который уже стал обязательным чтением для всех, кто работает с ИИ. Luiza Jarovsky собрала ключевые тезисы в одном треде, а мы разбираем их подробнее.

Возможности ИИ не выходят на плато. Они ускоряются и охватывают все больше людей. Те, кто ждал замедления прогресса, ошиблись - кривая по-прежнему идет вверх.

Разрыв между США и Китаем в производительности моделей фактически закрылся. Это серьезный сдвиг в геополитике ИИ, который меняет расклад сил на рынке.

США лидируют по количеству дата-центров для ИИ, но основная масса чипов производится на одном тайваньском заводе. Зависимость от TSMC остается критической уязвимостью всей индустрии.

Модели ИИ берут золото на Международной математической олимпиаде, но не могут надежно определить время. Исследователи называют это "зубчатой границей" (jagged frontier) - неравномерный профиль способностей, где прорывы соседствуют с провалами.

Роботы по-прежнему проваливают большинство бытовых задач, даже если отлично работают в контролируемых средах. Разрыв между лабораторией и реальным миром никуда не делся.

Ответственный ИИ не успевает за ростом возможностей. Бенчмарки безопасности отстают, а число инцидентов растет резко. Это тревожный сигнал для всей индустрии.

США лидируют по инвестициям в ИИ, но их способность привлекать глобальные таланты снижается. Деньги есть, а люди уезжают - не лучшая комбинация.

Внедрение ИИ идет с исторической скоростью. Пользователи получают значительную ценность от инструментов, к которым часто имеют бесплатный доступ. Порог входа для использования ИИ практически исчез.

Рост продуктивности от ИИ наблюдается в тех же сферах, где начинает сокращаться занятость начального уровня. Это не совпадение, а закономерность, которую уже нельзя игнорировать.

Экологический след ИИ расширяется вместе с его возможностями. Энергопотребление дата-центров становится все более заметным фактором.

Модели ИИ для науки превосходят ученых-людей, хотя более крупные модели не всегда работают лучше. Закон "больше параметров = лучше результат" перестает работать.

ИИ трансформирует клиническую практику, но строгих доказательств эффективности по-прежнему мало. Медицина требует другого уровня верификации.

Формальное образование отстает от ИИ, но люди осваивают навыки работы с ИИ на всех этапах жизни. Самообучение опережает университеты.

Суверенитет в сфере ИИ становится ключевым элементом национальной политики. Возможности распределены неравномерно, но open-source разработка помогает перераспределить участие.

Эксперты по ИИ и обычные люди смотрят на будущее технологии совершенно по-разному. Глобальное доверие к институтам, которые должны управлять ИИ, фрагментировано. Это создает проблему: технологию двигают те, кому общество не вполне доверяет.

Полный отчет (423 страницы): https://hai.stanford.edu/ai-index/2026-ai-index-report
Тред Luiza Jarovsky с кратким обзором: https://x.com/LuizaJarovsky/status/2044033970560512149
👍116🔥4🤣2
Трансформация профессии разработчика в эпоху ИИ

Профессия разработчика меняется прямо сейчас: ИИ уже пишет код, предлагает архитектуру и собирает прототипы за минуты. Но без фундаментальных знаний архитектуры, алгоритмов, сетей, безопасности и DevOps использовать такие инструменты рискованно.
Центральный университет запускает серию бесплатных вебинаров о том, как меняется роль разработчика в 2026 году, какие навыки остаются критически важными и как безопасно и эффективно использовать нейросети в разработке.

На вебинарах разберем:
— почему ИИ не заменит программиста, но изменит его роль;
— какие навыки и языки будут востребованы;
— чего ждут работодатели от разработчиков сегодня;
— почему магистратура по бэкенд-разработке может стать преимуществом;
— как вырасти в техлида и тимлида, не теряя технических экспертных знаний.

Спикеры — лидеры индустрии из Центрального университета, Авито и cloud. ru.
Даты вебинаров: 21, 23 и 27 апреля 2026, 19:00 мск.

Регистрируйся по ссылке
5🤣5👍4
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI представила модель GPT-5.4-Cyber для специалистов по кибербезопасности

В отличие от базовых версий, у модели снижен порог отказов: фильтры безопасности не блокируют запросы на поиск багов и оборонительное программирование.

GPT-5.4-Cyber получила продвинутые возможности бинарного реверс-инжиниринга - исследователи могут анализировать скомпилированное ПО на наличие вредоносных компонентов и уязвимостей, даже не имея доступа к исходному коду.

Из-за двойного назначения функционала доступ к модели строго регулируется. OpenAI распространяет новинку через программу Trusted Access for Cyber: нужна верификация личности, а корпоративным клиентам - одобрение профильного менеджера.
openai.com

⚡️ Anthropic внедряет систему верификации личности

Компания начала проверять личность пользователей в рамках регулярных процедур безопасности. Технический партнёр инициативы - сервис Persona. Для процедуры понадобится паспорт, водительские права или ID-карта, а также камера для селфи. Цифровые версии документов, ксерокопии и студенческие билеты система не принимает.

В Anthropic обещают не использовать собранные данные для обучения ИИ-моделей. Фото документов и биометрия шифруются и хранятся на серверах Persona. Разработчик Claude выступает лишь контроллером данных и запрашивает доступ к записям только в спорных ситуациях - например, при апелляции на блокировку аккаунта.
support.claude.com

✔️ World Labs выложила в опенсорс движок рендеринга 3D-сцен в браузере

Стартап представил открытый рендерер Spark 2.0 на базе THREE.js и WebGL2, который плавно отрисовывает локации из 100 млн 3D-гауссианов прямо в браузере. Обычное железо с трудом переваривает больше пяти миллионов точек, поэтому разработчикам пришлось полностью перестроить пайплайн загрузки графики.

Производительность обеспечивают три механизма. Иерархическая система детализации подбирает оптимальное количество гауссианов под выделенный бюджет рендеринга, сохраняя стабильный FPS. Тяжёлые ассеты обрабатываются стримингом: новый формат .RAD выводит базовый каркас, а затем динамически подтягивает детали в зависимости от угла обзора камеры. Память управляется через резервирование фиксированного пула на GPU и постраничного тасования блоков данных.

Ядро Spark 2.0 написано на Rust, скомпилировано в WebAssembly и вынесено в фоновый Web Worker. Изначально это был внутренний инструмент для ИИ-генератора 3D-миров Marble, но теперь он общедоступен.
worldlabs.ai

✔️ В Google Chrome добавили функцию Skills для промптов

В десктопной версии Chrome появилась функция Skills: больше не нужно повторно вводить запросы к Gemini. Удачные промпты теперь можно сохранять из истории чата и запускать в один клик через слэш или кнопку плюса.

Инструмент умеет обрабатывать как активную страницу, так и сразу несколько выбранных вкладок - это позволяет быстро сравнивать информацию или искать нужные данные в объёмных документах.

Google также подготовил библиотеку готовых skills, каждый из которых можно кастомизировать. Новая функция разворачивается на macOS, Windows и ChromeOS для англоязычных пользователей.
blog.google

✔️ Midjourney выпустила версию 8.1

ИИ-генератор изображений Midjourney обновился до версии 8.1. Главное нововведение - поддержка 2K. Создатели заявляют рост производительности в 3 раза по сравнению с V8, а стоимость генерации снизилась на две трети. В 1K-режиме V8.1 работает быстрее draft-режимов седьмого поколения модели.

Помимо оптимизации архитектуры, Midjourney прислушались к критике пользователей и вернули платформе узнаваемую художественную эстетику. В арсенал инструментов снова добавлена функция image-to-image, временно отключённая в предыдущей сборке.

Также команда обновила систему референсов стилей, доработала мудборды и представила обновлённую утилиту Describe для реверс-инжиниринга текстовых промптов по готовым изображениям.
Midjourney в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62🔥2🥴2
Apple отправляет своих разработчиков учиться делать ИИ.

Apple признала то, о чём раньше старались не говорить: даже инженерам Siri нужно переучиваться.

По данным The Information, компания отправляет почти 200 сотрудников команды Siri на многонедельный буткемп. Там их учат программировать с использованием AI-инструментов вроде Claude Code и Codex.

При этом около 60 инженеров остаются поддерживать основную разработку, ещё примерно 60 занимаются оценкой качества и безопасностью.

Всё это происходит за два месяца до WWDC в июне, где Apple планирует показать долгожданное обновление Siri на базе Gemini.

https://www.theinformation.com/articles/apple-sends-siri-staffers-coding-bootcamp-latest-shakeup-organization
🤪21👍76🔥5🍾1
OpenAI выкатила GPT-Rosalind, модель которая думает как учёный и ломает бенчмарки по биологии

OpenAI представила GPT-Rosalind, специализированную модель для биологии, медицинских исследований и поиска новых лекарств. В отличие от обычных LLM, она заточена не на болтовню, а на научную работу: читает публикации, выдвигает гипотезы и планирует эксперименты на сложных биологических системах.

Под капотом интеграция с более чем 50 научными инструментами и базами данных. Модель работает напрямую с генами, белками и молекулярными путями, встраиваясь в реальные исследовательские пайплайны, а не существуя в вакууме чата.

По цифрам результаты серьёзные. На BixBench модель выдала 0.751 и обошла предыдущие решения в 6 из 11 научных задач, показав сильный результат в биоинформатическом ризонинге. В совместных экспериментах с исследователями она превысила 95-й перцентиль человеческих экспертов на отдельных задачах предсказания структуры РНК.

Крупные биотех-компании уже тестируют GPT-Rosalind в реальных пайплайнах поиска лекарств. Если заявленные метрики подтвердятся в проде, это серьёзный сдвиг: узкоспециализированный научный агент с доступом к инструментам становится рабочей единицей R&D, а не игрушкой для демо.

https://openai.com/index/introducing-gpt-rosalind/
👍9🔥84
😁19👍95💊3