Вышла Gemini 2.5 Flash Image
Причем, уверены, многим из вас модель уже знакома под другим именем: nano-banana. Она всю неделю хайповала в X. В целом, не было секретом, что это моделька от Google (их топы прямо скажем недвусмысленно намекали). Сегодня наконец-то мы дождались официального релиза.
Итак, это модель для генерации и редактирования изображений. И если генерацией уже никого не удивить, то способности Gemini к эдиту действительно заслуживают внимания.
Отлично держит айдентику персонажа и консистентность картинки в целом. На вход можно давать и текст, и картинки: перенос стиля работает, судя по примерам, очень прилично.
Еще из интересного: пишут, что модель может рассуждать. То есть не просто генерирует в тупую, а руководствуется общей логикой мира, которую черпает из знаний Gemini 2.5 Flash. Например, может самостоятельно понять, что должно происходить на следующем кадре сценария (см пример 3).
Ну короче, новый SOTA ИИ-фотошоп, расходимся
Блогпост
– Попробовать можно в AI Studio (стоит 39$ за тысячу изображений, в целом человечно)
Причем, уверены, многим из вас модель уже знакома под другим именем: nano-banana. Она всю неделю хайповала в X. В целом, не было секретом, что это моделька от Google (их топы прямо скажем недвусмысленно намекали). Сегодня наконец-то мы дождались официального релиза.
Итак, это модель для генерации и редактирования изображений. И если генерацией уже никого не удивить, то способности Gemini к эдиту действительно заслуживают внимания.
Отлично держит айдентику персонажа и консистентность картинки в целом. На вход можно давать и текст, и картинки: перенос стиля работает, судя по примерам, очень прилично.
Еще из интересного: пишут, что модель может рассуждать. То есть не просто генерирует в тупую, а руководствуется общей логикой мира, которую черпает из знаний Gemini 2.5 Flash. Например, может самостоятельно понять, что должно происходить на следующем кадре сценария (см пример 3).
Ну короче, новый SOTA ИИ-фотошоп, расходимся
Блогпост
– Попробовать можно в AI Studio (стоит 39$ за тысячу изображений, в целом человечно)
1❤🔥69❤33🔥18 9👍8👌1
Data Secrets
Хаха, зацените: внутренний мерч Anthropic Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате) Теперь срочно надо такую же 😛
Продолжаем рубрику «гениальный ИИ-мерч»
1😁286🔥40👍18❤14👾4💘3
Как минимум трое только что нанятых исследователей уже покинули основанную совсем недавно лабораторию Meta Superintelligence Labs
Об этом пишет Wired. С момента запуска MSL не прошло и двух месяцев, и волна громких перекупов сотрудников Цукербергом еще даже толком не кончилась, но… Кто-то уже решил покинуть организацию.
Причем уходят исследователи не куда-то, а к Альтману.
Один из сотрудников – Ави Верма – работал в OpenAI непосредственно до MSL, и сейчас вернулся обратно. Другой – Итан Найт – до Meta трудился в xAI, а еще ранее в OpenAI; но сейчас тоже решил снова присоединиться к Сэму.
А третий, Ришаб Агарвал, просто решил, что пора ему на пенсию и, мол, устал он от этих ваших лабораторий.
Что тут сказать?
1. Надеемся хотя бы часть своих гигантских бонусов за переходы эти трое успели получить. Так история сразу становится намного интереснее✨
2. С одной стороны, определённая текучка кадров – это нормально для организации такого масштаба, особенно в условиях агрессивного ИИ-хантинга. С другой стороны, ни о чем хорошем такие резкие переходы не говорят. В MSL определенно есть проблемы с организацией и структурой, и даже огромными материальными бонусами их не перекрыть.
А, и кстати, плюсом к этому Meta сейчас теряет своего директора по продукту в области генеративного ИИ – Чаю Наяк. В отличие от других, она работала в компании около 10 лет. Куда она уходит, вы, наверное, и сами уже поняли🔵
Об этом пишет Wired. С момента запуска MSL не прошло и двух месяцев, и волна громких перекупов сотрудников Цукербергом еще даже толком не кончилась, но… Кто-то уже решил покинуть организацию.
Причем уходят исследователи не куда-то, а к Альтману.
Один из сотрудников – Ави Верма – работал в OpenAI непосредственно до MSL, и сейчас вернулся обратно. Другой – Итан Найт – до Meta трудился в xAI, а еще ранее в OpenAI; но сейчас тоже решил снова присоединиться к Сэму.
А третий, Ришаб Агарвал, просто решил, что пора ему на пенсию и, мол, устал он от этих ваших лабораторий.
Что тут сказать?
1. Надеемся хотя бы часть своих гигантских бонусов за переходы эти трое успели получить. Так история сразу становится намного интереснее
2. С одной стороны, определённая текучка кадров – это нормально для организации такого масштаба, особенно в условиях агрессивного ИИ-хантинга. С другой стороны, ни о чем хорошем такие резкие переходы не говорят. В MSL определенно есть проблемы с организацией и структурой, и даже огромными материальными бонусами их не перекрыть.
А, и кстати, плюсом к этому Meta сейчас теряет своего директора по продукту в области генеративного ИИ – Чаю Наяк. В отличие от других, она работала в компании около 10 лет. Куда она уходит, вы, наверное, и сами уже поняли
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁122 42 29❤9👍8🐳3 3🔥2🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Снова делимся крутыми релизами подписчиков: на этот раз на повестке огромный русскоязычный датасет Text2Speech + модели озвучивания текста + лидерборд 🔥
Если вы когда-либо пытались обучить какую-нибудь TTS модель на русском, то понимаете, насколько в области не хватает качественных данных. А тут – 4000 часов русской речи. Импакт очень ощутимый.
Автору, кстати, 16 лет. Он уже несколько лет занимается NLP и ведет соседний канал @den4ikresearch. Там можно прочитать о релизе больше.
Ну так вот: в датасете, что очень полезно, есть и одноголосые, и многоголосые варианты. Все данные лежат тут. А вот здесь даже выложили подробный тех.репорт.
Но и это не все: с использованием датасета авторы обучили TTS, которая по замерам получилась одной из лучших среди открытых на русском языке. Есть SFT версии, и версии с RL.
Все веса лежат тут, а вот здесь можно попробовать модели без скачивания.
Ну и вишенка: совместно с другой лабой ребята сделали лидерборд для русского TTS. В своем роде единственный. Ссылка.
Колоссальная работа, скажите?
Почтим исследователей лайком (и не забудьте сохранить, если в каком-то виде занимаетесь речью)
Если вы когда-либо пытались обучить какую-нибудь TTS модель на русском, то понимаете, насколько в области не хватает качественных данных. А тут – 4000 часов русской речи. Импакт очень ощутимый.
Автору, кстати, 16 лет. Он уже несколько лет занимается NLP и ведет соседний канал @den4ikresearch. Там можно прочитать о релизе больше.
Ну так вот: в датасете, что очень полезно, есть и одноголосые, и многоголосые варианты. Все данные лежат тут. А вот здесь даже выложили подробный тех.репорт.
Но и это не все: с использованием датасета авторы обучили TTS, которая по замерам получилась одной из лучших среди открытых на русском языке. Есть SFT версии, и версии с RL.
Все веса лежат тут, а вот здесь можно попробовать модели без скачивания.
Ну и вишенка: совместно с другой лабой ребята сделали лидерборд для русского TTS. В своем роде единственный. Ссылка.
Колоссальная работа, скажите?
Почтим исследователей лайком (и не забудьте сохранить, если в каком-то виде занимаетесь речью)
1🔥224❤70👍55🗿8😁4🤯4🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic сделали Claude-агента, который будет работать прямо в Chrome
ИИ-браузеры – это сейчас модно. Вот и Anthropic решили приобщиться.
Выглядеть это будет примерно как на видео сверху: агент сможет выполнять какие-то действия непосредственно в браузере или выступать компаньоном-консультантом. В общем, если кто пользовался Comet от Perplexity – это плюс минус то же самое.
Единственная грустная новость: пока расширение доступно только в research preview для 1000 юзеров. Стартап хочет собрать достаточно ОС перед тем как выпускать продукт в массы.
Особенно обращают внимание на prompt injection, что радует. Для агентов это сейчас основная уязвимость в принципе.
Присоединиться к вейтлисту можно тут
ИИ-браузеры – это сейчас модно. Вот и Anthropic решили приобщиться.
Выглядеть это будет примерно как на видео сверху: агент сможет выполнять какие-то действия непосредственно в браузере или выступать компаньоном-консультантом. В общем, если кто пользовался Comet от Perplexity – это плюс минус то же самое.
Единственная грустная новость: пока расширение доступно только в research preview для 1000 юзеров. Стартап хочет собрать достаточно ОС перед тем как выпускать продукт в массы.
Особенно обращают внимание на prompt injection, что радует. Для агентов это сейчас основная уязвимость в принципе.
Присоединиться к вейтлисту можно тут
1❤46👍24🔥17🤯3😁1 1
Илон Маск и xAI подали антимонопольный иск против Apple и OpenAI
Компании, аффилированные с Маском, подали иск в Федеральный суд Техаса. Суть обвинений: Apple и OpenAI заключили антиконкурентное соглашение, которое закрепляет монополию ChatGPT внутри iOS.
Что именно пишет команда Маска:
Логика иска проста: Apple выступает «гейткипером» и пустила внутрь своей экосистемы только одного игрока. Для остальных барьеры выше, а значит конкуренция нарушается.
Компании, аффилированные с Маском, подали иск в Федеральный суд Техаса. Суть обвинений: Apple и OpenAI заключили антиконкурентное соглашение, которое закрепляет монополию ChatGPT внутри iOS.
Что именно пишет команда Маска:
1. Apple проиграла гонку за ИИ и вместо собственной системы сделала ставку на OpenAI.
2. В результате пользователи iPhone получают ChatGPT «по умолчанию» в операционке — альтернативы встроенного ИИ у них нет.
3. Это даёт OpenAI огромное преимущество: миллионы взаимодействий пользователей Apple становятся данными для дальнейшего обучения.
4. Параллельно в App Store продвигается именно ChatGPT, а X и Grok, по словам Маска, в подборки не попадают — даже несмотря на топовые позиции в рейтингах.
5. Если суд не вмешается, Apple и OpenAI продолжат подавлять конкуренцию, а проекты Маска будут «страдать от антиконкурентных последствий».
Логика иска проста: Apple выступает «гейткипером» и пустила внутрь своей экосистемы только одного игрока. Для остальных барьеры выше, а значит конкуренция нарушается.
3 146 52😁41❤15👀14👍10🤔5 5👌3
Вашему вниманию: идеальная клавиатура для разработчика
P.S. Не мем. Cursor, судя по всему, реально такую сделали
P.S. Не мем. Cursor, судя по всему, реально такую сделали
1😁238🔥30👍12❤10🗿8🐳2🦄2 2🕊1
Нейросети помогут врачам анализировать МРТ и выявлять риски развития ДЦП у младенцев за минуты вместо дней
Яндекс в сотрудничестве со специалистами СПбГПМУ и студентами ШАДа разработал решение на базе ИИ, которое анализирует МРТ мозга младенцев, радикально ускоряя постановку таких диагнозов, как риск ДЦП. Нейросеть автоматически сегментирует серое и белое вещество, вычисляет их объемы и помогает врачам принимать более точные решения.
Обычно такой анализ — это ювелирная работа, занимающая до 72 часов. Новая модель выполняет инференс за ~3 секунды на CPU. Для понимания, предыдущие существующие решения вытягивали максимум ~2.5 минуты. Это ускорение в 50 раз. В будущем, после тестирования, код разработки появится в опенсорсе, чтобы его могли использовать ученые и клиники со всего мира и для других задач в сфере медицины.
Кратко про само решение:
— Работает как веб-сервис и не требует от клиник GPU. Сырые МРТ-снимки в формате DICOM загружаются в PACS-систему, развернутую на Yandex Cloud.
— Естественно, в процессе разработчики столкнулись с проблемой нехватки размеченных данных. Использовали BIBSNet для предразметки всего архива. Процесс был распараллелен в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую врачи уже дорабатывали, а не создавали с нуля.
— Под капотом U-Net с бэкбоном ResNeXt-50 и функцией потерь DiceLoss. Эта архитектура показала себя лучшей после серии R&D-экспериментов.
Итог: быстрый инференс и высокая точность. Метрика IoU (Intersection over Union) достигла 0.703, что позволяет врачам использовать сегментацию как надежный вспомогательный инструмент.
Подробности — на Хабре.
Яндекс в сотрудничестве со специалистами СПбГПМУ и студентами ШАДа разработал решение на базе ИИ, которое анализирует МРТ мозга младенцев, радикально ускоряя постановку таких диагнозов, как риск ДЦП. Нейросеть автоматически сегментирует серое и белое вещество, вычисляет их объемы и помогает врачам принимать более точные решения.
Обычно такой анализ — это ювелирная работа, занимающая до 72 часов. Новая модель выполняет инференс за ~3 секунды на CPU. Для понимания, предыдущие существующие решения вытягивали максимум ~2.5 минуты. Это ускорение в 50 раз. В будущем, после тестирования, код разработки появится в опенсорсе, чтобы его могли использовать ученые и клиники со всего мира и для других задач в сфере медицины.
Кратко про само решение:
— Работает как веб-сервис и не требует от клиник GPU. Сырые МРТ-снимки в формате DICOM загружаются в PACS-систему, развернутую на Yandex Cloud.
— Естественно, в процессе разработчики столкнулись с проблемой нехватки размеченных данных. Использовали BIBSNet для предразметки всего архива. Процесс был распараллелен в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую врачи уже дорабатывали, а не создавали с нуля.
— Под капотом U-Net с бэкбоном ResNeXt-50 и функцией потерь DiceLoss. Эта архитектура показала себя лучшей после серии R&D-экспериментов.
Итог: быстрый инференс и высокая точность. Метрика IoU (Intersection over Union) достигла 0.703, что позволяет врачам использовать сегментацию как надежный вспомогательный инструмент.
Подробности — на Хабре.
1🔥144👍35❤26 13😁3🤨3 3😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи изучили нейросеть Evo-2 и нашли в ее активациях целое дерево жизни
Сейчас расскажем подробнее. Сама модель Evo-2 вышла еще осенью. Она может генерировать новые генетические последовательности и выявлять мутации в генах.
Обучена она была на 9 триллионах нуклеотидов из более чем 128 000 геномов. При этом датасет собирали такой, чтобы он охватывал все формы жизни, от простейших до растений и животных.
То есть эта модель знает очень-очень много о мире с точки зрения генетики. И вот сейчас, спустя почти год после выхода Evo-2, ученые из лабы Goodfire решили залезть внутрь нее и проверить, как это все выглядит изнутри.
И внезапно там обнаружилась очень интересная структура.
Оказалось, что модель кодирует эволюционную схожесть (филогению) как геометрические расстояния на специальном изогнутом многообразии в признаковом пространстве. То есть кратчайший путь по этому многообразию между двумя видами соответствует их эволюционной дистанции: чем ближе виды по филогенетическому дереву, тем ближе их представления внутри модели.
Что это значит:
1. Хотя в модель напрямую не закладывали эволюционные отношения и таксономию, она научилась улавливать статистические закономерности, отражающие эволюционные связи между видами.
2. И она не просто их понимает, а построила внутри себя целое математическое дерево видов, представив его, так скажем, по своему: в виде сложных геометрически интерпретируемых многообразий.
Это похоже на языковые модели: по факту Evo училась предсказывать последовательности геномов, а оказалось, что она может действовать как универсальный биологический переводчик.
То есть нам, возможно, не обязательно обучать под разные медицинские и био- задачки разные модели. Может быть одна, универсальная, которая сможет работать с любыми приложениями, обучаясь просто на молекулах.
Кажется, что это значимый результат.
www.goodfire.ai/papers/phylogeny-manifold
Сейчас расскажем подробнее. Сама модель Evo-2 вышла еще осенью. Она может генерировать новые генетические последовательности и выявлять мутации в генах.
Обучена она была на 9 триллионах нуклеотидов из более чем 128 000 геномов. При этом датасет собирали такой, чтобы он охватывал все формы жизни, от простейших до растений и животных.
То есть эта модель знает очень-очень много о мире с точки зрения генетики. И вот сейчас, спустя почти год после выхода Evo-2, ученые из лабы Goodfire решили залезть внутрь нее и проверить, как это все выглядит изнутри.
И внезапно там обнаружилась очень интересная структура.
Оказалось, что модель кодирует эволюционную схожесть (филогению) как геометрические расстояния на специальном изогнутом многообразии в признаковом пространстве. То есть кратчайший путь по этому многообразию между двумя видами соответствует их эволюционной дистанции: чем ближе виды по филогенетическому дереву, тем ближе их представления внутри модели.
Что это значит:
1. Хотя в модель напрямую не закладывали эволюционные отношения и таксономию, она научилась улавливать статистические закономерности, отражающие эволюционные связи между видами.
2. И она не просто их понимает, а построила внутри себя целое математическое дерево видов, представив его, так скажем, по своему: в виде сложных геометрически интерпретируемых многообразий.
Это похоже на языковые модели: по факту Evo училась предсказывать последовательности геномов, а оказалось, что она может действовать как универсальный биологический переводчик.
То есть нам, возможно, не обязательно обучать под разные медицинские и био- задачки разные модели. Может быть одна, универсальная, которая сможет работать с любыми приложениями, обучаясь просто на молекулах.
Кажется, что это значимый результат.
www.goodfire.ai/papers/phylogeny-manifold
9🤯184❤🔥66❤38🔥31👍24🗿7🤔6😁2🕊2 1
Мы как-то пропустили, но оказывается у Google недавно вышла очень интересная модель Perch 2.0 для биоакустики
Она предназначена для классификации и энкодинга всевозможных звуков природы. Работает так:
1. На вход модельке приходит аудио, которое она преобразует в спектрограмму. Это нужно для того, чтобы дальше данные в виде изображения могла съесть сверточная нейросеть.
2. Эта нейросеть выдает эмбеддинги – векторы размерности 1536, описывающие звуки.
3. Дальше эмбеддинги подаются на вход трем головам, каждая из которых отвечает за свою задачу: линейную классификацию, прототипную классификацию (это логиты для интерпретируемости) и определение источника.
Только представьте: с помощью такой модели можно отслеживать популяции и количество особей, искать новые виды и многое другое.
Кстати, все работает без GPU + в модели всего 12 миллионов параметров. Метрики при этом отличные: система точно распознает звуки 15 тысяч видов. Работает даже под водой.
Короче: Google дали каждому биологу в мире универсальный супер-слух. И это уже дало свои результаты.
Например, в Австралии Perch помог обнаружить новые популяции птиц там, где, как раньше считалось, их почти нет. А на Гавайях система в 50 раз ускорила обнаружение редких медоедов: благодаря этому ученые теперь смогут оперативно защищать их от угроз.
Всегда очень радуют такие разработки. А тут, плюсом ко всему, модель и датасеты даже выложили в опенсорс.
arxiv.org/abs/2508.04665
Она предназначена для классификации и энкодинга всевозможных звуков природы. Работает так:
1. На вход модельке приходит аудио, которое она преобразует в спектрограмму. Это нужно для того, чтобы дальше данные в виде изображения могла съесть сверточная нейросеть.
2. Эта нейросеть выдает эмбеддинги – векторы размерности 1536, описывающие звуки.
3. Дальше эмбеддинги подаются на вход трем головам, каждая из которых отвечает за свою задачу: линейную классификацию, прототипную классификацию (это логиты для интерпретируемости) и определение источника.
Только представьте: с помощью такой модели можно отслеживать популяции и количество особей, искать новые виды и многое другое.
Кстати, все работает без GPU + в модели всего 12 миллионов параметров. Метрики при этом отличные: система точно распознает звуки 15 тысяч видов. Работает даже под водой.
Короче: Google дали каждому биологу в мире универсальный супер-слух. И это уже дало свои результаты.
Например, в Австралии Perch помог обнаружить новые популяции птиц там, где, как раньше считалось, их почти нет. А на Гавайях система в 50 раз ускорила обнаружение редких медоедов: благодаря этому ученые теперь смогут оперативно защищать их от угроз.
Всегда очень радуют такие разработки. А тут, плюсом ко всему, модель и датасеты даже выложили в опенсорс.
arxiv.org/abs/2508.04665
1❤160🔥57⚡13👍11 5😁2🕊2🤯1👾1
Так, по порядку:
1. gpt-realtime – это модель специально для реализации всевозможных голосовых помощников и ботов. Ей прокачали следование инструкциям разработчиков, задержку, естественность речи и даже вызов инструментов. Получается ультимативный голосовой бот, который говорит как живой консультант, при необходимости ходит в базу знаний и не отступает от намеченных правил.
2. Модель + два дополнительных голоса (послушать) будут с этого дня доступны в Realtime API, которое наконец-то вышло из беты. Туда добавили MCP, возможность инпута картинками и несколько других интересных плюшек. Подробности.
Цены, кстати, снизили на 20% по сравнению с превью версией, а метрики при этом подросли. Подробный прайсинг.
Потестить можно тут в песочнице
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥78❤23 21👍6😁2
12 сентября Т-Банк, Яндекс, Сбер, Lamoda и X5, устроят в своих офисах настоящую ночь технологий — Big tech night. В штаб-квартире Т-Банка, например, гостям покажут внутренние разработки и разные фичи.
В программе — квартирники, на которых можно обсудить командную жизнь айтишников, разбор личных кейсов с тимлидами и СТО и
доклады про путь ИИ от проектирования до использования. Гости также получат доступ к внутренним платформам Т-Банка и смогут пообщаться с разрабами.
Чтобы попасть на ивент, нужно заранее зарегистрироваться и выбрать программу.
В программе — квартирники, на которых можно обсудить командную жизнь айтишников, разбор личных кейсов с тимлидами и СТО и
доклады про путь ИИ от проектирования до использования. Гости также получат доступ к внутренним платформам Т-Банка и смогут пообщаться с разрабами.
Чтобы попасть на ивент, нужно заранее зарегистрироваться и выбрать программу.
1❤58🗿21 8🔥6😁4👍1
Prime Intellect анонсировали Environments Hub – открытую платформу для создания и использования RL-сред
Сейчас расскажем, почему это большая новость, и зачем это нужно.
RL-среда – это окружение, в котором обучаются агенты. Грубо говоря, отдельный мир, в котором определены свои правила и система вознаграждений.
Создавать такие «миры» довольно дорого. Например, хотите вы обучить агента-программиста. Для этого вам нужны: целая виртуальная IDE с компилятором, отладкой, тестами и кучей edge-кейсов; ревард-функция; инструменты трекинга; пайплайн обучения; данные.
Большие лабы, в общем, тратят на качественные RL-среды миллионы. А в опенсорсе сопоставимых решений просто нет. Prime Intellect предлагают изменить положение и дают нам для этого готовую инфраструктуру.
Короче, Environments Hub – это первый и единственный в своем роде стор готовых RL-сред под всевозможные задачи. Сейчас там уже достаточно много решений под агентов-программистов / математиков / разные игры и прочее прочее.
Большое дело ребята делают. Очень емко, кстати, релиз и его полезность прокомментировал Андрей Карпаты, можно почитать его мысли.
Ссылка на сам Хаб: app.primeintellect.ai/dashboard/environments
Сейчас расскажем, почему это большая новость, и зачем это нужно.
RL-среда – это окружение, в котором обучаются агенты. Грубо говоря, отдельный мир, в котором определены свои правила и система вознаграждений.
Создавать такие «миры» довольно дорого. Например, хотите вы обучить агента-программиста. Для этого вам нужны: целая виртуальная IDE с компилятором, отладкой, тестами и кучей edge-кейсов; ревард-функция; инструменты трекинга; пайплайн обучения; данные.
Большие лабы, в общем, тратят на качественные RL-среды миллионы. А в опенсорсе сопоставимых решений просто нет. Prime Intellect предлагают изменить положение и дают нам для этого готовую инфраструктуру.
Короче, Environments Hub – это первый и единственный в своем роде стор готовых RL-сред под всевозможные задачи. Сейчас там уже достаточно много решений под агентов-программистов / математиков / разные игры и прочее прочее.
Большое дело ребята делают. Очень емко, кстати, релиз и его полезность прокомментировал Андрей Карпаты, можно почитать его мысли.
Ссылка на сам Хаб: app.primeintellect.ai/dashboard/environments
2❤84👍37🔥17⚡1😁1
Новость дня: Илья Суцкевер сменил аватарку в X
Жалко, конечно, селфи в панамке и очках (2 скрин), которое стояло со времен мамонтов, было лучше.
Вопрос: значит ли это, что SafeSuperintelligence начали переговоры с серьезными инвесторами?🤔
Жалко, конечно, селфи в панамке и очках (2 скрин), которое стояло со времен мамонтов, было лучше.
Вопрос: значит ли это, что SafeSuperintelligence начали переговоры с серьезными инвесторами?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤯108😁93 28❤16🗿4🔥3👍1
Такс-такс, Anthropic начнет обучать свои модели на пользовательских данных
Сюда относятся транскрипты чатов и кодинг-сессии (видимо, из Claude Code). Все пользователи должны до 28 сентября принять решение, делиться данными или нет.
По умолчанию, вроде бы, ваши данные использовать не будут: нужно обязательно тыкнуть "Accept", и только после этого новые или возобновленные чаты начнут попадать в датасет. То есть старых чатов и сессий разрешение касаться не будет.
Пока, правда, не очень понятно, можно ли будет изменить решение. Но есть еще одна важная деталь: если вы нажмете "Accept", ваши данные теперь будут так или иначе храниться 5 лет.
Новая политика касается всех, кроме коммера (то есть полностью API + Claude Gov, Claude for Work, Claude for Education).
В целом, друзья, это было вопросом времени. Надо отдать должное: Anthropic хотя бы заявили о своих намерениях открыто и дали юзерам выбор.
Ссылка на оригинальную новость | Текст без пэйвола
Сюда относятся транскрипты чатов и кодинг-сессии (видимо, из Claude Code). Все пользователи должны до 28 сентября принять решение, делиться данными или нет.
По умолчанию, вроде бы, ваши данные использовать не будут: нужно обязательно тыкнуть "Accept", и только после этого новые или возобновленные чаты начнут попадать в датасет. То есть старых чатов и сессий разрешение касаться не будет.
Пока, правда, не очень понятно, можно ли будет изменить решение. Но есть еще одна важная деталь: если вы нажмете "Accept", ваши данные теперь будут так или иначе храниться 5 лет.
Новая политика касается всех, кроме коммера (то есть полностью API + Claude Gov, Claude for Work, Claude for Education).
В целом, друзья, это было вопросом времени. Надо отдать должное: Anthropic хотя бы заявили о своих намерениях открыто и дали юзерам выбор.
Ссылка на оригинальную новость | Текст без пэйвола
1❤93 45👍16✍12😁3🔥2🤔2🦄2❤🔥1🤨1