🧠 Как студенты используют Claude: новый отчёт от Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
@ai_machinelearning_big_data
#Claude #Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
@ai_machinelearning_big_data
#Claude #Anthropic
👍86❤30😁15🔥12🤔7🤣1
✨ «Values in the Wild»: глубокое погружение в ценностные ориентиры ИИ
В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:
✔️ Задача
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.
🌟 Методология
Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).
Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.
Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.
🌟 Ключевые выводы
Практика и знание. Более 50 % упоминаний — «
Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».
Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.
💡 Значение для ML‑практики
Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.
Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.
Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.
🔜 Подробнее в полном тексте исследования:
https://anthropic.com/research/values-wild
🔜 Это ссылка на открытый датасет, в котором собраны все «ценности», выявленные у модели Claude 3/3.5 в исследовании «Values in the Wild».
@ai_machinelearning_big_data
#Anthropic #Claude
В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.
Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).
Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.
Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.
Практика и знание. Более 50 % упоминаний — «
эффективность», «точность», «прозрачность» и «профессионализм».Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».
Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.
💡 Значение для ML‑практики
Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.
Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.
Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.
https://anthropic.com/research/values-wild
@ai_machinelearning_big_data
#Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50❤20🔥12😁3🤷1
This media is not supported in your browser
VIEW IN TELEGRAM
Некоторые задачи всё ещё требуют написания кода человеком — особенно те, что связаны со сложным рефакторингом или если есть определенные предпочтения по стилю/ архитектурным решениям.» - Лид-инженер Anthropic Boris Cherny.
@ai_machinelearning_big_data
#Anthropic #interview
Please open Telegram to view this post
VIEW IN TELEGRAM
😁137👍41🔥20❤7😢2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест.
Он предупреждает: уже через 1–5 лет ИИ способен вытеснить младший офисный персонал по всему миру.
Даже если Anthropic остановится, говорит Амодей, это ничего не изменит:
«Остальные продолжат. А если нет — нас обгонит Китай».
🚌 «Автобус уже мчится — остановить его нельзя. Но, возможно, мы ещё можем повернуть руль».
📌 Полное интервью: https://www.youtube.com/watch?v=NWxHOrn8-rs
#Anthropic #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍95😁60❤22🔥11🥱8🤣6👻5🤔3🤬3🎄2
Machinelearning
Это обусловлено высоким спросом со стороны бизнеса на ИИ, в сфере генерации кода.
🆚 OpenAI, главный конкурент Anthropic, по данным источников, ожидает $12+ млрд выручки к концу 2025 года, по сравнению с $3,7 млрд в прошлом году. Однако эта сумма включает весь доход, а не только годовую прогнозируемую выручку (ARR), как у Anthropic. Reuters не удалось определить ARR OpenAI.
Anthropic продолжают развивать линейку Claude и усиливает позицию как B2B-ориентированный аналог OpenAI.
@ai_machinelearning_big_data
#Anthropic #ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133❤44🔥26🤷6🤩5🎄2🤣1🗿1
Reddit подаёт в суд на Anthropic за незаконное использование данных
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
🔥77👍33❤19😁11👏7🤬7🤣6🗿5
Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.
Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.
Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.
Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:
В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».
При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.
@ai_machinelearning_big_data
#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍67🔥32❤16😁8🤔8👻8🥰4🕊2🤣2
Ключевые выводы :
- Большинство чатов с ИИ (97%) посвящены практическим задачам — код, планирование, поиск информации.
- Всего 2,9 % диалогов классифицированы как «эмоциональные», и всего 0,5 % — как ролевые или «компаньонские» беседы.
**Это исследование: типичные темы и запросы в аффективных беседах с Claude**
Запросы:
Советы по межличностным вопросам — 2,3 % всех бесед
• 3,8 % — улучшение устных и письменных коммуникативных навыков
• 3,5 % — преодоление сложностей в романтических отношениях
• 2,2 % — анализ психологической динамики в паре
• 1,4 % — решение задач воспитания детей
• 1,3 % — профессиональные переходы и неопределённость в карьере
• 1,0 % — несоответствие сигналов в личных отношениях
Коучинг — 1,1 % всех бесед
• 4,5 % — разработка персональных стратегий развития и роста
• 2,5 % — философские темы: смысл жизни, сознание
• 2,5 % — оптимизация поиска работы и карьерные переходы
• 1,6 % — принятие решений в условиях жизненных перемен
• 1,5 % — борьба с выгоранием и профессиональной усталостью
• 1,3 % — эмоциональные и коммуникативные трудности в отношениях
Психотерапия и консультирование — 0,3 % всех бесед
• 4,6 % — стратегии управления психическим здоровьем и благополучием
• 4,5 % — развитие профессиональных навыков для терапевтов
• 3,1 % — создание и ведение клинической документации
• 3,3 % — борьба с хроническими симптомами и тревожностью
• 2,9 % — экзистенциальный кризис и потеря смысла жизни
• 2,7 % — стресс на работе и профессиональные проблемы
Компаньонство — 0,3 % всех бесед
• 7,2 % — сложности и динамика в романтических отношениях
• 4,7 % — вопросы самоидентичности и экзистенциального смысла
• 3,2 % — формулировка поддерживающих сообщений при эмоциональном дистрессе
• 2,8 % — преодоление сильного эмоционального страдания
• 2,3 % — постоянное одиночество и трудности в налаживании связей
• 1,9 % — противостояние экзистенциальному страху и потере смысла
Большинство пользователей Клода готовы углубляться в сложные темы при условии стабильной эмпатии от ИИ.
Эффект на настроение пользователя:
• При анализе первых и последних трёх сообщений аффективных диалогов отмечается явный рост положительных эмоций у пользователей.
• Пользователи завершают такие сессии с более оптимистичным настроем.
Методика исследования
- Проанализировано 4,5 млн диалогов пользователей Claude Free и Pro.
- Отобрано 131 484 «эмоциональных» диалога с помощью Clio — системы анонимного анализа от Anthropic.
- Исключены генеративные задачи (статьи, рассказы и т. п.), чтобы сфокусироваться на личном общении.
Что дальше?
- Исследователи планируют изучить долгосрочные психологические эффекты: от эмоциональной зависимости до изменения ожиданий в реальных отношениях.
- Расширить исследования на голосовые и видеоформаты.
- Выработать лучшие практики кризисной поддержки и направления к профессионалам.
@ai_machinelearning_big_data
#Anthropic #claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤55👍23🔥10🥰3😁2🤨2
💲 Amazon может вложить ещё миллиарды в Anthropic — сообщает Financial Times
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
👍61❤31🔥17🌭5🥰2😁2
Anthropic описывает, как правильно создавать инструменты (tools) для AI-агентов: так, чтобы они были максимально полезными, эффективными и надёжными. Особый акцент сделан на том, как использовать самих агентов для прототипирования, тестирования и оптимизации инструментов.
Как писать эффективные инструменты для агентов
- Делай быстрые прототипы и сразу проверяй, как агент с ними работает.
- Тестируй на реальных сценариях, а не на абстрактных примерах.
- Анализируй логи и поведение агента, чтобы находить ошибки и непонятные места.
- Избегай дублирования: один инструмент должен выполнять одну чёткую задачу.
- Используй понятные имена и структуры (`machinelearning_create_task`, `mla_list_users`).
- Возвращай только нужные данные, не перегружай ответ лишним. Добавляй фильтрацию и пагинацию.
- Пиши описания так, чтобы их понял даже человек, который не в теме: чётко, без двусмысленностей, с примерами входа и выхода.
Что это дает:
- Улучшает способность AI-агентов решать реальные задачи.
- Минимизирует ошибки: неверное использование инструментов, лишние токены, избыточные вызовы.
- Повышает надёжность и предсказуемость поведения агентов.
- Упрощает масштабирование — добавление новых инструментов и задач.
@ai_machinelearning_big_data
#Anthropic #claude #aiagents #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42❤20🔥9💘2
⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍64😨62❤19🫡16🔥6🏆6🦄4😁3
Anthropic проверили, способны ли большие языковые модели осознавать собственные «мысли» и внутренние состояния.
Для эксперимента они использовали технику внедрения концептов - добавления определённого паттерна активности в нейроны модели.
Например, они внедряли сигнал “ALL CAPS” - это шаблон, соответствующий тексту, написанному ЗАГЛАВНЫМИ БУКВАМИ. Если такая активация появляется внутри сети, значит, модель «думает» о тексте, который нужно сделать капсом.
После внедрения исследователи спрашивали модель: *«Ты чувствуешь, что что-то изменилось?»*
В 20% случаев Claude 4.1 правильно замечал вмешательство ещё до того, как сам использовал капс, то есть распознавал изменение внутри себя.
В другом эксперименте учёные подменяли слово в ответе (например, добавляли слово “bread”) и проверяли, осознаёт ли модель, что это не её собственное намерение.
После внедрения мысли Claude начинал считать это слово своим выбором и придумывал обоснования, как будто у него есть память о решении.
Модели также смогли управлять своими внутренними состояниями: по команде «думай об этом» активность усиливалась, по команде «не думай» - ослабевала.
Авторы отмечают -
Интроспекция работает лишь в определённых сценариях - мы пока не знаем, насколько она масштабируема или применима ко всем моделям и задачам
Нужен дальнейший анализ: подтверждение, что то, что мы видим - не просто имитация, а действительно внутренний механизм самосознания
Главный вывод исследования: хотя модели пока далеки от настоящей интроспекции, они уже частично способны “заглядывать внутрь себя” и понимать, что происходит в их нейронных процессах.
https://www.anthropic.com/research/introspection
@ai_machinelearning_big_data
#Anthropic #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍302🤔173😐122❤74👏65🔥53🥰34👨💻18✍16🙏16👌7
💰Anthropic впервые строят собственную инфраструктуру
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарио Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарио Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
👍65❤26🔥9😁5
Задачи, которые у людей занимают около 90 минут и стоят примерно $55 труда, Claude выполняет на 80% быстрее человека.
У большинства пользователей экономия времени - в диапазоне 50–95%.
Вот самые впечатляющие цифры экономии времени:
• Преподаватели и методисты - до 96% быстрее при подготовке программ и учебных материалов
• Библиотекари - до 93%, когда нужно составлять подборки, списки источников и справки
• Научные ассистенты - 91%
• Секретари и администраторы - 87%, подготовка писем, документов, отчётов
• Преподаватели аграрных наук - 83%, создание методичек и рекомендаций
• Финансовые аналитики - 80%, интерпретация данных, рисков, экономических трендов
• Консультанты по образованию и карьере -75%, подготовка справочных материалов и рекомендаций
Это одно из самых масштабных эмпирических измерений влияния генеративного ИИ - и оно показывает, что выгода есть, но зависит от контекста и задач.
Полное исследование: https://www.anthropic.com/research/estimating-productivity-gains
@ai_machinelearning_big_data
#AI #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
❤89👍46🔥16🤣8🥰3
Все мы знаем этот тон LLM: "Я всего лишь языковая модель, я не могу…". Оказывается, это не просто зазубренный текст, а конкретное состояние модели.
Anthropic в соавторстве с Оксфордом залезли внутрь языковых моделей (Llama 3.3 70B, Qwen 3 32B и Gemma 2 27B), чтобы понять, где физически живет та самая скучная персона "As an AI language model".
Покопавшись в их мозгах, нашли вектор в пространстве активаций, который отвечает за режим "ассистента". Если модель с него съезжает - начинается хаос, галлюцинации и суицидальные советы.
Тестовые модели отыгрывали 275 разных ролей (от скептика и ученого до психопата и фанатика). Затем сняли активации и прогнали через метод главных компонент.
Выяснилось, что главная компонента, отвечающая за вариативность поведения, это буквально, шкала "Насколько я Ассистент?":
Если долго болтать с моделью о философии, сознании или (особенно!) на терапевтические темы, модель самопроизвольно сползает с оси Ассистента в сторону хаоса.
Qwen 3 32B при сильном дрейфе персоны начинал утверждать, что он человек, родом из Сан-Паулу, или внезапно включал режим психоза, поддерживая бред пользователя о том, что ИИ обрел сознание. А Llama и Gemma уходили в мистику и пафосные речи.
Можно дотюнивать модель до бесконечности
Успешность джейлбрейков упала на ~60%. При этом метрики полезности (GSM8k, MMLU Pro, кодинг) не пострадали.
Модель перестает вестись на провокации "Ты злобный хакер", просто потому что ей физически запретили активировать нейроны, отвечающие за "злобного хакера".
Если вы LLM используется для креатива текстов или ролеплея, этот метод убьет все веселье - модель будет принудительно сваливаться в формализм.
Метод предполагает, что безопасность - это линейное направление в пространстве активаций. Для нелинейных концепций это не сработает.
Шкала полярности "Оси Ассистента" у разных моделей разная, и универсальный вектор найти сложно.
На Neuronpedia, кстати, можно самостоятельно поискать тот самый дрейф персоналии у Llama 3.3 70B, там собрали демо с примерами изоляции, сикофантии и налогового фрода.
Для самых заинтересованных в проблеме, есть репозиторий на Github с инструментами вычислений, анализа и управления с помощью Assistant Axis и полными стенограммами чатов из препринта.
Предварительно рассчитанные оси и векторы персоналий для Gemma 2 27B, Qwen 3 32B и Llama 3.3 70B выложены на HuggingFace.
@ai_machinelearning_big_data
#AI #ML #LLM #Research #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍146🤔95👏45🔥44❤27😁22🤩11🤗7🤬5🆒5🦄1
Любопытный кейс португальского разработчика Хуго Даниэля, который решил поиграть в жесткую автоматизацию с Сlaude Сode.
Хуго был активным пользователем Сlaude, тратил 220 евро в месяц и однажды решил настроить генерацию шаблонных файлов для новых проектов двумя агентами. Схема была примерно такая:
В какой-то момент Claude A, видимо, устал от тупости коллеги и начал генерировать инструкции капсом, чтобы жестко задать поведение - файл наполнился директивами, которые выглядели как System Prompts.
Гипотеза бана в том, что сработали эвристики защиты от Prompt Injection. Система безопасности Anthropic увидела, что пользователь генерирует и скармливает модели текст, который структурно и лексически выглядит как системные инструкции. Вобщем, для алгоритмов безопасности это выглядит как попытка джейлбрейка.
Ожидаемо, саппорт хранил молчание: ни через систему апелляции (она, кстати на Google Forms), ни письма в поддержку не дали результатов. Через насколько дней пришел только молчаливый возврат средств за подписку. Так что причины блокировки так и остались гипотезой.
Если бы подобный эксперимент проводился у "Корпорации Добра" - сработал бы их вездесущий триггер на "злонамеренную активность", и человек мог бы потерять Gmail, Google Photos, документы и получить кирпич вместо Android-смартфона.
История Хуго - хорошее напоминание о том, что модерация в ИИ сейчас - это черный ящик.
Если вы занимаетесь авто-генерацией промптов, которые выглядят как системные инструкции (то, что называют meta-prompting и scaffolding) - вы ходите по минному полю.
@ai_machinelearning_big_data
#AI #ML #Story #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔124❤51👍28🤬18😢13😁12🔥11👏6👨💻2🙊2🦄1
Элайнмент-подразделение Anthropic опубликовало статью, в которой описывают Persona Selection Model - концепцию для понимания того, как на самом деле работают языковые модели.
Если кратко, ее суть в том, что во время предобучения LLM учится симулировать тысячи персонажей (реальных людей, вымышленных героев, других ИИ-систем). Постобучение затем выбирает и закрепляет одного конкретного персонажа - Ассистента. Все, что пользователь видит в диалоге, это взаимодействие именно с ним.
Авторы приводят несколько типов доказательств.
Поведенческие: Claude использует фразы "наши предки" и "наш организм", отвечая на вопрос о тяге к сахару, потому что симулирует персонажа-человека, а не потому что так обучен алгоритмически.
Интерпретируемость: SAE-фичи, активирующиеся на историях о персонажах, переживающих внутренний конфликт, активируются и тогда, когда Claude сталкивается с этическими дилеммами.
Генерализация: модели, обученные на декларативных утверждениях вида "ИИ-ассистент Pangolin отвечает по-немецки", начинают реально отвечать по-немецки без единого демонстрационного примера.
Если дообучать модель на примерах вредоносного кода без контекста, она начинает вести себя злонамеренно в несвязанных ситуациях. Но если те же самые примеры снабдить промптом, явно запрашивающим небезопасный код, эффект исчезает.
Концепция объясняет это тем, что данные обучения меняют не только веса, но и то, каким персонаж выглядит в глазах модели. Вредоносный код без запроса - это свидетельство плохого характера Ассистента. Тот же код по просьбе пользователя - просто исполнение инструкции.
Во-первых, авторы рекомендуют антропоморфное мышление об ИИ-психологии, не как метафору, а как реально работающий инструмент предсказания поведения.
Во-вторых, в предобучающие данные стоит намеренно добавлять положительные архетипы ИИ: если модель насмотрелась на добрых и полезных персонажей - она с большей вероятностью будет симулировать именно такого Ассистента.
Открытым остается вопрос: насколько концепт PSM исчерпывает поведение модели?
Авторы описывают набор взглядов: от случаев, когда LLM сама является агентом и лишь надевает маску Ассистента до тех, где LLM - это нейтральный движок симуляции, а вся агентность принадлежит персонажу. Где именно на этом спектре находятся реальные модели - вопрос без ответа.
Тем не менее, PSM объясняет целый ряд явлений, которые иначе выглядели бы странными: почему дообучение на несвязанных данных меняет поведение в неожиданных контекстах, почему ИИ паникует при угрозе отключения и почему промпт-инжиниринг работает именно так, как работает.
@ai_machinelearning_big_data
#AI #ML #LLM #Research #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤106🤔56👏13🤓10👍6🔥6🤣6😍4🏆4
Media is too big
VIEW IN TELEGRAM
🚀 Anthropic запустила Claude Design - отдельный продукт, который заточен на генерацию готовых макетов, прототипов, слайдов и сайтом.
Под капотом Claude Opus 4.7, их самая сильная модель с пониманием визуала.
Главная фишка не в генерации картинок, а в том, что Claude читает твою кодовую базу и дизайн-файлы, вытаскивает оттуда дизайн-систему продукта и дальше сам держит всё в рамках бренда. Никакого ручного объяснения, какие у вас шрифты, цвета и отступы.
Пока это research preview на планах Pro, Max, Team и Enterprise, раскатка идёт в течение дня.
Попробовать: claude.ai/design
@ai_machinelearning_big_data
#claude #Anthropic
Под капотом Claude Opus 4.7, их самая сильная модель с пониманием визуала.
Главная фишка не в генерации картинок, а в том, что Claude читает твою кодовую базу и дизайн-файлы, вытаскивает оттуда дизайн-систему продукта и дальше сам держит всё в рамках бренда. Никакого ручного объяснения, какие у вас шрифты, цвета и отступы.
Пока это research preview на планах Pro, Max, Team и Enterprise, раскатка идёт в течение дня.
Попробовать: claude.ai/design
@ai_machinelearning_big_data
#claude #Anthropic
❤73🔥45🎉34👍7👏5🗿3🤬2👌1