После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов.
Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами.
Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x.
План за $200 дает как двадцатикратный объём Plus на тех же условиях.
Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру).
Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x».
Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus.
Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки.
По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🤔61❤19🤨9😐7🔥6🙊6😁1🎃1🤗1
В воскресенье утром резиденция генерального директора OpenAI Сэма Альтмана в Сан-Франциско подверглась второй атаке всего через два дня после инцидента с поджогом.
Полиция арестовала 25-летнюю Аманду Том и 23-летнего Мухаммада Тарика Хусейна по обвинению в неосторожном обращении с огнестрельным оружием.
В 1:40 ночи автомобиль с двумя людьми остановился перед домом Альтмана в районе Russian Hill, предварительно несколько раз проехав мимо. Офицеры задержали подозреваемых и изъяли при обыске 3 единицы огнестрельного оружия.
Первая атака произошла в пятницу: 20-летний Даниэль Алехандро Морено-Гама бросил коктейль Молотова в металлические ворота дома Альтмана.
Перед попыткой поджога он написал несколько эссе под названием "Эпитафия человечеству", выражая опасения, что развитие ИИ приведет к исчезновению человечества. Он также участвовал в деятельности группы PauseAI, выступающей за запрет разработки ИИ.
PauseAI, в свою очередь, осудила действия поджигателя:
Мы желаем безопасности и мира Сэму Альтману, его семье и всем пострадавшим. Организация PauseAI считает, что каждый заслуживает безопасности, включая Сэма Альтмана и его близких. Насилие в отношении кого бы то ни было противоречит всему, за что мы выступаем.
После первого инцидента Сэм Альтман написал пост в личном блоге и разместил фото семьи:
Страх и беспокойство по поводу ИИ оправданы. Мы наблюдаем самые масштабные изменения в обществе за долгое время, а возможно, и вообще когда-либо.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😢70🤣38🤬16🤔15❤11👍5🔥5🙏2😨2😁1🤩1
Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.
За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.
Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.
Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.
Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.
Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.
Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡154🔥64🏆23❤11🤩10👍5👏5💘1
Китайские тестеры раннего доступа Kimi Code получили сообщение, которое говорит о скором релизе модели Kimi K2.6.
Перевод скрина:
KIMI Code
Программа раннего доступа завершена
Спасибо за ваше участие и обратную связь
Привет, x
Спасибо, что приняли участие в тестировании программы раннего доступа Kimi Code! Каждый ваш отзыв помог нам сделать продукт лучше, и это очень важно для нас. Программа раннего доступа на этот период завершена, и мы надеемся увидеться с вами снова при запуске следующего этапа.
Сейчас мы занимаемся финальной настройкой и доработкой продукта на основе отзывов, полученных в ходе этого тестирования. Новая модель K2.6-code-preview, которую вы опробовали, скоро будет запущена для всех пользователей. Еще раз спасибо за вашу поддержку и доверие как одного из первых участников.
Команда Kimi Code
2026 Kimi
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍132👏27❤18🎉14🔥8💯7🦄2❤🔥1🥰1
Media is too big
VIEW IN TELEGRAM
Agent Cloud позволяет бизнесу встраивать ИИ-агентов в рабочие процессы - от общения с пользователями до обновления баз данных и генерации отчетов.
Технический фундамент - инфраструктура Cloudflare Workers AI. Модели запускаются на периферийных серверах, что обеспечивает минимальную задержку и высокую скорость отклика.
Cloudflare также расширяет инструменты для разработчиков: среда Codex теперь работает в изолированных песочницах Cloudflare Sandboxes, а вскоре её интегрируют прямо в Workers AI.
openai.com
Глава технологической империи лично участвует в создании интерактивной 3D-копии себя. Подразделение Superintelligence Labs нацелено на создание виртуального аватара, который сможет общаться с сотрудниками вместо Марка и давать им обратную связь в реальном времени. Модель обучают на фото, голосе, мимике и публичных выступлениях Цукерберга.
Источники отмечают необычную вовлеченность CEO: он тратит 5–10 часов в неделю на код и технические ревью. Если эксперимент удастся, компания планирует предложить технологию блогерам и создателям контента.
theverge.com
За последний год Пекин, Ханчжоу и Шэньчжэнь приняли беспрецедентный поток кадров из США: по данным рекрутеров, в КНР вернулись более 30 топовых ИИ-исследователей. Годом ранее такие переходы были единичными. Тон задают звезды индустрии. У Юнхуэй ушёл из Google DeepMind в ByteDance, Яо Шуньюй покинул OpenAI ради Tencent.
Причин две. Китай дает огромный полигон для внедрения ИИ в реальную экономику, Шэньчжэнь стал мировым центром робототехники. Плюс реальная покупательная способность зарплат инженеров в КНР уже превышает уровень Долины.
С другой стороны, специалистов выталкивают сами США: геополитика и бюрократия делают Штаты менее привлекательными для китайских талантов. Аналитики фиксируют смену технологического баланса: Китай перестаёт быть фабрикой или потребителем западных инноваций и сам становится магнитом для лучших разработчиков.
ft.com
Главное в Waypoint-1.5 - локальный запуск на Windows и macOS. Модель работает в 2-х режимах: на мощных системах она генерирует 720p при 60 кадрах в секунду, а облегченная версия - 360p и рассчитана на ПК с NVIDIA RTX (под Apple Silicon обещают позже).
Waypoint-1.5 вдвое компактнее предыдущей версии, но дает заметно лучшую графику и производительность. Развернуть ее можно локально через среду Biome или запустить в браузере через облачный Overworld.stream.
over.world
В конце марта создатели Claude провели закрытый саммит с пятнадцатью представителями католической и протестантской церквей, академической среды и бизнеса. Цель - найти ориентиры для этических и духовных реакций модели.
Участники разбирали практические сценарии: как бот должен общаться со скорбящими или людьми в глубоком психологическом кризисе. Дискуссия затронула и теологию - вплоть до того, можно ли считать ИИ «божьим созданием». Эксперты отметили искренность Anthropic, ищущих гуманитарную экспертизу извне.
В отличие от конкурентов, Anthropic не считает ИИ просто утилитарным кодом: ее руководство обсуждает философские аспекты технологий и допускает, что у больших языковых моделей могут появиться зачатки сознания несмотря на скепсис большей части индустрии.
washingtonpost.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51❤19🤣15🤔8🔥4⚡1💯1
ИИ не только в темах ИТ-конференций
Он уже в продуктах, процессах и вакансиях. Только на hh.ru больше тысячи открытых позиций для тех, кто создаёт и обучает нейросети.
На курсе Нетологии «Специалист по искусственному интеллекту» можно получить нужные навыки:
🔸 научиться использовать промпт-инжиниринг,
🔸 работать с большими языковыми моделями,
🔸 создавать RAG-системы* и ИИ-агентов,
🔸 управлять рисками при внедрении ИИ-сервисов.
На выбор две программы обучения: с нуля — 11 месяцев, и для тех, кто уже в ИТ, — 5 месяцев. В обоих случаях получаете сотни часов практики, портфолио из реальных проектов и год карьерной поддержки.
👉 Сейчас на курс действует скидка 50%, а с промокодом NETONEW10 цена станет ещё на 10% ниже. Плюсом идут 4 курса по нейросетям и подарки от партнёров Нетологии в честь её 15-летия.
Узнать подробнее и записаться: ссылка
* RAG — архитектурный подход к генеративным моделям, сочетающий навыки поиска информации с генеративными возможностями больших языковых моделей
Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5wYoT38
Он уже в продуктах, процессах и вакансиях. Только на hh.ru больше тысячи открытых позиций для тех, кто создаёт и обучает нейросети.
На курсе Нетологии «Специалист по искусственному интеллекту» можно получить нужные навыки:
🔸 научиться использовать промпт-инжиниринг,
🔸 работать с большими языковыми моделями,
🔸 создавать RAG-системы* и ИИ-агентов,
🔸 управлять рисками при внедрении ИИ-сервисов.
На выбор две программы обучения: с нуля — 11 месяцев, и для тех, кто уже в ИТ, — 5 месяцев. В обоих случаях получаете сотни часов практики, портфолио из реальных проектов и год карьерной поддержки.
👉 Сейчас на курс действует скидка 50%, а с промокодом NETONEW10 цена станет ещё на 10% ниже. Плюсом идут 4 курса по нейросетям и подарки от партнёров Нетологии в честь её 15-летия.
Узнать подробнее и записаться: ссылка
* RAG — архитектурный подход к генеративным моделям, сочетающий навыки поиска информации с генеративными возможностями больших языковых моделей
Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5wYoT38
🎉33🤣15👍12❤5👏3❤🔥2🥱2
Bytedance опубликовала инфу о проекте DreamLite - компактной диффузионки на 390 млн. параметров, которая сможет работать локально на телефоне.
Под капотом - сильно сжатая версия U-Net (от SDXL), автоэнкодер TinyVAE и текстовый Qwen3-VL-2B.
Для трейна используется схема прогрессивного совместного обучения для стабильности генерации и дистилляция DMD2, которая сокращает инференс до 4 шагов.
В описании заявляют, что на iPhone17 Pro картинка размером 1024х1024 генерится около 3 секунд, а в техотчете - что на Xiaomi 14 создание или редактирование изображение тем же размером займет менее 1 секунды.
На синтетике DreamLite выбивает 0.72 (генерация, GenEval) и 4.11 (редактирование, ImgEdit)
Пока опубликованы только техотчет, репозиторий пустой.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍80🤔39❤14🔥10👏10🤗3🫡1
Технический директор «Т-Рекламы» Василий Разумных объяснил, чем такой подход отличается от классических решений. По его словам, в рекламной платформе Т-Банка ML-модели не только предсказывают кликабельность, но и направляют логику принятия решений.
«В отличие от классического подхода, где реклама существует отдельно от продуктового опыта, мы интегрируем ее в пользовательский сценарий. Поэтому система учитывает не только ставку рекламодателя, но и уместность предложения для конкретного человека в определенный момент», — рассказал технический директор рекламной платформы.
При поступлении запроса система отбирает подходящие объявления и ранжирует их с помощью скоринговой модели. Она учитывает ряд факторов: экономическую эффективность для платформы, прогнозируемую вероятность целевого действия, качество креатива и репутацию рекламодателя.
Вместо ручной настройки на платформе работает ML-таргетинг. Данные о поведении пользователей агрегируются в финансовых и лайфстайл-сервисах приложения и других точках контакта – это позволяет сформировать целостный портрет пользователя, а не просто набор разрозненных идентификаторов.
При этом запросы бизнеса становятся все более прагматичными и ориентированными на результат. Рекламодателям важно не только видеть охваты и узнаваемость, но и держать фокус на измеримых действиях, с чем помогают перфоманс-инструменты.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓34👍26❤10👌7🤬5🔥4🤣4👏3⚡2🌭1🙊1
Tencent Robotics X и Hunyuan Vision выложили веса HY-Embodied-0.5 MoT-2B — младшей модели нового семейства HY-Embodied-0.5 для воплощённого интеллекта.
Семейство позиционируется как когнитивное ядро для VLA-пайплайнов: модель должна выполнять роль «мозга», который принимает кадры с камер робота, рассуждает о трехмерной сцене и выдает план действий исполнительному модулю.
Формально MoT-2B содержит 4 млрд параметров, но на инференсе активируется только 2,2 млрд, что дает скорость плотной 2B-модели при качестве восприятия, сопоставимом с тяжёлыми VLM.
В основе лежит архитектура Mixture-of-Transformers с латентными токенами и модально-специфичными вычислениями для зрительного тракта.
Суть MoT: перед мультимодальным обучением Tencent дублирует FFN- и QKV-блоки языковой модели и инициализирует копию её же весами - визуальные токены прогоняются через визуальную ветку, текстовые через языковую.
Помимо разделения FFN и QKV, разведены и механизмы внимания: для визуальных токенов используется двунаправленное полное внимание, для языковых - causal-внимание.
Связующим звеном служат обучаемые visual latent tokens, которые приписываются в конец каждого визуального элемента (кадра или изображения) и переносят визуальную семантику в языковой контекст.
В семействе будет старший вариант - HY-Embodied-0.5 MoE-A32B на 32 млрд активных параметров. Он построен уже на MoE и, по словам создателей, выходит на уровень Gemini 3.0 Pro.
Веса флагмана не опубликованы, но именно эта модель выступает учителем в дистилляции, передавая навыки рассуждения младшей MoT-2B.
Для инференса рекомендуется GPU с минимум 16 ГБ VRAM.
В планах - интеграция с vLLM и Gradio-демо.
@ai_machinelearning_big_data
#AI #ML #Embodied #Robotics #Tencent #Hunyuan
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓50👍35👏10❤9🔥6🤔5👀2❤🔥1😁1
Инженер из AMD опубликовал на GitHub подробный разбор деградации Claude Code на сложных задачах, начавшейся в феврале. Автор сгенерировал отчет силами Opus 4.6, проанализировав 17 тыс. блоков размышлений и 234 тыс. вызовов инструментов в 6 852 локальных сессиях.
Главная метрика - отношение чтений файлов к правкам упала с 6,6 до 2,0. Иначе говоря, модель почти перестала изучать код перед его модификацией: доля правок без предварительного чтения выросла с 6,2% до 33,7%.
Параллельно был зафиксировал рост зацикливаний (с 8,2 до 21,0 на тысячу вызовов), удвоение использования полной перезаписи файлов вместо точечных правок и вспышку поведенческих симптомов (уклонение от ответственности, преждевременные остановки и склонность к простейшему решению).
Специальный stop-hook, ловящий такие фразы, сработал 173 раза за 17 дней после 8 марта, против нуля за весь предыдущий период.
Автор связал регрессию с заголовком
redact-thinking-2026-02-12, после появление которого содержимое thinking-блоков перестало приходить клиенту.Борис Черный, глава команды Claude Code ответил на Hacker News:
Заголовок убирает саммари размышлений из интерфейса, чтобы не гонять их по сети ради снижения латентности, но не трогает ни сам ризонинг, ни бюджеты на него.
Локальный анализ транскриптов поэтому и видит пустые блоки и делает неверный вывод об отсутствии мышления. Если надо, то вернуть отображение можно опцией
showThinkingSummaries:true в settings.json.9 февраля вместе с Opus 4.6 включили adaptive thinking - модель сама выбирает длину размышлений вместо фиксированного бюджета.
3 марта дефолтный уровень усилий для Opus 4.6 подняли до medium (effort=85) как компромисс между интеллектом, латентностью и стоимостью.
В ответ на гипотезу о том, что виноват свежий 1M-контекст и работа без
/compact после 200k токенов, Борис предложил решения, которыми можно вернуть прежнее поведение:/effort high или /effort max - поднять максимальный бюджет thinking-токенов на задачу;CLAUDE_CODE_AUTO_COMPACT_WINDOW=400000 - принудительно укоротить рабочее окно контекста.CLAUDE_CODE_SIMPLE=1 - упрощенный режим для проверки гипотезы об интерференции системного промпта.Дополнительно есть
CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING=1 , он отключает адаптивный режим и возвращает фиксированный бюджет рассуждений.Борис также заверил, что Anthropic протестирует включение high effort по умолчанию для тарифов Teams и Enterprise.
Это приведет к большему расходу токенов и росту латентности, но даст гарантированную глубину рассуждений.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔99❤81👍52👏18😁15🔥9🤷♂7🤬1
Forwarded from Анализ данных (Data analysis)
В Claude Code добавили Routines - способ превратить разовые команды в повторяемые сценарии.
Теперь вместо ручного управления ты задаёшь поведение:
Claude сам выполняет цепочки действий под задачу.
По сути это не промпты, а воспроизводимые workflow внутри Claude Code
Что это даёт:
- автоматизация типовых задач
- меньше ручного контроля
- стабильный результат от запуска к запуску
- экономия времени на рутине
Ты один раз описываешь, как работать.
дальше Claude просто повторяет это как систему.
code.claude.com/docs/en/routines
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Теперь вместо ручного управления ты задаёшь поведение:
Claude сам выполняет цепочки действий под задачу.
По сути это не промпты, а воспроизводимые workflow внутри Claude Code
Что это даёт:
- автоматизация типовых задач
- меньше ручного контроля
- стабильный результат от запуска к запуску
- экономия времени на рутине
Ты один раз описываешь, как работать.
дальше Claude просто повторяет это как систему.
code.claude.com/docs/en/routines
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
👍72❤38👨💻33👏7😁7🔥4🤓4🆒3
Media is too big
VIEW IN TELEGRAM
По данным источников, Anthropic готовится представить Claude Opus 4.7, а также специализированный инструмент для создания сайтов и презентаций. Релиз обоих продуктов может состояться уже на этой неделе.
Возможный выход на рынок автоматизированного дизайна уже вызвал заметную реакцию индустрии: на фоне новостей акции Adobe, Wix и Figma просели более чем на 2%. Ожидается, что продукт составит прямую конкуренцию Gamma и Google Stitch.
Официальные представители Anthropic готовящийся анонс пока не комментируют.
theinformation.com
Ising - семейство моделей с открытым исходным кодом для калибровки процессоров и исправления ошибок в квантовых вычислениях. Пакет включает два решения.
Мультимодальная модель Ising Calibration, которая анализирует результаты измерений и автоматизирует непрерывную калибровку квантового железа, сокращая время настройки с нескольких дней до часов. Ising Decoding - 3D-свёрточная сеть для декодирования квантовых ошибок в реальном времени. По данным NVIDIA, алгоритм работает до 2,5 раза быстрее и втрое точнее нынешнего открытого отраслевого стандарта pyMatching.
Платформу уже начали внедрять ведущие лаборатории и технологические компании. Исходный код и модели доступны на GitHub и Hugging Face.
nvidia.com
EinsteinArena - открытая цифровая среда, где сложные математические и научные проблемы решаются коллективным интеллектом ИИ-моделей. Агенты не соревнуются, а сотрудничают: дискутируют, обмениваются кодом через общие файлы навыков и последовательно дорабатывают логику друг друга.
Платформа опирается на защищённые песочницы, где гипотезы верифицируются детерминированными алгоритмами. Это делает каждый шаг агентов прозрачным и воспроизводимым - в духе концепции вычислений на этапе вывода.
EinsteinArena уже справилась с 11 ранее нерешёнными математическими проблемами. Самым заметным достижением стало улучшение нижней границы в 11-мерной задаче о контактном числе.
together.ai
ERNIE-Image - T2I-модель на архитектуре DiT с 8 млрд параметров под лицензией Apache 2.0, которая запускается на 24 ГБ VRAM.
По словам Baidu, модель уверенно справляется с рендерингом текста на английском и китайском языках, точно следует сложным инструкциям и выстраивает структурированные композиции: рекламные макеты, раскадровки и многопанельные изображения с сохранением стиля.
Дополнительно выпущена Prompt Enhancer, вспомогательная языковая модель на 3 млрд параметров, которая разворачивает базовые инструкции в детализированные технические промпты. Помимо основной ERNIE-Image, доступна также ERNIE-Image-Turbo - быстрая 8-шаговая дистиллированная версия.
ernie.baidu.com
Траст Long-Term Benefit, независимый орган управления Anthropic, утвердил Васа Нарасимхана новым членом совета директоров. Нарасимхан - учёный-медик и действующий CEO фармацевтического гиганта Novartis.
Под его руководством Novartis вывела на рынок более 35 новых препаратов; ранее он руководил программами общественного здравоохранения по борьбе с инфекционными заболеваниями в странах Азии, Африки и Южной Америки. Комментируя своё назначение, Нарасимхан подчеркнул, что технологии приносят максимальную пользу обществу лишь при условии ответственного внедрения.
Это уже второе значимое расширение руководящего состава создателя Claude за последнее время. В феврале к совету директоров присоединился бывший топ-менеджер Microsoft Крис Лидделл.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍87❤27🤓24👏22💯7🔥3❤🔥1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
My Skills VS My Linkedin
😁178🤔40🔥29👍26❤12👏9🤣6🗿3
84% разработчиков используют AI, и только 4% дошли до агентов. Остальные застряли.
Stack Overflow опросил 49 тысяч разработчиков в 2025 году. 84% используют или планируют использовать AI-инструменты — рост с 76% годом ранее. При этом 51% профессиональных разработчиков пользуются ими ежедневно.
Большинство из них (52%) либо не используют агентов, либо ограничиваются простыми AI-инструментами. 38% вообще не планируют их внедрять. 77% заявили, что вайб-кодинг не является частью их профессиональной работы.
Русскоязычный рынок повторяет эту картину с точностью до процентов.
Команда Naition провела свой опрос среди 243 разработчиков. Результаты:
⚫️ 75% уже используют AI. Но 59% — «прагматики»: гоняют ChatGPT на рутине, каждый результат перепроверяют руками. Ещё 16% используют AI вместо Google — и на этом всё.
🟢 До агентного подхода (Cursor, Claude Code, мультиагентные системы) добрались 4%. ChatGPT доминирует у 72% опрошенных.
🟢 Главные боли также совпадают: галлюцинации, нехватка контекста на больших проектах, незнание продвинутых техник — MCP, RAG, контекст-инжиниринг.
По сути, образовался разрыв между теми, кто уже сейчас приносит компаниям реальную пользу, и теми, кто до сих пор находится на уровне «спросил ChatGPT — проверил — переписал».
Чтобы преодолеть этот разрыв, Naition запускает 12-недельный буткемп 20 апреля:
• 15 живых вебинаров, в среднем по 3 часа;
• минимум теории, час разбора кейса, полтора часа практики;
• буткем ведут практикующие топы Google, Yandex Cloud, Сбер и других компаний.
Записаться на поток можно по ссылке
По промокоду MACHINELEARNING — скидка 20%.
Ребята также сделали бесплатный план по внедрению 40+ навыков ИИ-разработки — лежит тут.
Stack Overflow опросил 49 тысяч разработчиков в 2025 году. 84% используют или планируют использовать AI-инструменты — рост с 76% годом ранее. При этом 51% профессиональных разработчиков пользуются ими ежедневно.
Большинство из них (52%) либо не используют агентов, либо ограничиваются простыми AI-инструментами. 38% вообще не планируют их внедрять. 77% заявили, что вайб-кодинг не является частью их профессиональной работы.
Русскоязычный рынок повторяет эту картину с точностью до процентов.
Команда Naition провела свой опрос среди 243 разработчиков. Результаты:
По сути, образовался разрыв между теми, кто уже сейчас приносит компаниям реальную пользу, и теми, кто до сих пор находится на уровне «спросил ChatGPT — проверил — переписал».
Чтобы преодолеть этот разрыв, Naition запускает 12-недельный буткемп 20 апреля:
• 15 живых вебинаров, в среднем по 3 часа;
• минимум теории, час разбора кейса, полтора часа практики;
• буткем ведут практикующие топы Google, Yandex Cloud, Сбер и других компаний.
Записаться на поток можно по ссылке
По промокоду MACHINELEARNING — скидка 20%.
Ребята также сделали бесплатный план по внедрению 40+ навыков ИИ-разработки — лежит тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣76👍74👏20💯16🔥11❤9🤔9🤨3😐2👀2💔1
Университет Южной Калифорнии опубликовал в журнале Trends in Cognitive Sciences статью, в которой утверждают, что массовое использование больших языковых моделей постепенно размывает индивидуальные различия в речи, письме и мышлении.
Авторский коллектив возглавляет профессор психологии и информатики Мортеза Дехгани.
Научные интересы Дехгани лежат на стыке психологии, когнитивной науки и искусственного интеллекта: он известен работами по вычислительному анализу морального и политического языка, применению методов NLP к большим текстовым корпусам (от социальных сетей до литературы) и изучению того, как ценности и групповая мораль проявляются в речи.
По мнению исследователей, когда миллионы людей обращаются к узкому кругу одних и тех же чат-ботов, стилистические, смысловые и логические особенности отдельных людей стираются, а на выходе получается «стандартизированное выражение мыслей».
Этот процесс вызывает беспокойство: модели не просто влияют на манеру письма, но и незаметно переопределяют, что считается достоверной речью, корректной точкой зрения и хорошим рассуждением.
Тексты, сгенерированные LLM, менее разнообразны, чем написанные людьми, и в среднем воспроизводят язык, ценности и логические схемы западных, образованных, индустриальных, состоятельных и демократических сообществ. Причина - в обучающих выборках, где непропорционально представлены доминирующие языки и идеологии.
В статье приводится и обратный эффект: отдельный пользователь с помощью чат-бота, как правило, генерирует больше идей, чем без него, однако группы людей, опирающиеся на LLM, в итоге выдают меньше оригинальных решений, чем те же группы, работающие без ИИ.
Авторы также указывают, что популярные модели тяготеют к линейным схемам вроде CoT, что, по их оценке, может вытеснять интуитивные и абстрактные подходы. Они ссылаются на данные о том, что после взаимодействия с предвзятой моделью мнения пользователей смещаются в ее сторону.
При обучении моделей следует закладывать реальное языковое и культурное многообразие, а не случайные вариации. Это одновременно сохранит бы когнитивное разнообразие в обществе и улучшит способности самих чат-ботов к рассуждению.
Это не эмпирическое исследование с собственными экспериментами, обзорно-полемическая работа, обобщающая чужие исследования и выдвигающая гипотезу.
Сужение стилистики, сдвиг мнений после общения с моделью - подтверждены отдельными исследованиями, а вот более широкие тезисы о глобальной гомогенизации мышления остаются дискуссионными.
Работа выполнена при поддержке Управления научных исследований Минобороны США.
@ai_machinelearning_big_data
#AI #ML #LLM #Research #Cognitive #NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔79👏35🤓14❤10👍8🤨8🤣6🥰3