Yandex B2B Tech открыла доступ к рассуждающим моделям OpenAI
Теперь у нас есть ChatGPT дома, буквально. Как рассказали в компании специально для @anti_agi, опенсорс-модели на 20 и 120 млрд уже можно использовать по API на платформе Yandex Cloud AI Studio. По стоимости: 100 рублей за 1 млн токенов у младшей модели, и 300 рублей — у старшей.
Вскоре для новых моделей на платформе будет доступен вызов функций для взаимодействия с внешними приложениями: агентские возможности в gpt-oss-120b и gpt-oss-20b поддерживается по умолчанию.
Напомним, что первые за шесть лет открытые модели от OpenAI сопоставимы по качеству с топовыми o3-mini и o4-mini, а в некоторых сценариях превосходят GPT-4o и o1.
@anti_agi
Теперь у нас есть ChatGPT дома, буквально. Как рассказали в компании специально для @anti_agi, опенсорс-модели на 20 и 120 млрд уже можно использовать по API на платформе Yandex Cloud AI Studio. По стоимости: 100 рублей за 1 млн токенов у младшей модели, и 300 рублей — у старшей.
Естественно напоминают: при использовании Yandex Cloud AI Studio данные хранятся и обрабатываются в российских дата-центрах, при этом сервис соответствует всем требованиям закона «О персональных данных».
Вскоре для новых моделей на платформе будет доступен вызов функций для взаимодействия с внешними приложениями: агентские возможности в gpt-oss-120b и gpt-oss-20b поддерживается по умолчанию.
Напомним, что первые за шесть лет открытые модели от OpenAI сопоставимы по качеству с топовыми o3-mini и o4-mini, а в некоторых сценариях превосходят GPT-4o и o1.
@anti_agi
👍10🔥7❤5😁2👎1
Huawei делает хитрый (и ожидаемый) ход в гонке ИИ-ускорителей и до конца года откроет исходный код своей ключевой платформы — CANN (Compute Architecture for Neural Networks).
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
South China Morning Post
Huawei to open-source AI chip toolkit to take on Nvidia’s proprietary platform
The move will help accelerate innovation from developers, while making Ascend chips easier to use, Huawei’s Eric Xu says.
👍7🔥7😁3🌚1
Итак, сегодня OpenAI, по всей видимости, представит долгожданную GPT-5, спустя более двух лет после феерического дебюта GPT-4 в апреле 2023 года. Люди, тестировавшие модель говорят, что она хороша в программировании, математике и науке, но прогресс от GPT-4 не столь впечатляющий, как был между третьей и четвертой версией. Ждем анонса в 20:00 по Москве.
Тем временем OpenAI заключила соглашение с американским правительством о том, что его агентства будут пользоваться ChatGPT за символический доллар в год. Партнёрство заключено на следующий день после того, как GSA добавило OpenAI, Google и Anthropic в список одобренных поставщиков ИИ для госорганов.
А пока OpenAI облизывает чиновников, Google работает над тем, чтобы привязать к себе будущее поколение. Компания обязалась в течение трех лет выделить $1 млрд на предоставление обучения и AI-инструментов американским вузам и некоммерческим организациям. Сейчас в инициативе участвует более 100 университетов. Они смогут получить как денежное финансирование, так и кредиты на облачные вычисления для обучения студентов и исследований в области ИИ. Эта сумма включает бесплатное предоставление студентам доступа к продвинутой версии чат-бота Gemini. Google также обсуждает аналогичные планы в других странах (но не в России, конечно).
Кроме того, Google запустил в Gemini новый инструмент под названием Guided Learning, который работает как ИИ-репетитор, помогая пользователям глубже понять материал, а не просто получать ответы. С помощью Guided Learning Gemini будет пошагово разбирать задачи и адаптировать объяснения к пользователю. Функция использует изображения, диаграммы, видео и интерактивные тесты, чтобы помочь пользователям развивать и проверять свои знания, а не просто давать им ответы. Google заявляет, что эта функция поможет пользователям раскрыть «почему» и «как», лежащие в основе изучаемых концепций. Отметим, что запуск состоялся спустя неделю после того, как OpenAI выпустила похожий режим Study Mode для ChatGPT.
Google также опроверг результаты многочисленных исследований, которые показывают, что использование ИИ-обзоров снижает трафик на сайты-источники этих обзоров. Он заявил, что общий объём переходов с поиска на веб-сайты остаётся «относительно стабильным» из года в год, а среднее качество кликов немного выросло. Исследователей Google обвинил в «некорректной методологии», но данных не представил.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
OpenAI’s long-awaited GPT-5 model nears release
OpenAI's GPT-5, the latest installment of the AI technology that powered the ChatGPT juggernaut in 2022, is set for an imminent release, and users will scrutinize if the step up from GPT-4 is on par with the research lab's previous improvements.
👍6❤3🔥3
OpenAI осваивает искусство маркетинга. Столбцы в презентации GPT5: 69,1% и 30,8% на одном уровне, а столбец в 52,8% выше их в 2 раза.
Если графики рисовал сам GPT-5, то AGI пока дальше, чем кажется.
Трансляция, если что, тут https://www.youtube.com/live/0Uu_VJeVVfo?si=QbSzTT6cn93bw-z1
@anti_agi
Если графики рисовал сам GPT-5, то AGI пока дальше, чем кажется.
Трансляция, если что, тут https://www.youtube.com/live/0Uu_VJeVVfo?si=QbSzTT6cn93bw-z1
@anti_agi
😁29👍7🤣6🕊4🔥1
Кажется, OpenAI обещали, что катофф по знаниям у GPT5 — октябрь 2024.
Учитывая кривые графики, маркетологам пора на выход. Хотя, возможно, опять же GPT5 у них занимается маркетингом и решил о себе чуть-чуть приврать.
@anti_agi
Учитывая кривые графики, маркетологам пора на выход. Хотя, возможно, опять же GPT5 у них занимается маркетингом и решил о себе чуть-чуть приврать.
@anti_agi
😁12🔥5🤣5😱1😇1
Итак, GPT-5 доступна всем пользователям ChatGPT, в том числе бесплатным. Альтман уверяет что экспертный уровень модели соответствует кандидату наук (PhD), а самая впечатляющая способность модели – писать компьютерный код. Но пока что презентация GPT-5, кажется, затмила собой саму модель. Про кривые графики мы уже говорили, но люди также «радуются» таким «прорывным» изменениям, как цветные чаты, сравнениям новой модели со своими же старыми (Маск уже поиздевался, что новая модель OpenAI хуже последней модели Grok), и прочим странностям, напоминающим презентации Apple. Вот они, плоды дружбы Альтмана с Джони Айвом!
Так что, может и хорошо, что проект Stargate стоимостью $500 млрд задерживается. По словам финдиректора Softbank Йошимицу Гото, это происходит из-за более длительных, чем ожидалось, переговоров с другими сторонами и принятий решений о выборе площадок. По его словам, Softbank уже определил площадки в США и на некоторых из них уже идет стройка, но деталей не раскрыл. Но сам Softbank при этом отчитался позитивно: квартальная чистая прибыль составила $2,87 млрд благодаря росту стоимости инвестиций в крупные компании из портфеля Vision Fund.
Как иллюстрация бума AI-датацентров: Meta (запрещена в России и только у нас за экстремизм) привлекла американского облигационного гиганта PIMCO и управляющую альтернативными активами Blue Owl Capital, для финансирования строительства своего AI-датацентра в Луизиане на $29 млрд. PIMCO займет около $26 млрд, видимо, в виде облигаций, а Blue Owl внесет $3 млрд в акционерный капитал.
И еще одна новость в копилку того, о чем я сказал выше: Deutsche Telekom сотрудничает с Nvidia и канадским фондом прямых инвестиций Brookfield в попытке построить одну из «гигафабрик» искусственного интеллекта в немецкой земле Северный Рейн-Вестфалия.
Между тем Маск сообщил рекламодателям, что соцсеть X планирует внедрить рекламу в ответы Grok: «Если пользователь пытается решить проблему [обращаясь к Grok], то реклама конкретного решения будет идеальным решением в этот момент». Кажется, ответы Grok станут еще более кринжовыми. Зато может быть соцсети удастся сохранить рекламодателей, после ухода CEO Линды Яккарино.
Кстати, у разработчика Grok, компании xAI тоже потери: свой пост покинул глава юридической службы Роберт Кил, проработав на нем чуть больше года. Он решил посвятить себя детям, хотя год назад, принимая предложение Маска, даже и не помышлял об этом – он перешел в xAI, оставив только-только созданную им юридическую фирму. Ну, что ж, дети – это святое!
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
OpenAI launches GPT-5 as the AI industry seeks a return on investment
OpenAI launched on Thursday its GPT-5 artificial intelligence model, the highly anticipated latest installment of a technology that has helped transform global business and culture.
❤5🔥4👍3🤔3
Хочешь продавать — плати 🐷
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
💻 Суть договорённости проста: компании получили возможность продолжать продажи ускорителей для искусственного интеллекта в Китае, но только при условии передачи части выручки в США в рамках нового механизма экспортного лицензирования. Речь идёт прежде всего о GPU для центров обработки данных: H20 у Nvidia и MI308 у AMD.
🐷 Для компаний Китай остаётся важнейшим рынком — по экспертным оценкам, он приносит Nvidia значительную долю выручки (от $17 до $23 млрд) и составляет ощутимый процент доходов AMD ($800 млн только от GPU). Поэтому компромисс с регуляторами даст возможность не потерять доходы.
❓ Правда есть и вопросы. Как минимум, возникает риск создания прецедента: другие страны или сектора могут столкнуться с похожими условиями в будущем.
🔤 🔤 С другой стороны, мы можем только порадоваться. Из Китая ускорители неизбежно будут перетекать и на наш рынок, который с т.з. компьюта уступает, к сожалению, не только Штатам и Китаю.
@anti_agi
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤5👍4🔥4🌚3😁1
In love with the machine
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
📚 📚 📚 Исследования подтверждают: LLM уже понимают наши эмоции лучше людей. А вовлекающие алгоритмы буквально подпитывают как наше эго, так и наши страхи. В последней GPT-5 манеру общения подсушили, что понравилось немногим.
@anti_agi
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁3🔥2
Что ж, давайте сегодня про чипы опять
Трамп взвешивает возможность разрешить Nvidia продавать в Китай не только H20, созданный на предыдущей архитектуре Hopper, но и новые чипы на Blackwell:
«У Дженсена также есть новый чип Blackwell. Это несколько улучшенный (в негативном смысле) Blackwell. Другими словами, его мощность снижена на 30–50%. Думаю, он снова придёт ко мне на встречу по этому вопросу»
Напомню, что после запрета экспорта H20, Nvidia разработала новый кастрированный чип B30 для Китая, на основе Blackwell. Речь явно идет именно об этом чипе. Впрочем, для него разрешений Трампа не требовалось бы, ведь он изначально дизайнился так, чтобы удовлетворять новым ограничениям. В частности, в нем планировалось использовать память GDDR7 вместо высокопропускной HBM.
Разгадка, возможно в том, что Китай, уже продавивший Трампа в переговорах по торговой сделке на отмену запрета экспорта H20, хочет достичь большего. Следующее его требование – снятие ограничений на доступ Китая к HBM-памяти. Для Трампа, чей синоним – эго, важно сделать вид, а на суть – плевать. Поэтому он вполне может, чтобы сохранить лицо, не снимая ограничения формально,
Вот только Китай вряд ли удовлетворится этим. Государственные медиа там уже разгоняют нарратив, что H20 небезопасны для Китая из-за возможных бэкдоров. Почувствовав слабину Трампа, Китай будет давить по всем направлениям.
Но факт остается фактом – память с высокой пропускной способностью стала важнейшим фактором в AI-гонке. Лидер рынка HBM-памяти, корейская SK Hynix, ожидает, что этот рынок будет в ближайшие пять лет расти на 30% в год. А другой участник этого рынка, компания Micron, из-за роста спроса на высокопропускную память повысил прогноз квартальной выручки с $10,7 до $11,2 млрд, а валовой маржи – с 42% до 44,5%. В условиях нехватки памяти Micron повысил цены на свою продукцию.
«Apple делает так, что ни одна ИИ-компания, кроме OpenAI, не может занять первое место в App Store, что является явным нарушением антимонопольного законодательства. xAI немедленно подаст в суд».
ChatGPT является самым скачиваемым бесплатным приложением для iPhone в США, опережая Grok, который находится на пятом месте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤4👍3🔥3
Forwarded from Нецифровая экономика (Oleg Salmanov)
В России появилась нейросеть, которая умеет предсказывать кризисы на фондовом рынке
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
«Модель эффективно обрабатывает неравномерные данные и достигает точности 78,70% при прогнозе кризисных событий в день наблюдения и 78,85% — на следующий торговый день. Использование месячной повторной тренировки и адаптивных временных окон позволило довести точность до 83,87%», — профессор Тамара Теплова
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
TACC
В России создали нейросеть, предсказывающую кризисы на фондовом рынке
По словам исследователей, в прошлом экономисты еще не применяли столь сложную структуру модели к биржевым данным РФ
❤6🤣5👍1🔥1
DeepSeek R2 в августе❓
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
💻 По «сливам», R2 использует кластер на основе Ascend 910B с загрузкой около 82% и даёт 512 PFLOPS (FP16) — по эффективности близко к кластерам на базе NVIDIA A100 (позапрошлое поколение).
✔️ Технические слухи : гибридная MoE-архитектура, ~1.2 трлн параметров (активных ~78B), и существенное снижение стоимости инференса по сравнению с западными аналогами — но всё это пока непроверённые данные из утечек. Как и то, что модель тренировали преимущественно на «домашнем» железе.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
🔤 🔤 Если подтвердится — серьёзный шаг для китайской экосистемы (меньше зависимость от NVIDIA). Но пока — это смесь реальных достижений и маркетинговых утечек в неизвестной пропорции.
@anti_agi
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Huawei Central
Huawei AI chip-powered DeepSeek R2 tipped to launch this month
DeepSeek R2 AI model has started emerging in leaks and is expected to go official this month, powered by Huawei Ascend AI chip. The upcoming AI reasoning LLM will likely compete with the OpenAI ChatGPT 5 version in the technological world. An interesting…
🔥10❤6👍3🌚2👌1
Трансформеры, которые «думают»
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем❓
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
▪️ Масштабируются лучше: EBT скейлятся эффективнее, чем современный «Transformer++» на 35% по данным, параметрам и вычислительным ресурсам.
▪️ «Думают» лучше: Во время работы (inference) EBT показывают на 29% больший прирост качества на языковых задачах благодаря своему итеративному подходу.
▪️ Универсальны: Архитектура работает и с дискретными данными (текст), и с непрерывными (изображения). Например, в задаче удаления шума с картинок EBT обошли Diffusion Transformers, сделав меньше проходов.
▪️ Лучше обобщают: При тех же или даже худших результатах претрена EBT дают лучшие результаты на большинстве downstream-задач.
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍7🔥6🤔1🌚1
Первой фантастической книгой, которой я самостоятельно прочитал в детстве, стал «День триффидов» Джона Уиндема. Высокие трехметровые ядовитые растения с раскачивающимися шляпками, стоящие вдоль дорог, и поджидающие новую жертву надолго врезались в мою память. Почему-то мне кажется, что прообразом этих триффидов послужил ядовитый борщевик – всякий раз, когда я вижу, как он выглядывает из-за забора или поверх других полевых растений, я ожидаю услышать свист ядовитого жала триффида.
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
👍11🔥7😁5❤1
Предложение от которого откажутся 😏
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.🐷 🐷 🐷
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
🔤 🔤 Google пока не прокомментировал это предложение. И не станет, скорее всего. Потому что Chrome — больше, чем просто браузер или популярный вэб-движок, как и сам Google давно уже больше простого поисковика.
@anti_agi
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Perplexity offers to buy Chrome for billions more than it's raised | TechCrunch
Perplexity tells TechCrunch the terms of the offer include a commitment to keep Chrome’s underlying engine, Chromium, open source and to invest $3 billion into it.
👍5😁4😱3🤣2🌚1
Anthropic теперь, как и OpenAI, предлагает госструктурам свои модели по доллару. Но если Альтман предложил это только правительству, то есть исполнительной власти, то Амодеи – «всем трём», то есть ведомствам, законодателям и судебным структурам. Ждем, когда AI компании начнут приплачивать за то, чтобы чиновники пользовались именно их продуктами.
К слову, модели Anthropic как раз увеличили контекстное окно. Для клиентов API Anthropic модель Claude Sonnet 4 оно теперь составляет 1 млн токенов. Это означает, что ИИ может обрабатывать запросы длиной до 750 000 слов, больше чем во «Властелине колец». Раньше лимит был 200 000 токенов, а у GPT-5 от OpenAI он составляет 400 000 токенов.
Что до самой GPT-5, то пользователям явно не зашло, когда у них нет выбора и модель сама выбирает будет она отвечать быстро или думать долго. Или не удалось им сделать нормальный маршрутизатор. В общем, GPT-5 — это не та унифицированная модель ИИ, на которую надеялась OpenAI. Теперь в настройках GPT-5 в панели выбора модели появится выбор: «Авто», «Быстро» или «Мышление». Кроме того, платные пользователи снова получат доступ к GPT-4o, GPT-4.1 и o3.
«Привет, я Уолдог, и я здесь, чтобы дать голос тем, у кого его нет, — животным, живущим на улице»
Всем приятного киберпанка!
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Anthropic takes aim at OpenAI, offers Claude to ‘all three branches of government’ for $1 | TechCrunch
Anthropic’s escalation — a response to OpenAI’s attempt to undercut the competition — is a strategic play meant to broaden the company’s foothold in federal AI usage.
❤7🔥3👍2