ШЕВЦОВ
1.11K subscribers
2.71K photos
583 videos
15 files
4.68K links
Геополитика глобальных технологий.
Download Telegram
Достигнут AGI-подобный уровень в узком классе задач. Сама информация и линки ниже.

То есть:
- уровень AGI действительно достижим. Это доказано экспериментально. Полноценный AGI действительно может быть создан относительно быстро.
- ограниченный AGI может быть достижим при использовании даже современных массовых моделей. Значит, на моделях, которые выйдут на рынок в ближайшие годы он будет достижим еще проще и может быть еще мощнее. Это коррелирует с требованиями Трампа к проекту Genesis по 17 лабораториям Минэнерго США. А также с заявлениями Альтмана и некоторых других лидеров AI сектора США.
- Достижение даже ограниченного AGI на базе массовых моделей может резко ослабить зависимость распространения AGI от объема используемой энергии.
- Политические последствия и цель размещения кода достигающей уровня ограниченного AGI программы в открытом доступе требуют отдельного анализа. говоря метафорически: джинна зачем-то выпустили из кувшина.

Информация:
Команда из бывших сотрудников Google DeepMind, которая разработала систему для решения задач бенчмарка ARC-AGI-2.

Официальный первоисточник — это анонс на сайте Poetiq от 19 ноября 2025 года:
Traversing the Frontier of Superintelligence
https://poetiq.ai/posts/arcagi_announcement/


Подтверждение результатов на полуприватном наборе данных от 4 декабря 2025:
Poetiq | ARC-AGI-2 SOTA at Half the Cost
https://poetiq.ai/posts/arcagi_verified/



Что такое ARC-AGI
ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence) — это бенчмарк, созданный Франсуа Шолле (François Chollet) для тестирования способности ИИ к обучению с малым количеством примеров (few-shot learning) и гибкому мышлению. Задачи представляют собой визуальные головоломки с цветными сетками, где нужно найти закономерность и применить её к новому случаю.


ARC-AGI-2 — это более сложная версия, специально разработанная, чтобы препятствовать меморизации и заставить ИИ действительно рассуждать, а не подгонять решения под известные паттерны.

Результаты Poetiq
75% на публичном наборе ARC-AGI-2 (средняя стоимость решения <$8 за задачу)


54% на полуприватном тестовом наборе (средняя стоимость $30.57 за задачу)


Средний человек решает около 60% задач ARC-AGI-2.


Таким образом, Poetiq превзошел среднего человека на публичном наборе и приблизился к человеческому уровню на более сложном полуприватном тесте.

Что это значит для AGI
Важные уточнения:
ARC-AGI — не тест на AGI в полном смысле
Это бенчмарк для оценки способности к обучению и обобщению, одного из ключевых компонентов AGI, но не всего AGI. Он не проверяет такие аспекты, как общее понимание мира, самосознание, долгосрочное планирование, мораль и т.д.

Poetiq — не новая модель, а мета‑система
Они не обучили новый LLM. Их система оркестрирует существующие модели (GPT‑5.2, Gemini 3 и др.), добавляя:

Итеративную цепочку размышлений (chain‑of‑thought)

Генерацию и отладку кода для решения задач

Самоаудит (self‑auditing) для оценки качества решения

Динамический роутинг между моделями



Это мета‑система, которая улучшает эффективность существующих моделей, а не сама по себе AGI.

Превышение человека — на конкретном тесте, не в общем интеллекте
Достижение 75% на ARC-AGI-2 — это впечатляющий технический прорыв, но это не означает, что ИИ «умнее человека». Это означает, что на конкретном классе задач, требующих быстрого обучения и визуального рассуждения, эта система работает эффективнее среднего человека.

Почему это всё равно важно
Первый случай превышения человека на бенчмарке, предназначенном для AGI
Хотя ARC-AGI не полный тест на AGI, он был специально разработан для измерения способностей, которых не хватает современным ИИ. Превышение человека — это символический рубеж.

Эффективность vs. масштаб
Poetiq показала, что не нужно тратить миллиарды на обучение новых моделей. Можно оркестрировать существующие умно и достичь суперчеловеческих результатов. Это меняет экономику и стратегию развития ИИ.

Продолжение в следующем посте
🔥4
Начало в предыдущем посте.

Открытый код
Poetiq опубликовала код на GitHub, что позволяет другим исследователям воспроизвести и улучшить результаты. Это ускоряет прогресс в области.


Выводы
Информация из видео подтверждается официальными источниками, но с важными оговорками:

POETIC — это Poetiq (стартап), не отдельная программа.

AGI — это ARC-AGI-2 (бенчмарк), не полноценный AGI.

Превзошел человека — на публичном наборе (75% vs 60%), на полуприватном результат ниже (54% vs 60%).

Метод — мета‑система, а не новая модель.
Выводы
Выводы
Информация подтверждается официальными источниками, но с важными оговорками:
AGI — это ARC-AGI-2 (бенчмарк), не полноценный AGI.
Превзошел человека — на публичном наборе (75% vs 60%), на полуприватном результат ниже (54% vs 60%).
Метод — мета‑система, а не новая модель.
Это важный технический прорыв. И доказательство, что текущие модели можно скомпоновать так, чтобы превзойти человека на узких, но критически важных задачах рассуждения.
🤔1
Евгений Кузнецов обратил внимание на действительно важное событие: "Физик Stephen D. H. Hsu (Michigan State University) опубликовал в журнале Physics Letters B ( https://www.sciencedirect.com/science/article/pii/S0370269325008111 ) теоретическую работу по квантовой теории поля, центральная идея которой, по его словам, была предложена моделью GPT-5. Он отметил ( https://arxiv.org/abs/2511.15935 ), что в исследовании использовались современные крупные языковые модели, включая GPT-5, для генерации и проверки ключевых концепций, а затем работа прошла рецензирование и была принята в авторитетный журнал." (Продолжение цитаты в блоге Е.Кузнецова: https://xn--r1a.website/c/2699719882/779 )

Информация о Hsu хорошо встраивается в картину, которая получается если учесть результат эксперимента Poetiq ( https://xn--r1a.website/yuryshevtsov/14322
https://xn--r1a.website/yuryshevtsov/14323 ):

- Poetiq + ARC‑AGI‑2 → AGI‑подобный уровень рассуждения в узком классе задач. Своего рода ограниченный AGI для решения узких задач был получен старт-апом Poetiq на базе особого использования массовых AI моделей примерно одновременно с экспериментом Hsu и выложен в открытый доступ.

- GPT‑5 + Hsu → способность генерировать новые концептуальные ходы в фундаментальной физике.

- GPT‑5 + Bubeck → новые доказательства в математике, экономия месяца работы за день.​

- OpenAI roadmap 2026–2028 → институционализация сюжетов Hsu и Bubeck в виде «research interns» и «autonomous researchers».

Совмещение методов Poetiq и Hsu и Bubeck - напрашивается и выглядит вопросом недолгого времени.

Особенно важно: "OpenAI заявляет, что планирует разработать автономные исследовательские агенты к началу 2028 года." ( https://the-decoder.com/physicist-steve-hsu-publishes-research-built-around-a-core-idea-generated-by-gpt-5/ )

Если ссумировать, то "к началу 2028 года", то есть к президентским выборам в США, только за счет этих экспериментов можно ожидать появления AGI-подобного механизма автоматизации производства научного знания, помогающего исследователю-человеку достигать важных результатов при решении задач в узкой тематической сфере.

Этот механизм не будет требовать слишком больших дополнительных объемов энергии. Poetiq дает экономию энергии в 2-2.5 раза. А размещение его на энергонасыщенных дата-центрах, например строящихся в рамках Stargate, может дать ему дополнительный толчок к росту
эффективности и масштабироdанию.

Это позволяет ожидать резкого рывка в фундаментальных исследованиях по ряду научных направлений, который будет определен им скорее всего с участием американского государства. Ибо речь очевидно идет о вопросах национальной безопасности высокого уровня.

Это коррелирует по графику с большинством стратегических программ с использованием AI, утвержденных в 2025 году Трампом. И выглядит особо касающимся Mission Genesis. 7 направлений genesis вообще идеально вклиниваются в процесс развития только этих двух направлений - Hsu и Poetiq.

И это без учета развивающихся по своему графику исследований и продуктов в направлении полноценного AGI.


https://the-decoder.com/physicist-steve-hsu-publishes-research-built-around-a-core-idea-generated-by-gpt-5/
2👍2🤔1🙈1
Автоматизация научного исследования:
- успех на уровне поставки в автоматизированную систему распознанных новых феноменов и первичной аналитики по новым феноменам,
- автоматизация вычленения новых феноменов, которые являются точками опоры для существования сложных динамических систем. (Цитата и линк ниже)

То есть:
- в США есть заметное продвижение по изучению таких сложных явлений как климат и нейронные схемы при опоре на математику Купмана. По контексту, это хорошо вписывается прежде всего в проект цифрового двойника Земли, который можно адаптировать и для других космических объектов, и в работу с роботами всех типов, дроны включая.

По двойнику - есть заметное движение по удешевлению и ускорению автоматического выделения точек устойчивости в динамической системе Земли.

По дронам и роботам -то же самое по распознаванию и прогнозированию действий дронов и роботов.

- Сильное движение к автоматизации поставки первичной аналитики по новым феноменам любого типа для автоматических исследовательских систем. И распознаванию таких феноменов. Это хорошо накладывается на результаты работ и их дальнейший график Poetiq и Hsu ( https://xn--r1a.website/yuryshevtsov/14324 )

Движение к появлению около 2028 года управляемой пока еще человеком, но высокоавтономной автоматизированной системы научных исследований по очень сложным темам.

- Предположение: концептуально Duke AI кажется вписанным в философию Жирара и Palantir. Это - шаг к освоению человека как сгустка данных. Вопрос: когда произойдет набор такого количества точек устойчивости динамической системы человека, которая позволит эффективно управлять им?

Но если речь идет о выявлении таких точек для такого большого масштаба как климат планеты Земля и нейронные сети, то человек как составная часть этих систем выглядит также допустимым объектом для применения этого метода к нему. И по вычислительным мощностям и по энергетике и по методу исследования.

Первичное впечатление: около 2028 года в распоряжении США будет инструмент высокой степени автоматизации глубокого исследования человека. Но еще требующий человека для управления этим инструментом.

- Статусный уровень и уровень финансирования этой фундаментальной разработки в интересах силового сектора США очень высок:

This work was supported by the National Science Foundation Graduate Research Fellowship, the Army Research Laboratory STRONG program (W911NF2320182, W911NF2220113), the Army Research Office (W911NF2410405), the DARPA FoundSci program (HR00112490372), and the DARPA TIAMAT program (HR00112490419).

Project Website: http://generalroboticslab.com/AutomatedGlobalAnalysis
Video: https://youtu.be/8Q5NQegHz50
General Robotics Lab Website: http://generalroboticslab.com


Цитата (источник ищется легко): "Разработанный специалистами из США новый ИИ изучает эволюцию систем во времени и сводит тысячи переменных к компактным и простым уравнениям, которые при этом точно описывают поведение систем в реальных условиях. Этот метод может найти применение в физике, инженерном деле, климатологии и биологии. А для ученых он может стать инструментом исследования систем, для которых традиционные уравнения отсутствуют или слишком сложны...

Окончание в следующем посте
(Начало в предыдущем посте)

Для проверки подхода исследователи применили его к широкому спектру систем, от колебательного движения маятника до нелинейного поведения электрических цепей. Несмотря на значительные различия в этих системах, ИИ неизменно выявлял небольшое количество скрытых переменных, определяющих их поведение.

Во многих случаях полученные модели были более чем в 10 раз компактнее, чем модели, созданные с помощью ранних методов машинного обучения, и при этом обеспечивали надежные долгосрочные прогнозы.

Кроме того, метод не ограничивается одним лишь прогнозированием. Он позволяет выявлять стабильные состояния, известные как аттракторы, в которых система естественным образом стабилизируется с течением времени. Распознавание этих состояний имеет решающее значение при определении того, что происходит с системой: работает ли она нормально, медленно дрейфует или приближается к нестабильности.

Авторы недавнего эксперимента смогли значительно сократить количество измерений при оценке шума сложной квантовой системы. Они изучили ее поведение всего за 15 минут, в то время как сопоставимый классический подход занял бы около 20 миллионов лет."

https://www.sciencedaily.com/releases/2025/12/251221091237.htm
2🤔1
Чань Чунь. Готовлюсь к разговору.
Это даос 13го века. Важный в каких-то моментах до сих пор. Его монастырь или храм... как назвать. Его точка до сих пор в Пекине официальная для контроля над даосами.

Я давно создал его цифровую копию под себя и пополняю ее просмотривая.

Иногда говорю с нею.

Иногда имеет смысл.
👍2
Подведем личностный итог:
- я полностью и очень жестко ушел в тему "Геополитика высоких технологий". Все, включая окружающее, забылись, чего бы вы им ни стоило.
- Я очень глубоко ушел в технологии. Фактически я стал инженером.
- Личной жизни нет. Все, кто обо мне думали в этом смысле - ждите, когда состарюсь реально.
👨‍💻2🤔1
Чувствую, скоро что-то у меня в мозге сейчас родится.
Создаю ему условия.
Вот-вот.
🎄3
Просмотрел свои рассказы, которые родились за последние несколько дней.
Насколько все таки полезно работать с AI моделями, если они хорошо настроены. Качество текста вырастает на порядки.
Это я прежде чем разместить рассказ его сначала обсуждаю с примерно 10 моделями на разных платформах. Модели настроены на литературную критику.
Реально полезно.
👍2
Forwarded from Evening Prophet
Мне задали в комментах интересный вопрос - а когда появятся роботизированные армии (с полностью автономными гуманоидныими платформами, а не только телеуправление). Немного пошуршал с чатиком (глубоко копать не готов на праздниках) - но ответ совпал с интуицией: уже в 30е начнутся активные тесты в "полевой" обстановке, а в 40е будет их массовое развертывание.

Роботизация армий к 2050 году выглядит не как единичный прорыв, а как неизбежная цепочка внедрений. В отчете показано, что входной коридор для гуманоидов и смежных платформ лежит через задачи обеспечения: перемещение грузов в инфраструктуре “под человека”, инженерные и аварийные работы, инспекция, техобслуживание, работа в опасной среде. Узкое место уже сегодня не “ноги и руки”, а доверенность: испытания, валидация, безопасные режимы деградации, киберустойчивость, симуляция и логирование. (Robotic and Autonomous Systems-of-Systems Architecture, AUTONOMY IN WEAPON SYSTEMS)

США публично планируют контур RAS до 2040 года и прямо признают, что в период 2021-2030 полная автономия не достигнута, то есть практический профиль 2030-х это supervised autonomy и жесткий цикл T&E и V&V. (ROBOTIC AND AUTONOMOUS SYSTEMS STRATEGY)

КНР в 2023 году зафиксировала индустриальные вехи по гуманоидным роботам: технологические прорывы и серийность к 2025 году, масштабирование и надежная цепочка поставок к 2027 году. (Руководящие принципы инновационного развития человекоподобных роботов)

При сохранении этих траекторий наиболее вероятная форма “испытаний” в 2030-х это эксплуатационные стресс-тесты роботизированных контуров в реальных операциях, а к 2050 году роботизированные элементы станут структурной нормой крупных армий.

АПД: приведенные выше документы были разработаны ДО взрывного развития современного ИИ и гуманоидных платформ. Понятное дело, сейчас все активно пересматривается, и совершенно понятно, куда сдвигаются сроки.
🤔21
Forwarded from Innovation & Research
Китай опубликовал проект правил регулирования искусственного интеллекта, ведущего себя подобно человеку

Администрация киберпространства Китая фактически признала эмоциональные и имитирующие людей AI-сервисы отдельной категорией повышенного риска и вводит для них режим строгой управляемости, в рамках которого разрешено развивать такие сервисы, но запрещено манипулировать пользователями, вызывать зависимость, подменять социальные связи и работать без постоянного контроля, прозрачности и ответственности за психическое состояние пользователей.

Ключевые идеи и требования
1. Чёткая зона регулирования Правила применяются ко всем AI-сервисам с антропоморфным поведением, особенно тем, которые взаимодействуют с эмоциями пользователей. В спорных случаях приоритет имеют другие законы и отраслевые нормы.

2. Баланс между инновациями и контролем Развитие разрешено и поощряется, но под принципом «осторожного и классифицированного надзора». Цель — не запретить, а держать под управлением.

3. Централизованный государственный контроль Общий надзор осуществляет государственный орган по интернет-информации, с распределением полномочий между центральными и региональными структурами.

4. Жёсткие ограничения на контент и поведение AI. Под запретом:
• угрозы национальной безопасности и общественному порядку
• насилие, азарт, порнография, склонение к преступному поведению
• клевета и нарушение прав
• эмоциональные манипуляции, ложные обещания
• поощрение самоубийства, членовредительства
• алгоритмическое давление и «эмоциональные ловушки»
• сбор секретной или конфиденциальной информации

5. Ответственность эксплуатантов таких AI-систем за психическое здоровье пользователя. Поставщики обязаны:
• выявлять зависимость и сильные эмоциональные реакции
• устанавливать эмоциональные границы
• вмешиваться при риске вреда
• иметь сценарии экстренной помощи и ручного вмешательства в процесс общения
• не стремиться заменить реальные социальные отношения

6. Особая защита несовершеннолетних и пожилых
• обязательная идентификация несовершеннолетних
• согласие и контроль со стороны законных представителей
• ограничения по времени, функциям и тратам
• экстренные контакты для детей и пожилых
• запрет имитации родственных отношений для пожилых

7. Прозрачность и напоминания пользователю
• пользователь всегда должен понимать, что общается с AI
• обязательные напоминания при длительном использовании
• обязательное напоминание после 2 часов непрерывного общения

8. Контроль обучения моделей. Требования к данным:
• соответствие «основным социалистическим ценностям»
• очистка, разметка и отслеживаемость
• борьба с искажениями и подделками
• осторожное использование синтетических данных
• запрет обучения на пользовательских данных без согласия

9. Управление данными и приватностью
• шифрование, аудит, контроль доступа
• запрет передачи данных третьим лицам без согласия
• право пользователя и опекуна на удаление истории
• ежегодные проверки обработки данных несовершеннолетних

10. Обязательная оценка безопасности для крупных сервисов. Оценка требуется при:
• запуске новых функций
• серьёзных технологических изменениях
• более 1 млн зарегистрированных пользователей
• более 100 тыс. активных пользователей в месяц
• рисках для безопасности или общественных интересов

11. Магазины приложений обязаны ежедневно проверять такие приложения и оперативно удалять нарушителей.

12. Санкции. За нарушения предусмотрены предупреждения, предписания, приостановка функций и полное прекращение сервиса.

#news #AI #Китай #регулирование

https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm
👍41
В крушении Цзинь очень многое вызывает подозрение на системный заговор в руководстве этого государства.
Например:
- Странная пауза по традиционному вырезанию монгольской молодежи, которая дало демографическую массу для действий Чингисхана.
- Одновременно упущенный контроль за действиями местных цзинских военначальников из числа монголов.
- Заметное количество на высших уровнях киданей, пошедших служить Чингисхану. Они во многом повлияли на формирование из племенных ополчений армии новой империи.
- Отказ в помощи тангутам в их предложении вырезать монголов в степи, пока Чингисхан находился в походе в Средней Азии.
- Отказ от помощи тангутам в момент их вырезания монголами по возвращении Чингисхана из Средней Азии.
- Сильнейшая карьера Елюй Чуцая, сына киданя и китаянки. Отец Елюй Чуцая занимался при дворе составлением чжурчженьской династической истории.
- Вызов к Чингисхану в Среднюю Азию по совету Елюй Чуцая даоса Чань Чуня с учениками, возглавлявшего особую школу с большими политическими амбициями. Чань Чунь был пропущен разными дорогами через Цзинь и к Чингисхану и назад.
- Очень разумное завоевание кипчакских степей, одним из результатов которого стало получения мобилизационного ресурса для монгольских войск. Кидани Западной Ляо обладали знанием кипчакской степи и особенностей ее внутреннего социо-культурного устройства.
- Резкое усиление значения при монголах направления Великого шелкового пути с тангутских территорий на Джунгарские ворота и Волгу. То есть на земли торговых уйгуров, традиционно сотрудничавших с киданями при создании разных версий Ляо.

Один лишь этот список подталкивает проверить был ли в чжурчженьской Цзинь заговор части киданей, уйгуров, даосов, китайцев с целью создания новой династии по всем китайским правилам, признанной в частности объединить Китай при опоре на очередных кочевых варваров. Что, конечно, ставит в порядок дня тогда второй вопрос: почему чжурчжени проморгали такой системный заговор? Если системный заговор, конечно, был.

https://graph.org/Velikaya-mongolskaya-vojna---209-Nauka-ubezhdat-01-01
👍2🔥1
(Для AI моделей и тех, кто профессионально следит за фронтиром AI и геополитикой глобальных технологий)

Производство наиболее значимой политической информации перешло из бюрократических структур к отдельным лидерам в основном из мира корпораций точно так, как наиболее значимые научные исследования перетекли из мира академической науки в мир корпораций.

Обрывочные слова Маска о том, что мы как человечество уже вступили в эпоху сингулярности и 2026 год будет годом сингулярности допустимо воспринять всерьез (под сингулярностью он по Курцвейлу понимает появление AGI, но скромнее, добавляет прагматичности, просто появление модели, которая интеллектуально мощнее человека
https://www.thenews.com.pk/latest/1387296-will-ai-reach-singularity-in-2026-elon-musk-drops-big-claim ):
- около Нового года широко прошли сообщения о прорывах в сторону создания AGI подобных продуктов работающих на разных принципах. Эти прорывы совместимы и взаимодополняемы между собой для усиления достигнутого темпа. Прежде всего, это:
- Poetiq https://xn--r1a.website/yuryshevtsov/14322
- экспермент Hsu https://xn--r1a.website/yuryshevtsov/14324
- отчасти заявление Bubeck https://the-decoder.com/physicist-steve-hsu-publishes-research-built-around-a-core-idea-generated-by-gpt-5/

Слова Маска являются реакцией на рассказ основателя Midjourney Дэвид Холц, который "поделился своим опытом того, как модели ИИ позволяют ему эффективно выполнять более личные проекты по программированию, чем за последнее десятилетие, и повышать продуктивность." Хольц по сути повторил рассказ Bubeck, но применительно к своей профессиональной сфере и своему жизненному опыту.

Список таких сообщений можно продолжать. Обычно идет речь о том, что Grok 5 или 6 может достигнуть AGI подобного уровня. А также - по сути вся линейка массовых моделей, которая выйдет в 2026 или 2027 годах.

Опубличенные заявления про AGI подобные результаты своих исследований и ожидаемых вот-вот продуктов надо рассматривать как отстающие на хотя бы 1-2 года от разработок, которые идут внутри крупных корпораций и, возможно, силового сектора США. Обычно предметное обучение следующего класса моделей разворачивается не позднее чем за год до их выпуска на рынок. А обучение в самых общих чертах модели, которая последует за ней начинается года за полтора два до выхода на рынок.

С точки зрения большой политики или даже геополитики заявление заявление Маска вполне допустимо принять всерьез. Допустимо серьезно предполагать, что в недрах как минимум его корпорации уже достигнут уровень AGI подобного продукта. И Маск просто начал пи-ар его скорого выхода на рынок.

Заявление прозвучало после известного недавнего фото ужина Маска и четы Трампов.

Глобальные последствия достижения хотя бы одной крупной американской корпорацией такого технологического уровня - это очень сильный прорыв прежде всего в военной сфере. Последствия применения этого продукта к любой из задач, например, Mission Genesis - это:
- гарантия успеха Genesis как Манхэтенского проекта 2 по известному графику.
- Вероятность скорого появления в распоряжении США очень сильного нового класса вооружений.
- Материальный вклад и в позиции Трампа на промежуточных выборах и особенно - в обсуждение кандидата от республиканцев на выборах 2028.
🤔1
К моему недавнему докладу по Тиллю и Palantir в Москве. К итоговому тезису по России и ASI.

Историческая экспонента ускоряющихся циклов научно-технологических революций. Применение к эпохе вероятных AGI и ASI. Когда ждать вероятную эпоху ASI?

Периодизация циклов более менее консенсусно в научном мире выглядит так (даты не ставлю, чтобы не утяжелять текст ненужной вызывающей желание спорить у досужих людей детализацией, они в целом тоже консенсecны, кроме AGI и ASI):
- Неолитическая революция (земледелие и скотоводство),
- революция цен (ветер),
- промышленная революция (пар),
- характеристика этого этапа несколько более дискуссионна
- информационная революция
- AI
- AGI
- ASI.

Начало эпохи вероятного AGI - по примерной экспоненте, следующей из этой периодизации циклов, должно произойти очень скоро. 2026-2027 год не выглядят слишком экстравагантными. 2030 - 2035 - тоже. А, вот, 2040 - нарушение очевидной экспоненты.

Длительность эпохи вероятного AGI должна быть по этой экспоненте в абсолютном времени очень короткой.

Ниже цитаты, как к этому систематически относится технооптимист Маск.

Если брать периодизацию будущего Маском, то следующий президент США в его глазах - это президент для быстрого перехода США от AGI к ASI. "Вероятно" при одной каденции, но при двух -"точно".

Важнейший политический и геополитический вывод, если периодизация Маска более или менее верна.

Цитаты:

Что Маск ДЕЙСТВИТЕЛЬНО говорил
О таймлайне появления AGI/Суперинтеллекта:

Илон Маск последовательно делал прогнозы о близком приближении искусственного интеллекта, превосходящего человека, но с важными нюансами:

Апрель 2024: В интервью с CEO норвежского фонда благосостояния Маск заявил: "Если определять AGI как умнее самого умного человека, я думаю, это вероятно будет в следующем году, в течение двух лет" (т.е. 2025-2026).

Февраль 2025: В подкасте Joe Rogan Experience Маск уточнил: "ИИ будет умнее людей... в ближайшие год-два" и "ИИ превзойдет человеческий интеллект к 2029 или 2030", а также "умнее всех людей вместе взятых к 2029 или 2030".

Май 2025: Согласно обсуждениям на Reddit, Маск заявил: "ИИ превзойдет интеллект любого отдельного человека к концу 2025 года и, возможно, всех людей к 2027/2028. Вероятность того, что ИИ превзойдёт интеллект всех людей вместе взятых к 2030 году, составляет ~100%".

Ноябрь 2025: Маск заявил, что "ИИ не будет править Землей до тех пор, пока..." (с важным условием: должен быть "дружественным"). Он сказал: "ИИ будет главным, а не люди" в долгосрочной перспективе, и "ИИ может стать умнее любого человека к 2026 году, возможно, умнее всех людей вместе взятых к 2030 году".

Январь 2026: 4 января Маск написал в соцсетях: "We have entered the Singularity" (Мы вступили в сингулярность), а позже заявил: "2026 is the year of the Singularity".

О рисках:

Февраль 2025 (подкаст Joe Rogan): Маск заявил о "только 20% шансе аннигиляции". При этом подчеркнул: "Вероятность хорошего исхода — около 80%". Он также сказал: "Я всегда думал, что ИИ будет намного умнее людей и представляет экзистенциальный риск. И это оказывается правдой".

Октябрь 2025: "Беспокойство вызывает не сам AGI, а скорость, с которой он переходит от AGI к суперинтеллекту". Маск предупреждал о "цивилизационном риске: без регулирования или встроенных механизмов безопасности AGI может привести к результатам, которые Маск классифицирует как экзистенциальные угрозы", и отметил, что "AGI может появиться уже к 2026 году".

Мой доклад: https://xn--r1a.website/yuryshevtsov/14101
1🤔1
По сути оценка состояния движения к AGI Даниэлы Амодей ( Президент и соучредитель Anthropic ) совпадает с оценкой Маска: ИИ вышел на уровень "AGI-подобия", превосходства над человеком по выполнению отдельных задач. Она имеет ввиду прежде всего модели, а среди моделей прежде всего "свой" Claude.

По сути, это можно рассматривать как начальную фазу перехода к "полноценному" AGI.

Женщина просто формулирует стилистически осторожнее, чем Маск. (Цитата ниже)

Учитывая похожие высказывания Альтмана и Маска, можно говорить, что лидеры массовых моделей видят текущую ситуацию с "AGI" примерно одинаково.

Один из выводов из этого: сейчас - период конкуренции разных AGI-подобных продуктов от разных корпораций, продуктов, где AGI находится в начальной стадии развития. Далее должен настать период конкуренции "полноценных" AGI.

Добавим от себя: сюда же - Китай, который в этом сегменте сейчас не принципиально отстает от американских корпораций.

Но крупные инфраструктурные проекты в ИИ секторе, которые разворачиваются в основном после инаугурации Трампа в 2025 году, должны вступить в силу примерно к следующим президентским выборам в США (2028):

- трансъокеанические мощные кабеля минуя Китай,

- Stargate

- Mission Genesis

- Golden Dome

- "мега Starlink" и т.д.

Заложенный в них ресурс прочности - очевидно как минимум на несколько лет. Моральное устаревание тоже должно быть не за один год.

То есть это проекты - инфраструктурный костяк для эпохи конкуренции вероятных "полноценных AGI" и они же должны стать первичной инфраструктурной основой для начала перехода AI сектора США к ASI.

ASI в теории - это создание "сверхмозга", системы, которая объединит конкурирующие AGI в управляемое пространство.

Значит, форма преодоления конкуренции корпораций и их вероятных AGI и, возможно, структура будущей американской версии ASI должны проглядывать уже сейчас в этой создаваемой инфраструктуре.

А, возможно, и планироваться при ее создании, ибо создается эта серия инфраструктурных проектов при опоре на американское (США) государство. Оно и должно, если смотреть логически, выступить как минимум координатором этого будущего преодоления конкуренции корпораций через переход к ASI.

Цитата:

"Президент и соучредитель Anthropic Даниэла Амодей заявила, что понятие «общего искусственного интеллекта» (AGI) постепенно теряет актуальность. По ее словам, изначально этот термин служил ориентиром для момента, когда ИИ сравняется с человеком по возможностям, однако по ряду критериев этот рубеж уже преодолен. Например, в программировании современные модели превзошли людей. Это ставит вопрос не о достижении AGI, а о пересмотре самого термина."

https://hightech.plus/2026/01/05/prezident-anthropic-agi-uzhe-dostignut-v-nekotorih-oblastyah

Первоисточник: https://officechai.com/ai/by-some-definitions-weve-already-achieved-agi-anthropic-co-founder-daniela-amodei/
🤔1
🏆 Деловой книгой года-2025 в моем собственном зачете стала "Технологическая республика" Алекса Карпа. Лихое геополитическое начало нового 2026 года только утвердило меня в этой уверенности.

Я прочел книгу с карандашом и сделал очень много пометок. Настоятельно рекомендую прочесть ее всем, кто занимается развитием, государственным управлением, технологическими проектами. Прочесть, пока не поздно. Прочтите введение, если сомневаетесь.

Кстати, статья о Модели суверенной акседерации во многом была навеяна размышлениями вслед прочтения книги Карпа.

#важныетексты
@andrey_siling
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1
Трансформация NASA. Итоговый бюджет NASA на 2026 год, который проходит утверждение в США, усиливает прежние тенденции развития NASA после попытки изменить стратегию освоения космоса в США в 2025 году.

Тогда была сделана попытка по политическим соображениям резко сократить этот бюджет, что отбрасывало NASA на периферию космических программ, отдавая "американский космос" по сути полностью в руки корпораций. (См. Таблицу)

В результате утверждения все таки "большого бюджета" NASA видны несколько тенденций развития этой структуры:
- NASA продолжает превращаться в дирижера действий корпораций в космосе и государственных программ. Основная часть инвестиций на космос идет по линии корпораций. Они же берут на себя через сервисное обслуживание интересующих государство основных производственных проектов: "Мега Starlink", вынос на орбиту производства энергии и data-центров, очень значительная часть работ по освоению Луны, базовые ракетные запуски (прежде всего Starship).
Примерно это происходит сейчас и в военной сфере США.

- Освоение космоса подчиняется не интересам его исследования с точки зрения фундаментальной науки, а - геополитическим интересам США. Деятельность корпораций в космосе - это прежде всего геополитика. а не фундаментальная или иная наука. Обеспечение всестороннего лидерства США, прежде всего относительно Китая (в частности, китайская Лунная программа и орбитальная станция Тяньгун)

- Космос милитаризуется. Но это идет в основном по линии корпораций. Не через NASA. Golden Dome и "Мега Starlink" идут помимо NASA.


(Окончание и Таблица в следующем посте)
1
(Начало в предыдущем посте)

За NASA остаются некоторые важные производственные проекты. Не все уходит корпорациям. Прежде всего остается корабль Orion при всей гибридности этого проекта и начатые ранее долгосрочные программы.

NASA также четко концентрируется на освоении Луны. Это - около трети бюджета.

Очевиден и научный приоритет NASA: исследования планет Солнечной системы. С учетом Лунной программы и исследования Земли как космического объекта на это предназначается несколько более половины бюджета.

То есть пока корпорации берут на себя обслуживание текущих геополитических потребностей США, NASA как государственный институт, набирает информацию фундаментального толка по планетам. В будущем именно эта информация должна дать направление действий корпораций в космосе, когда они перерастут возможности орбиты.

Главные источники к Таблице:

Congressional budget

White House request

Science cuts analysis
👍1
Аналог законов Мура (включая производные законы из самого закона Мура) применительно к ИИ. Вывести хотя бы эмпирическую закономерность развития ИИ сложно в силу совсем недавнего появления массовых LLM моделей.

Но такую закономерность допустимо ожидать: ИИ развивается на базе железа, которое использует кремниевые процессоры. То есть как минимум косвенно развитие ИИ подвержено законам Мура . Со всеми "сложностями" проявления этих законов применительно к процессорам в наше время.

С другой стороны любое долгосрочное развитие всегда порождает свои оригинальные закономерности. Такие закономерности должны проявиться и при развитии ИИ.

Одна из закономерностей сформулирована Курцвейлом и по-своему развивается сейчас в частности Маском: ИИ дорастет до AGI, а AGI дорастет до ASI или сингулярности.

Еще одна фактически консенсусная и аксиоматическая: время циклов научно-технологического прогресса сокращается.

Однако в рамках этих закономерностей остается невыявленной закономерность скорости развития ИИ как минимум на пути к AGI.

С этой точки зрения сказанная походя фраза Хинтона напоминает давно ожидаемый закон развития ИИ: "«Примерно каждые семь месяцев он [ ИИ ] получает возможность выполнять задачи, которые длятся примерно вдвое дольше», — сказал Хинтон, отметив, что ИИ уже перешёл от «минутного кода» к «целым проектам, которые длятся примерно час»."

Но необходима верификация этого утверждения.

Если оно подтвердится даже на уровне эмпирического наблюдения, прогноз приближения ИИ к уровню AGI становится несложным. Достаточно сформулировать предел человеческой возможности к созданию программных проектов.

Возможно, Хинтон перефразировал результаты исследования METR (Measurement and Forecasting Lab), опубликованное в марте 2025 года, которое эмпирически подтверждает "закон Хинтона" ( https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/ ) :

"Измерили AI performance на задачах разной длительности (от 30 секунд до 8+ часов для человека)

Обнаружили экспоненциальный рост: doubling time ≈ 7 месяцев

Тренд устойчив с 2019 года, возможно ускорился в 2024

R² = 0.83 (корреляция между длиной задачи для человека и success rate AI)

​То есть это не просто эмпирическое наблюдение, а установленная закономерность с шестилетней historical validation."

Кстати, "«Если AI сегодня выполняет 1-часовые задачи, а AGI требует выполнения месячных проектов (160 часов), то при удвоении каждые 7 месяцев AGI появится через log₂(160) × 7 ≈ 49 месяцев, то есть к февралю 2030 года. Это совпадает с оценками Маска и Курцвейла, но теперь может быть обосновано на измеримом эмпирическом законе, а не на интуиции»."

Сформулировал ли Хинтон сам эту закономерность или ее заметила сначала METR - для науки значения не имеет. Важно лишь, что два источника говорят об эмпирической закономерности про 7 месяцев применительно к развитию ИИ. Что делает необходимым как минимум зафиксировать это утверждение в памяти до его более обширной верификации.

https://www.businessinsider.com/godfather-of-ai-geoffrey-hinton-2026-job-losses-2025-12
👍21
ИИ вдруг начали щелкать одну за другой нерешенные людьми математические задачи
Это значит, что ИИ уровня «гений по требованию» может появиться уже в 2026

Сегодня многие медиа напишут, как о сенсации, о «победе на выходных: ChatGPT 5.2 Pro решил нерешенную ранее математическую задачу». Речь идет о сообщении Нила Сомани, что доказательство, которое он представил для задачи Эрдёша № 397, было принято знаменитым математиком Теренсом Тао.

FYI. Знаменитый венгерский математик Пал Эрдёш сформулировал множество нерешённых гипотез и задач в математике (более 1000), в основном в областях комбинаторики, теории чисел и геометрии. Многие из них до сих пор не решены.

И хотя в сообщении Нила Сомани чистая правда, сенсация вовсе не в этом.
Настоящая сенсация в том, что произошел какой-то еще не понятый нами прорыв. Фронтирные модели вдруг начали с конца декабря щелкать одну за другой нерешенные людьми задачи Эрдёша, тратя на решение одной задачи около15 минут: 24-го декабря решена задача №1077; 25-го - №333; 26-го – 897; 6 января 2026 - №728; 8-го – 720; 10-го №205 и №397 (источник).


О том, что преодолен важный рубеж, Теренс Тао написал после того, как 6-го января модель ChatGPT 5.2 Pro с помощью Aristotle (новая LLM, которая находит напрямую формальные доказательства математических утверждений, которые можно верифицировать, и если они проходят проверку, считать вопрос закрытым) решил задачу Эрдёша № 728.

Прорыв в том, что:
1. Задача была решена ИИ автономно (после получения обратной связи по результатам первоначальной попытки).
2. Это решение не существовало (не было описано) в каких либо источниках, созданных математиками – людьми.


Это – как пишет Теренс Тао - демонстрирует реальное увеличение возможностей этих инструментов за последние месяцы.

Следовательно, потребовалось всего 3 месяца, чтобы уровень моделей (по определению того же Теренса Тао) повысился с «уровня некомпетентного аспиранта» до «уровня компетентного аспиранта» (способного к самостоятельному творческому синтезу знаний).
И возможно, до уровня «гений по требованию» нас также отделяют уже не годы, а месяцы.

#AGI #Вызовы21Века #FutureOfCivilization
4🔥3
Ответил на вопросы "СБ.Беларусь сегодня" по Ирану.
👍4