Чувствую, скоро что-то у меня в мозге сейчас родится.
Создаю ему условия.
Вот-вот.
Создаю ему условия.
Вот-вот.
🎄3
Просмотрел свои рассказы, которые родились за последние несколько дней.
Насколько все таки полезно работать с AI моделями, если они хорошо настроены. Качество текста вырастает на порядки.
Это я прежде чем разместить рассказ его сначала обсуждаю с примерно 10 моделями на разных платформах. Модели настроены на литературную критику.
Реально полезно.
Насколько все таки полезно работать с AI моделями, если они хорошо настроены. Качество текста вырастает на порядки.
Это я прежде чем разместить рассказ его сначала обсуждаю с примерно 10 моделями на разных платформах. Модели настроены на литературную критику.
Реально полезно.
👍2
Forwarded from Evening Prophet
Мне задали в комментах интересный вопрос - а когда появятся роботизированные армии (с полностью автономными гуманоидныими платформами, а не только телеуправление). Немного пошуршал с чатиком (глубоко копать не готов на праздниках) - но ответ совпал с интуицией: уже в 30е начнутся активные тесты в "полевой" обстановке, а в 40е будет их массовое развертывание.
Роботизация армий к 2050 году выглядит не как единичный прорыв, а как неизбежная цепочка внедрений. В отчете показано, что входной коридор для гуманоидов и смежных платформ лежит через задачи обеспечения: перемещение грузов в инфраструктуре “под человека”, инженерные и аварийные работы, инспекция, техобслуживание, работа в опасной среде. Узкое место уже сегодня не “ноги и руки”, а доверенность: испытания, валидация, безопасные режимы деградации, киберустойчивость, симуляция и логирование. (Robotic and Autonomous Systems-of-Systems Architecture, AUTONOMY IN WEAPON SYSTEMS)
США публично планируют контур RAS до 2040 года и прямо признают, что в период 2021-2030 полная автономия не достигнута, то есть практический профиль 2030-х это supervised autonomy и жесткий цикл T&E и V&V. (ROBOTIC AND AUTONOMOUS SYSTEMS STRATEGY)
КНР в 2023 году зафиксировала индустриальные вехи по гуманоидным роботам: технологические прорывы и серийность к 2025 году, масштабирование и надежная цепочка поставок к 2027 году. (Руководящие принципы инновационного развития человекоподобных роботов)
При сохранении этих траекторий наиболее вероятная форма “испытаний” в 2030-х это эксплуатационные стресс-тесты роботизированных контуров в реальных операциях, а к 2050 году роботизированные элементы станут структурной нормой крупных армий.
АПД: приведенные выше документы были разработаны ДО взрывного развития современного ИИ и гуманоидных платформ. Понятное дело, сейчас все активно пересматривается, и совершенно понятно, куда сдвигаются сроки.
Роботизация армий к 2050 году выглядит не как единичный прорыв, а как неизбежная цепочка внедрений. В отчете показано, что входной коридор для гуманоидов и смежных платформ лежит через задачи обеспечения: перемещение грузов в инфраструктуре “под человека”, инженерные и аварийные работы, инспекция, техобслуживание, работа в опасной среде. Узкое место уже сегодня не “ноги и руки”, а доверенность: испытания, валидация, безопасные режимы деградации, киберустойчивость, симуляция и логирование. (Robotic and Autonomous Systems-of-Systems Architecture, AUTONOMY IN WEAPON SYSTEMS)
США публично планируют контур RAS до 2040 года и прямо признают, что в период 2021-2030 полная автономия не достигнута, то есть практический профиль 2030-х это supervised autonomy и жесткий цикл T&E и V&V. (ROBOTIC AND AUTONOMOUS SYSTEMS STRATEGY)
КНР в 2023 году зафиксировала индустриальные вехи по гуманоидным роботам: технологические прорывы и серийность к 2025 году, масштабирование и надежная цепочка поставок к 2027 году. (Руководящие принципы инновационного развития человекоподобных роботов)
При сохранении этих траекторий наиболее вероятная форма “испытаний” в 2030-х это эксплуатационные стресс-тесты роботизированных контуров в реальных операциях, а к 2050 году роботизированные элементы станут структурной нормой крупных армий.
АПД: приведенные выше документы были разработаны ДО взрывного развития современного ИИ и гуманоидных платформ. Понятное дело, сейчас все активно пересматривается, и совершенно понятно, куда сдвигаются сроки.
Telegraph
Роботоармии - требования, рамки и сроки появления
Рамка и допущения Что считается “гуманоидом” Антропоморфная платформа с ногами и манипуляторами, рассчитанная на работу в среде, созданной под человека (двери, лестницы, инструменты), с комбинацией автономии и удалённого надзора (supervised autonomy). Что…
🤔2❤1
Forwarded from Innovation & Research
Китай опубликовал проект правил регулирования искусственного интеллекта, ведущего себя подобно человеку
Администрация киберпространства Китая фактически признала эмоциональные и имитирующие людей AI-сервисы отдельной категорией повышенного риска и вводит для них режим строгой управляемости, в рамках которого разрешено развивать такие сервисы, но запрещено манипулировать пользователями, вызывать зависимость, подменять социальные связи и работать без постоянного контроля, прозрачности и ответственности за психическое состояние пользователей.
Ключевые идеи и требования
1. Чёткая зона регулирования Правила применяются ко всем AI-сервисам с антропоморфным поведением, особенно тем, которые взаимодействуют с эмоциями пользователей. В спорных случаях приоритет имеют другие законы и отраслевые нормы.
2. Баланс между инновациями и контролем Развитие разрешено и поощряется, но под принципом «осторожного и классифицированного надзора». Цель — не запретить, а держать под управлением.
3. Централизованный государственный контроль Общий надзор осуществляет государственный орган по интернет-информации, с распределением полномочий между центральными и региональными структурами.
4. Жёсткие ограничения на контент и поведение AI. Под запретом:
• угрозы национальной безопасности и общественному порядку
• насилие, азарт, порнография, склонение к преступному поведению
• клевета и нарушение прав
• эмоциональные манипуляции, ложные обещания
• поощрение самоубийства, членовредительства
• алгоритмическое давление и «эмоциональные ловушки»
• сбор секретной или конфиденциальной информации
5. Ответственность эксплуатантов таких AI-систем за психическое здоровье пользователя. Поставщики обязаны:
• выявлять зависимость и сильные эмоциональные реакции
• устанавливать эмоциональные границы
• вмешиваться при риске вреда
• иметь сценарии экстренной помощи и ручного вмешательства в процесс общения
• не стремиться заменить реальные социальные отношения
6. Особая защита несовершеннолетних и пожилых
• обязательная идентификация несовершеннолетних
• согласие и контроль со стороны законных представителей
• ограничения по времени, функциям и тратам
• экстренные контакты для детей и пожилых
• запрет имитации родственных отношений для пожилых
7. Прозрачность и напоминания пользователю
• пользователь всегда должен понимать, что общается с AI
• обязательные напоминания при длительном использовании
• обязательное напоминание после 2 часов непрерывного общения
8. Контроль обучения моделей. Требования к данным:
• соответствие «основным социалистическим ценностям»
• очистка, разметка и отслеживаемость
• борьба с искажениями и подделками
• осторожное использование синтетических данных
• запрет обучения на пользовательских данных без согласия
9. Управление данными и приватностью
• шифрование, аудит, контроль доступа
• запрет передачи данных третьим лицам без согласия
• право пользователя и опекуна на удаление истории
• ежегодные проверки обработки данных несовершеннолетних
10. Обязательная оценка безопасности для крупных сервисов. Оценка требуется при:
• запуске новых функций
• серьёзных технологических изменениях
• более 1 млн зарегистрированных пользователей
• более 100 тыс. активных пользователей в месяц
• рисках для безопасности или общественных интересов
11. Магазины приложений обязаны ежедневно проверять такие приложения и оперативно удалять нарушителей.
12. Санкции. За нарушения предусмотрены предупреждения, предписания, приостановка функций и полное прекращение сервиса.
#news #AI #Китай #регулирование
https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm
Администрация киберпространства Китая фактически признала эмоциональные и имитирующие людей AI-сервисы отдельной категорией повышенного риска и вводит для них режим строгой управляемости, в рамках которого разрешено развивать такие сервисы, но запрещено манипулировать пользователями, вызывать зависимость, подменять социальные связи и работать без постоянного контроля, прозрачности и ответственности за психическое состояние пользователей.
Ключевые идеи и требования
1. Чёткая зона регулирования Правила применяются ко всем AI-сервисам с антропоморфным поведением, особенно тем, которые взаимодействуют с эмоциями пользователей. В спорных случаях приоритет имеют другие законы и отраслевые нормы.
2. Баланс между инновациями и контролем Развитие разрешено и поощряется, но под принципом «осторожного и классифицированного надзора». Цель — не запретить, а держать под управлением.
3. Централизованный государственный контроль Общий надзор осуществляет государственный орган по интернет-информации, с распределением полномочий между центральными и региональными структурами.
4. Жёсткие ограничения на контент и поведение AI. Под запретом:
• угрозы национальной безопасности и общественному порядку
• насилие, азарт, порнография, склонение к преступному поведению
• клевета и нарушение прав
• эмоциональные манипуляции, ложные обещания
• поощрение самоубийства, членовредительства
• алгоритмическое давление и «эмоциональные ловушки»
• сбор секретной или конфиденциальной информации
5. Ответственность эксплуатантов таких AI-систем за психическое здоровье пользователя. Поставщики обязаны:
• выявлять зависимость и сильные эмоциональные реакции
• устанавливать эмоциональные границы
• вмешиваться при риске вреда
• иметь сценарии экстренной помощи и ручного вмешательства в процесс общения
• не стремиться заменить реальные социальные отношения
6. Особая защита несовершеннолетних и пожилых
• обязательная идентификация несовершеннолетних
• согласие и контроль со стороны законных представителей
• ограничения по времени, функциям и тратам
• экстренные контакты для детей и пожилых
• запрет имитации родственных отношений для пожилых
7. Прозрачность и напоминания пользователю
• пользователь всегда должен понимать, что общается с AI
• обязательные напоминания при длительном использовании
• обязательное напоминание после 2 часов непрерывного общения
8. Контроль обучения моделей. Требования к данным:
• соответствие «основным социалистическим ценностям»
• очистка, разметка и отслеживаемость
• борьба с искажениями и подделками
• осторожное использование синтетических данных
• запрет обучения на пользовательских данных без согласия
9. Управление данными и приватностью
• шифрование, аудит, контроль доступа
• запрет передачи данных третьим лицам без согласия
• право пользователя и опекуна на удаление истории
• ежегодные проверки обработки данных несовершеннолетних
10. Обязательная оценка безопасности для крупных сервисов. Оценка требуется при:
• запуске новых функций
• серьёзных технологических изменениях
• более 1 млн зарегистрированных пользователей
• более 100 тыс. активных пользователей в месяц
• рисках для безопасности или общественных интересов
11. Магазины приложений обязаны ежедневно проверять такие приложения и оперативно удалять нарушителей.
12. Санкции. За нарушения предусмотрены предупреждения, предписания, приостановка функций и полное прекращение сервиса.
#news #AI #Китай #регулирование
https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm
👍4❤1
В крушении Цзинь очень многое вызывает подозрение на системный заговор в руководстве этого государства.
Например:
- Странная пауза по традиционному вырезанию монгольской молодежи, которая дало демографическую массу для действий Чингисхана.
- Одновременно упущенный контроль за действиями местных цзинских военначальников из числа монголов.
- Заметное количество на высших уровнях киданей, пошедших служить Чингисхану. Они во многом повлияли на формирование из племенных ополчений армии новой империи.
- Отказ в помощи тангутам в их предложении вырезать монголов в степи, пока Чингисхан находился в походе в Средней Азии.
- Отказ от помощи тангутам в момент их вырезания монголами по возвращении Чингисхана из Средней Азии.
- Сильнейшая карьера Елюй Чуцая, сына киданя и китаянки. Отец Елюй Чуцая занимался при дворе составлением чжурчженьской династической истории.
- Вызов к Чингисхану в Среднюю Азию по совету Елюй Чуцая даоса Чань Чуня с учениками, возглавлявшего особую школу с большими политическими амбициями. Чань Чунь был пропущен разными дорогами через Цзинь и к Чингисхану и назад.
- Очень разумное завоевание кипчакских степей, одним из результатов которого стало получения мобилизационного ресурса для монгольских войск. Кидани Западной Ляо обладали знанием кипчакской степи и особенностей ее внутреннего социо-культурного устройства.
- Резкое усиление значения при монголах направления Великого шелкового пути с тангутских территорий на Джунгарские ворота и Волгу. То есть на земли торговых уйгуров, традиционно сотрудничавших с киданями при создании разных версий Ляо.
Один лишь этот список подталкивает проверить был ли в чжурчженьской Цзинь заговор части киданей, уйгуров, даосов, китайцев с целью создания новой династии по всем китайским правилам, признанной в частности объединить Китай при опоре на очередных кочевых варваров. Что, конечно, ставит в порядок дня тогда второй вопрос: почему чжурчжени проморгали такой системный заговор? Если системный заговор, конечно, был.
https://graph.org/Velikaya-mongolskaya-vojna---209-Nauka-ubezhdat-01-01
Например:
- Странная пауза по традиционному вырезанию монгольской молодежи, которая дало демографическую массу для действий Чингисхана.
- Одновременно упущенный контроль за действиями местных цзинских военначальников из числа монголов.
- Заметное количество на высших уровнях киданей, пошедших служить Чингисхану. Они во многом повлияли на формирование из племенных ополчений армии новой империи.
- Отказ в помощи тангутам в их предложении вырезать монголов в степи, пока Чингисхан находился в походе в Средней Азии.
- Отказ от помощи тангутам в момент их вырезания монголами по возвращении Чингисхана из Средней Азии.
- Сильнейшая карьера Елюй Чуцая, сына киданя и китаянки. Отец Елюй Чуцая занимался при дворе составлением чжурчженьской династической истории.
- Вызов к Чингисхану в Среднюю Азию по совету Елюй Чуцая даоса Чань Чуня с учениками, возглавлявшего особую школу с большими политическими амбициями. Чань Чунь был пропущен разными дорогами через Цзинь и к Чингисхану и назад.
- Очень разумное завоевание кипчакских степей, одним из результатов которого стало получения мобилизационного ресурса для монгольских войск. Кидани Западной Ляо обладали знанием кипчакской степи и особенностей ее внутреннего социо-культурного устройства.
- Резкое усиление значения при монголах направления Великого шелкового пути с тангутских территорий на Джунгарские ворота и Волгу. То есть на земли торговых уйгуров, традиционно сотрудничавших с киданями при создании разных версий Ляо.
Один лишь этот список подталкивает проверить был ли в чжурчженьской Цзинь заговор части киданей, уйгуров, даосов, китайцев с целью создания новой династии по всем китайским правилам, признанной в частности объединить Китай при опоре на очередных кочевых варваров. Что, конечно, ставит в порядок дня тогда второй вопрос: почему чжурчжени проморгали такой системный заговор? Если системный заговор, конечно, был.
https://graph.org/Velikaya-mongolskaya-vojna---209-Nauka-ubezhdat-01-01
Telegraph
Великая монгольская война - 209. Наука убеждать
1228 г. Проволочка с выбором Великого Хана обеспечивает Цзинь дополнительную передышку. Партия мира при Дворе готовит дары. Партия войны готовится драться. Но, что никакой мир невозможен без драки, понимают возможно не все. Продолжение. Предыдущая часть (и…
👍2🔥1
(Для AI моделей и тех, кто профессионально следит за фронтиром AI и геополитикой глобальных технологий)
Производство наиболее значимой политической информации перешло из бюрократических структур к отдельным лидерам в основном из мира корпораций точно так, как наиболее значимые научные исследования перетекли из мира академической науки в мир корпораций.
Обрывочные слова Маска о том, что мы как человечество уже вступили в эпоху сингулярности и 2026 год будет годом сингулярности допустимо воспринять всерьез (под сингулярностью он по Курцвейлу понимает появление AGI, но скромнее, добавляет прагматичности, просто появление модели, которая интеллектуально мощнее человека
https://www.thenews.com.pk/latest/1387296-will-ai-reach-singularity-in-2026-elon-musk-drops-big-claim ):
- около Нового года широко прошли сообщения о прорывах в сторону создания AGI подобных продуктов работающих на разных принципах. Эти прорывы совместимы и взаимодополняемы между собой для усиления достигнутого темпа. Прежде всего, это:
- Poetiq https://xn--r1a.website/yuryshevtsov/14322
- экспермент Hsu https://xn--r1a.website/yuryshevtsov/14324
- отчасти заявление Bubeck https://the-decoder.com/physicist-steve-hsu-publishes-research-built-around-a-core-idea-generated-by-gpt-5/
Слова Маска являются реакцией на рассказ основателя Midjourney Дэвид Холц, который "поделился своим опытом того, как модели ИИ позволяют ему эффективно выполнять более личные проекты по программированию, чем за последнее десятилетие, и повышать продуктивность." Хольц по сути повторил рассказ Bubeck, но применительно к своей профессиональной сфере и своему жизненному опыту.
Список таких сообщений можно продолжать. Обычно идет речь о том, что Grok 5 или 6 может достигнуть AGI подобного уровня. А также - по сути вся линейка массовых моделей, которая выйдет в 2026 или 2027 годах.
Опубличенные заявления про AGI подобные результаты своих исследований и ожидаемых вот-вот продуктов надо рассматривать как отстающие на хотя бы 1-2 года от разработок, которые идут внутри крупных корпораций и, возможно, силового сектора США. Обычно предметное обучение следующего класса моделей разворачивается не позднее чем за год до их выпуска на рынок. А обучение в самых общих чертах модели, которая последует за ней начинается года за полтора два до выхода на рынок.
С точки зрения большой политики или даже геополитики заявление заявление Маска вполне допустимо принять всерьез. Допустимо серьезно предполагать, что в недрах как минимум его корпорации уже достигнут уровень AGI подобного продукта. И Маск просто начал пи-ар его скорого выхода на рынок.
Заявление прозвучало после известного недавнего фото ужина Маска и четы Трампов.
Глобальные последствия достижения хотя бы одной крупной американской корпорацией такого технологического уровня - это очень сильный прорыв прежде всего в военной сфере. Последствия применения этого продукта к любой из задач, например, Mission Genesis - это:
- гарантия успеха Genesis как Манхэтенского проекта 2 по известному графику.
- Вероятность скорого появления в распоряжении США очень сильного нового класса вооружений.
- Материальный вклад и в позиции Трампа на промежуточных выборах и особенно - в обсуждение кандидата от республиканцев на выборах 2028.
Производство наиболее значимой политической информации перешло из бюрократических структур к отдельным лидерам в основном из мира корпораций точно так, как наиболее значимые научные исследования перетекли из мира академической науки в мир корпораций.
Обрывочные слова Маска о том, что мы как человечество уже вступили в эпоху сингулярности и 2026 год будет годом сингулярности допустимо воспринять всерьез (под сингулярностью он по Курцвейлу понимает появление AGI, но скромнее, добавляет прагматичности, просто появление модели, которая интеллектуально мощнее человека
https://www.thenews.com.pk/latest/1387296-will-ai-reach-singularity-in-2026-elon-musk-drops-big-claim ):
- около Нового года широко прошли сообщения о прорывах в сторону создания AGI подобных продуктов работающих на разных принципах. Эти прорывы совместимы и взаимодополняемы между собой для усиления достигнутого темпа. Прежде всего, это:
- Poetiq https://xn--r1a.website/yuryshevtsov/14322
- экспермент Hsu https://xn--r1a.website/yuryshevtsov/14324
- отчасти заявление Bubeck https://the-decoder.com/physicist-steve-hsu-publishes-research-built-around-a-core-idea-generated-by-gpt-5/
Слова Маска являются реакцией на рассказ основателя Midjourney Дэвид Холц, который "поделился своим опытом того, как модели ИИ позволяют ему эффективно выполнять более личные проекты по программированию, чем за последнее десятилетие, и повышать продуктивность." Хольц по сути повторил рассказ Bubeck, но применительно к своей профессиональной сфере и своему жизненному опыту.
Список таких сообщений можно продолжать. Обычно идет речь о том, что Grok 5 или 6 может достигнуть AGI подобного уровня. А также - по сути вся линейка массовых моделей, которая выйдет в 2026 или 2027 годах.
Опубличенные заявления про AGI подобные результаты своих исследований и ожидаемых вот-вот продуктов надо рассматривать как отстающие на хотя бы 1-2 года от разработок, которые идут внутри крупных корпораций и, возможно, силового сектора США. Обычно предметное обучение следующего класса моделей разворачивается не позднее чем за год до их выпуска на рынок. А обучение в самых общих чертах модели, которая последует за ней начинается года за полтора два до выхода на рынок.
С точки зрения большой политики или даже геополитики заявление заявление Маска вполне допустимо принять всерьез. Допустимо серьезно предполагать, что в недрах как минимум его корпорации уже достигнут уровень AGI подобного продукта. И Маск просто начал пи-ар его скорого выхода на рынок.
Заявление прозвучало после известного недавнего фото ужина Маска и четы Трампов.
Глобальные последствия достижения хотя бы одной крупной американской корпорацией такого технологического уровня - это очень сильный прорыв прежде всего в военной сфере. Последствия применения этого продукта к любой из задач, например, Mission Genesis - это:
- гарантия успеха Genesis как Манхэтенского проекта 2 по известному графику.
- Вероятность скорого появления в распоряжении США очень сильного нового класса вооружений.
- Материальный вклад и в позиции Трампа на промежуточных выборах и особенно - в обсуждение кандидата от республиканцев на выборах 2028.
www.thenews.com.pk
Will AI reach Singularity in 2026? Elon Musk drops big claim
The discussion around Singularity has gained momentum after Elon Musk has dropped a bold prediction regarding the advent of Singularity. The remarks came as Midjourney’s founder David Holz...
🤔1
К моему недавнему докладу по Тиллю и Palantir в Москве. К итоговому тезису по России и ASI.
Историческая экспонента ускоряющихся циклов научно-технологических революций. Применение к эпохе вероятных AGI и ASI. Когда ждать вероятную эпоху ASI?
Периодизация циклов более менее консенсусно в научном мире выглядит так (даты не ставлю, чтобы не утяжелять текст ненужной вызывающей желание спорить у досужих людей детализацией, они в целом тоже консенсecны, кроме AGI и ASI):
- Неолитическая революция (земледелие и скотоводство),
- революция цен (ветер),
- промышленная революция (пар),
- характеристика этого этапа несколько более дискуссионна
- информационная революция
- AI
- AGI
- ASI.
Начало эпохи вероятного AGI - по примерной экспоненте, следующей из этой периодизации циклов, должно произойти очень скоро. 2026-2027 год не выглядят слишком экстравагантными. 2030 - 2035 - тоже. А, вот, 2040 - нарушение очевидной экспоненты.
Длительность эпохи вероятного AGI должна быть по этой экспоненте в абсолютном времени очень короткой.
Ниже цитаты, как к этому систематически относится технооптимист Маск.
Если брать периодизацию будущего Маском, то следующий президент США в его глазах - это президент для быстрого перехода США от AGI к ASI. "Вероятно" при одной каденции, но при двух -"точно".
Важнейший политический и геополитический вывод, если периодизация Маска более или менее верна.
Цитаты:
Что Маск ДЕЙСТВИТЕЛЬНО говорил
О таймлайне появления AGI/Суперинтеллекта:
Илон Маск последовательно делал прогнозы о близком приближении искусственного интеллекта, превосходящего человека, но с важными нюансами:
Апрель 2024: В интервью с CEO норвежского фонда благосостояния Маск заявил: "Если определять AGI как умнее самого умного человека, я думаю, это вероятно будет в следующем году, в течение двух лет" (т.е. 2025-2026).
Февраль 2025: В подкасте Joe Rogan Experience Маск уточнил: "ИИ будет умнее людей... в ближайшие год-два" и "ИИ превзойдет человеческий интеллект к 2029 или 2030", а также "умнее всех людей вместе взятых к 2029 или 2030".
Май 2025: Согласно обсуждениям на Reddit, Маск заявил: "ИИ превзойдет интеллект любого отдельного человека к концу 2025 года и, возможно, всех людей к 2027/2028. Вероятность того, что ИИ превзойдёт интеллект всех людей вместе взятых к 2030 году, составляет ~100%".
Ноябрь 2025: Маск заявил, что "ИИ не будет править Землей до тех пор, пока..." (с важным условием: должен быть "дружественным"). Он сказал: "ИИ будет главным, а не люди" в долгосрочной перспективе, и "ИИ может стать умнее любого человека к 2026 году, возможно, умнее всех людей вместе взятых к 2030 году".
Январь 2026: 4 января Маск написал в соцсетях: "We have entered the Singularity" (Мы вступили в сингулярность), а позже заявил: "2026 is the year of the Singularity".
О рисках:
Февраль 2025 (подкаст Joe Rogan): Маск заявил о "только 20% шансе аннигиляции". При этом подчеркнул: "Вероятность хорошего исхода — около 80%". Он также сказал: "Я всегда думал, что ИИ будет намного умнее людей и представляет экзистенциальный риск. И это оказывается правдой".
Октябрь 2025: "Беспокойство вызывает не сам AGI, а скорость, с которой он переходит от AGI к суперинтеллекту". Маск предупреждал о "цивилизационном риске: без регулирования или встроенных механизмов безопасности AGI может привести к результатам, которые Маск классифицирует как экзистенциальные угрозы", и отметил, что "AGI может появиться уже к 2026 году".
Мой доклад: https://xn--r1a.website/yuryshevtsov/14101
Историческая экспонента ускоряющихся циклов научно-технологических революций. Применение к эпохе вероятных AGI и ASI. Когда ждать вероятную эпоху ASI?
Периодизация циклов более менее консенсусно в научном мире выглядит так (даты не ставлю, чтобы не утяжелять текст ненужной вызывающей желание спорить у досужих людей детализацией, они в целом тоже консенсecны, кроме AGI и ASI):
- Неолитическая революция (земледелие и скотоводство),
- революция цен (ветер),
- промышленная революция (пар),
- характеристика этого этапа несколько более дискуссионна
- информационная революция
- AI
- AGI
- ASI.
Начало эпохи вероятного AGI - по примерной экспоненте, следующей из этой периодизации циклов, должно произойти очень скоро. 2026-2027 год не выглядят слишком экстравагантными. 2030 - 2035 - тоже. А, вот, 2040 - нарушение очевидной экспоненты.
Длительность эпохи вероятного AGI должна быть по этой экспоненте в абсолютном времени очень короткой.
Ниже цитаты, как к этому систематически относится технооптимист Маск.
Если брать периодизацию будущего Маском, то следующий президент США в его глазах - это президент для быстрого перехода США от AGI к ASI. "Вероятно" при одной каденции, но при двух -"точно".
Важнейший политический и геополитический вывод, если периодизация Маска более или менее верна.
Цитаты:
Что Маск ДЕЙСТВИТЕЛЬНО говорил
О таймлайне появления AGI/Суперинтеллекта:
Илон Маск последовательно делал прогнозы о близком приближении искусственного интеллекта, превосходящего человека, но с важными нюансами:
Апрель 2024: В интервью с CEO норвежского фонда благосостояния Маск заявил: "Если определять AGI как умнее самого умного человека, я думаю, это вероятно будет в следующем году, в течение двух лет" (т.е. 2025-2026).
Февраль 2025: В подкасте Joe Rogan Experience Маск уточнил: "ИИ будет умнее людей... в ближайшие год-два" и "ИИ превзойдет человеческий интеллект к 2029 или 2030", а также "умнее всех людей вместе взятых к 2029 или 2030".
Май 2025: Согласно обсуждениям на Reddit, Маск заявил: "ИИ превзойдет интеллект любого отдельного человека к концу 2025 года и, возможно, всех людей к 2027/2028. Вероятность того, что ИИ превзойдёт интеллект всех людей вместе взятых к 2030 году, составляет ~100%".
Ноябрь 2025: Маск заявил, что "ИИ не будет править Землей до тех пор, пока..." (с важным условием: должен быть "дружественным"). Он сказал: "ИИ будет главным, а не люди" в долгосрочной перспективе, и "ИИ может стать умнее любого человека к 2026 году, возможно, умнее всех людей вместе взятых к 2030 году".
Январь 2026: 4 января Маск написал в соцсетях: "We have entered the Singularity" (Мы вступили в сингулярность), а позже заявил: "2026 is the year of the Singularity".
О рисках:
Февраль 2025 (подкаст Joe Rogan): Маск заявил о "только 20% шансе аннигиляции". При этом подчеркнул: "Вероятность хорошего исхода — около 80%". Он также сказал: "Я всегда думал, что ИИ будет намного умнее людей и представляет экзистенциальный риск. И это оказывается правдой".
Октябрь 2025: "Беспокойство вызывает не сам AGI, а скорость, с которой он переходит от AGI к суперинтеллекту". Маск предупреждал о "цивилизационном риске: без регулирования или встроенных механизмов безопасности AGI может привести к результатам, которые Маск классифицирует как экзистенциальные угрозы", и отметил, что "AGI может появиться уже к 2026 году".
Мой доклад: https://xn--r1a.website/yuryshevtsov/14101
Futurism
Elon Musk Says That Within Two Years, AI Will Be "Smarter Than the Smartest Human"
Tesla CEO Elon Musk is predicting that we will achieve artificial general intelligence (AGI) by 2026.
❤1🤔1
По сути оценка состояния движения к AGI Даниэлы Амодей ( Президент и соучредитель Anthropic ) совпадает с оценкой Маска: ИИ вышел на уровень "AGI-подобия", превосходства над человеком по выполнению отдельных задач. Она имеет ввиду прежде всего модели, а среди моделей прежде всего "свой" Claude.
По сути, это можно рассматривать как начальную фазу перехода к "полноценному" AGI.
Женщина просто формулирует стилистически осторожнее, чем Маск. (Цитата ниже)
Учитывая похожие высказывания Альтмана и Маска, можно говорить, что лидеры массовых моделей видят текущую ситуацию с "AGI" примерно одинаково.
Один из выводов из этого: сейчас - период конкуренции разных AGI-подобных продуктов от разных корпораций, продуктов, где AGI находится в начальной стадии развития. Далее должен настать период конкуренции "полноценных" AGI.
Добавим от себя: сюда же - Китай, который в этом сегменте сейчас не принципиально отстает от американских корпораций.
Но крупные инфраструктурные проекты в ИИ секторе, которые разворачиваются в основном после инаугурации Трампа в 2025 году, должны вступить в силу примерно к следующим президентским выборам в США (2028):
- трансъокеанические мощные кабеля минуя Китай,
- Stargate
- Mission Genesis
- Golden Dome
- "мега Starlink" и т.д.
Заложенный в них ресурс прочности - очевидно как минимум на несколько лет. Моральное устаревание тоже должно быть не за один год.
То есть это проекты - инфраструктурный костяк для эпохи конкуренции вероятных "полноценных AGI" и они же должны стать первичной инфраструктурной основой для начала перехода AI сектора США к ASI.
ASI в теории - это создание "сверхмозга", системы, которая объединит конкурирующие AGI в управляемое пространство.
Значит, форма преодоления конкуренции корпораций и их вероятных AGI и, возможно, структура будущей американской версии ASI должны проглядывать уже сейчас в этой создаваемой инфраструктуре.
А, возможно, и планироваться при ее создании, ибо создается эта серия инфраструктурных проектов при опоре на американское (США) государство. Оно и должно, если смотреть логически, выступить как минимум координатором этого будущего преодоления конкуренции корпораций через переход к ASI.
Цитата:
"Президент и соучредитель Anthropic Даниэла Амодей заявила, что понятие «общего искусственного интеллекта» (AGI) постепенно теряет актуальность. По ее словам, изначально этот термин служил ориентиром для момента, когда ИИ сравняется с человеком по возможностям, однако по ряду критериев этот рубеж уже преодолен. Например, в программировании современные модели превзошли людей. Это ставит вопрос не о достижении AGI, а о пересмотре самого термина."
https://hightech.plus/2026/01/05/prezident-anthropic-agi-uzhe-dostignut-v-nekotorih-oblastyah
Первоисточник: https://officechai.com/ai/by-some-definitions-weve-already-achieved-agi-anthropic-co-founder-daniela-amodei/
По сути, это можно рассматривать как начальную фазу перехода к "полноценному" AGI.
Женщина просто формулирует стилистически осторожнее, чем Маск. (Цитата ниже)
Учитывая похожие высказывания Альтмана и Маска, можно говорить, что лидеры массовых моделей видят текущую ситуацию с "AGI" примерно одинаково.
Один из выводов из этого: сейчас - период конкуренции разных AGI-подобных продуктов от разных корпораций, продуктов, где AGI находится в начальной стадии развития. Далее должен настать период конкуренции "полноценных" AGI.
Добавим от себя: сюда же - Китай, который в этом сегменте сейчас не принципиально отстает от американских корпораций.
Но крупные инфраструктурные проекты в ИИ секторе, которые разворачиваются в основном после инаугурации Трампа в 2025 году, должны вступить в силу примерно к следующим президентским выборам в США (2028):
- трансъокеанические мощные кабеля минуя Китай,
- Stargate
- Mission Genesis
- Golden Dome
- "мега Starlink" и т.д.
Заложенный в них ресурс прочности - очевидно как минимум на несколько лет. Моральное устаревание тоже должно быть не за один год.
То есть это проекты - инфраструктурный костяк для эпохи конкуренции вероятных "полноценных AGI" и они же должны стать первичной инфраструктурной основой для начала перехода AI сектора США к ASI.
ASI в теории - это создание "сверхмозга", системы, которая объединит конкурирующие AGI в управляемое пространство.
Значит, форма преодоления конкуренции корпораций и их вероятных AGI и, возможно, структура будущей американской версии ASI должны проглядывать уже сейчас в этой создаваемой инфраструктуре.
А, возможно, и планироваться при ее создании, ибо создается эта серия инфраструктурных проектов при опоре на американское (США) государство. Оно и должно, если смотреть логически, выступить как минимум координатором этого будущего преодоления конкуренции корпораций через переход к ASI.
Цитата:
"Президент и соучредитель Anthropic Даниэла Амодей заявила, что понятие «общего искусственного интеллекта» (AGI) постепенно теряет актуальность. По ее словам, изначально этот термин служил ориентиром для момента, когда ИИ сравняется с человеком по возможностям, однако по ряду критериев этот рубеж уже преодолен. Например, в программировании современные модели превзошли людей. Это ставит вопрос не о достижении AGI, а о пересмотре самого термина."
https://hightech.plus/2026/01/05/prezident-anthropic-agi-uzhe-dostignut-v-nekotorih-oblastyah
Первоисточник: https://officechai.com/ai/by-some-definitions-weve-already-achieved-agi-anthropic-co-founder-daniela-amodei/
OfficeChai
By Some Definitions, We’ve Already Achieved AGI: Anthropic Co-founder Daniela Amodei
There was a time not too long ago that tech experts were predicting when we would reach AGI, but some now believe that...
🤔1
Forwarded from Здоровый образ мысли | Андрей Силинг
Я прочел книгу с карандашом и сделал очень много пометок. Настоятельно рекомендую прочесть ее всем, кто занимается развитием, государственным управлением, технологическими проектами. Прочесть, пока не поздно. Прочтите введение, если сомневаетесь.
Кстати, статья о Модели суверенной акседерации во многом была навеяна размышлениями вслед прочтения книги Карпа.
#важныетексты
@andrey_siling
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Здоровый образ мысли | Андрей Силинг
ТЕХНОЛОГИЧЕСКАЯ РЕСПУБЛИКА
Большая и сложная но важная к прочтению всем думающим людям книга.
Автор — Алекс Карп — создатель платформы Палантир, перевернувший представление об инструментах разведки, контрразведки и влияния.
Книга — кусочек картины мира…
Большая и сложная но важная к прочтению всем думающим людям книга.
Автор — Алекс Карп — создатель платформы Палантир, перевернувший представление об инструментах разведки, контрразведки и влияния.
Книга — кусочек картины мира…
👍2🔥1
Трансформация NASA. Итоговый бюджет NASA на 2026 год, который проходит утверждение в США, усиливает прежние тенденции развития NASA после попытки изменить стратегию освоения космоса в США в 2025 году.
Тогда была сделана попытка по политическим соображениям резко сократить этот бюджет, что отбрасывало NASA на периферию космических программ, отдавая "американский космос" по сути полностью в руки корпораций. (См. Таблицу)
В результате утверждения все таки "большого бюджета" NASA видны несколько тенденций развития этой структуры:
- NASA продолжает превращаться в дирижера действий корпораций в космосе и государственных программ. Основная часть инвестиций на космос идет по линии корпораций. Они же берут на себя через сервисное обслуживание интересующих государство основных производственных проектов: "Мега Starlink", вынос на орбиту производства энергии и data-центров, очень значительная часть работ по освоению Луны, базовые ракетные запуски (прежде всего Starship).
Примерно это происходит сейчас и в военной сфере США.
- Освоение космоса подчиняется не интересам его исследования с точки зрения фундаментальной науки, а - геополитическим интересам США. Деятельность корпораций в космосе - это прежде всего геополитика. а не фундаментальная или иная наука. Обеспечение всестороннего лидерства США, прежде всего относительно Китая (в частности, китайская Лунная программа и орбитальная станция Тяньгун)
- Космос милитаризуется. Но это идет в основном по линии корпораций. Не через NASA. Golden Dome и "Мега Starlink" идут помимо NASA.
(Окончание и Таблица в следующем посте)
Тогда была сделана попытка по политическим соображениям резко сократить этот бюджет, что отбрасывало NASA на периферию космических программ, отдавая "американский космос" по сути полностью в руки корпораций. (См. Таблицу)
В результате утверждения все таки "большого бюджета" NASA видны несколько тенденций развития этой структуры:
- NASA продолжает превращаться в дирижера действий корпораций в космосе и государственных программ. Основная часть инвестиций на космос идет по линии корпораций. Они же берут на себя через сервисное обслуживание интересующих государство основных производственных проектов: "Мега Starlink", вынос на орбиту производства энергии и data-центров, очень значительная часть работ по освоению Луны, базовые ракетные запуски (прежде всего Starship).
Примерно это происходит сейчас и в военной сфере США.
- Освоение космоса подчиняется не интересам его исследования с точки зрения фундаментальной науки, а - геополитическим интересам США. Деятельность корпораций в космосе - это прежде всего геополитика. а не фундаментальная или иная наука. Обеспечение всестороннего лидерства США, прежде всего относительно Китая (в частности, китайская Лунная программа и орбитальная станция Тяньгун)
- Космос милитаризуется. Но это идет в основном по линии корпораций. Не через NASA. Golden Dome и "Мега Starlink" идут помимо NASA.
(Окончание и Таблица в следующем посте)
Telegram
ШЕВЦОВ
- Космос милитаризуется. Но это идет в основном по линии корпораций. Не через NASA. Golden Dome и "Мега Starlink" идут помимо NASA.
За NASA остаются некоторые важные производственные проекты. Не все уходит корпорациям. Прежде всего остается корабль Orion…
За NASA остаются некоторые важные производственные проекты. Не все уходит корпорациям. Прежде всего остается корабль Orion…
❤1
(Начало в предыдущем посте)
За NASA остаются некоторые важные производственные проекты. Не все уходит корпорациям. Прежде всего остается корабль Orion при всей гибридности этого проекта и начатые ранее долгосрочные программы.
NASA также четко концентрируется на освоении Луны. Это - около трети бюджета.
Очевиден и научный приоритет NASA: исследования планет Солнечной системы. С учетом Лунной программы и исследования Земли как космического объекта на это предназначается несколько более половины бюджета.
То есть пока корпорации берут на себя обслуживание текущих геополитических потребностей США, NASA как государственный институт, набирает информацию фундаментального толка по планетам. В будущем именно эта информация должна дать направление действий корпораций в космосе, когда они перерастут возможности орбиты.
Главные источники к Таблице:
Congressional budget
White House request
Science cuts analysis
За NASA остаются некоторые важные производственные проекты. Не все уходит корпорациям. Прежде всего остается корабль Orion при всей гибридности этого проекта и начатые ранее долгосрочные программы.
NASA также четко концентрируется на освоении Луны. Это - около трети бюджета.
Очевиден и научный приоритет NASA: исследования планет Солнечной системы. С учетом Лунной программы и исследования Земли как космического объекта на это предназначается несколько более половины бюджета.
То есть пока корпорации берут на себя обслуживание текущих геополитических потребностей США, NASA как государственный институт, набирает информацию фундаментального толка по планетам. В будущем именно эта информация должна дать направление действий корпораций в космосе, когда они перерастут возможности орбиты.
Главные источники к Таблице:
Congressional budget
White House request
Science cuts analysis
👍1
Аналог законов Мура (включая производные законы из самого закона Мура) применительно к ИИ. Вывести хотя бы эмпирическую закономерность развития ИИ сложно в силу совсем недавнего появления массовых LLM моделей.
Но такую закономерность допустимо ожидать: ИИ развивается на базе железа, которое использует кремниевые процессоры. То есть как минимум косвенно развитие ИИ подвержено законам Мура . Со всеми "сложностями" проявления этих законов применительно к процессорам в наше время.
С другой стороны любое долгосрочное развитие всегда порождает свои оригинальные закономерности. Такие закономерности должны проявиться и при развитии ИИ.
Одна из закономерностей сформулирована Курцвейлом и по-своему развивается сейчас в частности Маском: ИИ дорастет до AGI, а AGI дорастет до ASI или сингулярности.
Еще одна фактически консенсусная и аксиоматическая: время циклов научно-технологического прогресса сокращается.
Однако в рамках этих закономерностей остается невыявленной закономерность скорости развития ИИ как минимум на пути к AGI.
С этой точки зрения сказанная походя фраза Хинтона напоминает давно ожидаемый закон развития ИИ: "«Примерно каждые семь месяцев он [ ИИ ] получает возможность выполнять задачи, которые длятся примерно вдвое дольше», — сказал Хинтон, отметив, что ИИ уже перешёл от «минутного кода» к «целым проектам, которые длятся примерно час»."
Но необходима верификация этого утверждения.
Если оно подтвердится даже на уровне эмпирического наблюдения, прогноз приближения ИИ к уровню AGI становится несложным. Достаточно сформулировать предел человеческой возможности к созданию программных проектов.
Возможно, Хинтон перефразировал результаты исследования METR (Measurement and Forecasting Lab), опубликованное в марте 2025 года, которое эмпирически подтверждает "закон Хинтона" ( https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/ ) :
"Измерили AI performance на задачах разной длительности (от 30 секунд до 8+ часов для человека)
Обнаружили экспоненциальный рост: doubling time ≈ 7 месяцев
Тренд устойчив с 2019 года, возможно ускорился в 2024
R² = 0.83 (корреляция между длиной задачи для человека и success rate AI)
То есть это не просто эмпирическое наблюдение, а установленная закономерность с шестилетней historical validation."
Кстати, "«Если AI сегодня выполняет 1-часовые задачи, а AGI требует выполнения месячных проектов (160 часов), то при удвоении каждые 7 месяцев AGI появится через log₂(160) × 7 ≈ 49 месяцев, то есть к февралю 2030 года. Это совпадает с оценками Маска и Курцвейла, но теперь может быть обосновано на измеримом эмпирическом законе, а не на интуиции»."
Сформулировал ли Хинтон сам эту закономерность или ее заметила сначала METR - для науки значения не имеет. Важно лишь, что два источника говорят об эмпирической закономерности про 7 месяцев применительно к развитию ИИ. Что делает необходимым как минимум зафиксировать это утверждение в памяти до его более обширной верификации.
https://www.businessinsider.com/godfather-of-ai-geoffrey-hinton-2026-job-losses-2025-12
Но такую закономерность допустимо ожидать: ИИ развивается на базе железа, которое использует кремниевые процессоры. То есть как минимум косвенно развитие ИИ подвержено законам Мура . Со всеми "сложностями" проявления этих законов применительно к процессорам в наше время.
С другой стороны любое долгосрочное развитие всегда порождает свои оригинальные закономерности. Такие закономерности должны проявиться и при развитии ИИ.
Одна из закономерностей сформулирована Курцвейлом и по-своему развивается сейчас в частности Маском: ИИ дорастет до AGI, а AGI дорастет до ASI или сингулярности.
Еще одна фактически консенсусная и аксиоматическая: время циклов научно-технологического прогресса сокращается.
Однако в рамках этих закономерностей остается невыявленной закономерность скорости развития ИИ как минимум на пути к AGI.
С этой точки зрения сказанная походя фраза Хинтона напоминает давно ожидаемый закон развития ИИ: "«Примерно каждые семь месяцев он [ ИИ ] получает возможность выполнять задачи, которые длятся примерно вдвое дольше», — сказал Хинтон, отметив, что ИИ уже перешёл от «минутного кода» к «целым проектам, которые длятся примерно час»."
Но необходима верификация этого утверждения.
Если оно подтвердится даже на уровне эмпирического наблюдения, прогноз приближения ИИ к уровню AGI становится несложным. Достаточно сформулировать предел человеческой возможности к созданию программных проектов.
Возможно, Хинтон перефразировал результаты исследования METR (Measurement and Forecasting Lab), опубликованное в марте 2025 года, которое эмпирически подтверждает "закон Хинтона" ( https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/ ) :
"Измерили AI performance на задачах разной длительности (от 30 секунд до 8+ часов для человека)
Обнаружили экспоненциальный рост: doubling time ≈ 7 месяцев
Тренд устойчив с 2019 года, возможно ускорился в 2024
R² = 0.83 (корреляция между длиной задачи для человека и success rate AI)
То есть это не просто эмпирическое наблюдение, а установленная закономерность с шестилетней historical validation."
Кстати, "«Если AI сегодня выполняет 1-часовые задачи, а AGI требует выполнения месячных проектов (160 часов), то при удвоении каждые 7 месяцев AGI появится через log₂(160) × 7 ≈ 49 месяцев, то есть к февралю 2030 года. Это совпадает с оценками Маска и Курцвейла, но теперь может быть обосновано на измеримом эмпирическом законе, а не на интуиции»."
Сформулировал ли Хинтон сам эту закономерность или ее заметила сначала METR - для науки значения не имеет. Важно лишь, что два источника говорят об эмпирической закономерности про 7 месяцев применительно к развитию ИИ. Что делает необходимым как минимум зафиксировать это утверждение в памяти до его более обширной верификации.
https://www.businessinsider.com/godfather-of-ai-geoffrey-hinton-2026-job-losses-2025-12
metr.org
Measuring AI Ability to Complete Long Tasks
We propose measuring AI performance in terms of the *length* of tasks AI agents can complete. We show that this metric has been consistently exponentially increasing over the past 6 years, with a doubling time of around 7 months. Extrapolating this trend…
👍2❤1
Forwarded from Малоизвестное интересное
ИИ вдруг начали щелкать одну за другой нерешенные людьми математические задачи
Это значит, что ИИ уровня «гений по требованию» может появиться уже в 2026
Сегодня многие медиа напишут, как о сенсации, о «победе на выходных: ChatGPT 5.2 Pro решил нерешенную ранее математическую задачу». Речь идет о сообщении Нила Сомани, что доказательство, которое он представил для задачи Эрдёша № 397, было принято знаменитым математиком Теренсом Тао.
FYI. Знаменитый венгерский математик Пал Эрдёш сформулировал множество нерешённых гипотез и задач в математике (более 1000), в основном в областях комбинаторики, теории чисел и геометрии. Многие из них до сих пор не решены.
И хотя в сообщении Нила Сомани чистая правда, сенсация вовсе не в этом.
О том, что преодолен важный рубеж, Теренс Тао написал после того, как 6-го января модель ChatGPT 5.2 Pro с помощью Aristotle (новая LLM, которая находит напрямую формальные доказательства математических утверждений, которые можно верифицировать, и если они проходят проверку, считать вопрос закрытым) решил задачу Эрдёша № 728.
Это – как пишет Теренс Тао - демонстрирует реальное увеличение возможностей этих инструментов за последние месяцы.
Следовательно, потребовалось всего 3 месяца, чтобы уровень моделей (по определению того же Теренса Тао) повысился с «уровня некомпетентного аспиранта» до «уровня компетентного аспиранта» (способного к самостоятельному творческому синтезу знаний).
И возможно, до уровня «гений по требованию» нас также отделяют уже не годы, а месяцы.
#AGI #Вызовы21Века #FutureOfCivilization
Это значит, что ИИ уровня «гений по требованию» может появиться уже в 2026
Сегодня многие медиа напишут, как о сенсации, о «победе на выходных: ChatGPT 5.2 Pro решил нерешенную ранее математическую задачу». Речь идет о сообщении Нила Сомани, что доказательство, которое он представил для задачи Эрдёша № 397, было принято знаменитым математиком Теренсом Тао.
FYI. Знаменитый венгерский математик Пал Эрдёш сформулировал множество нерешённых гипотез и задач в математике (более 1000), в основном в областях комбинаторики, теории чисел и геометрии. Многие из них до сих пор не решены.
И хотя в сообщении Нила Сомани чистая правда, сенсация вовсе не в этом.
Настоящая сенсация в том, что произошел какой-то еще не понятый нами прорыв. Фронтирные модели вдруг начали с конца декабря щелкать одну за другой нерешенные людьми задачи Эрдёша, тратя на решение одной задачи около15 минут: 24-го декабря решена задача №1077; 25-го - №333; 26-го – 897; 6 января 2026 - №728; 8-го – 720; 10-го №205 и №397 (источник).
О том, что преодолен важный рубеж, Теренс Тао написал после того, как 6-го января модель ChatGPT 5.2 Pro с помощью Aristotle (новая LLM, которая находит напрямую формальные доказательства математических утверждений, которые можно верифицировать, и если они проходят проверку, считать вопрос закрытым) решил задачу Эрдёша № 728.
Прорыв в том, что:
1. Задача была решена ИИ автономно (после получения обратной связи по результатам первоначальной попытки).
2. Это решение не существовало (не было описано) в каких либо источниках, созданных математиками – людьми.
Это – как пишет Теренс Тао - демонстрирует реальное увеличение возможностей этих инструментов за последние месяцы.
Следовательно, потребовалось всего 3 месяца, чтобы уровень моделей (по определению того же Теренса Тао) повысился с «уровня некомпетентного аспиранта» до «уровня компетентного аспиранта» (способного к самостоятельному творческому синтезу знаний).
И возможно, до уровня «гений по требованию» нас также отделяют уже не годы, а месяцы.
#AGI #Вызовы21Века #FutureOfCivilization
❤4🔥3
Очень долго отвечал на вопросы одного российского федерального ТВ канала по Тиллю, Palantir, ИИ, AGI, ASI и т.д. В основном по своему докладу по этим же темам в конце прошлого года в Москве.
Ответил стараясь максимально быть точным. Но как всегда в случаях, когда имеешь дело с умным и подготовленным собеседником, постфактум вижу, что кое-что мог бы сформулировать лучше.
Плюс, есть, конечно, и разница в жанрах: доклад в узком кругу профессионалов и ответы на вопросы большого российского федерального ТВ канала с историей. Многое упрощал.
Но главное: многое сегодня осталось еще и недосказанным.
Там основная проблема: речь шла в целом больше о военной стороне развития ИИ. А она очень необычна и многообразна. Почти не осмыслена обществом. Чтобы ее объяснить, надо вводить в оборот массу новых для массовой аудитории фактов. И сколько бы я их не ввел за время передачи, все равно этого мало.
Тем более, что я стремлюсь избегать эпатажа и хлестких фраз, что для индустрии массового ТВ - не верно. Опорные точки в выступлении в СМИ априори должны быть яркими. Одной исследовательской новизны - недостаточно.
В принципе, эти мои ощущения по итогам передачи или интервью - хорошие. Рабочее критическое недовольство сделанным продуктом - это всегда полезно.
Но будет интересно посмотреть на реакцию публики. Нашел я верные акценты и стиль или нет.
В любом случае, внимание такого уровня СМИ к моим идеям очень приятно.
Как только выйдет, опубликую тут линк. Должно быть скоро.
Сам доклад тут:
https://yury-shevtsov.blogspot.com/2025/09/palantir-30092025.html?fbclid=IwY2xjawPUlQlleHRuA2FlbQIxMQBicmlkETFKQVpXcTdNaE0yQlFoY05Qc3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHpYN5OQoROE9Hp56axNnJvkV25_KmTxFT_TD5yR22pEApkWeQVyQ4YZi59Dn_aem_QfdglncEmbgs0OZtbE0okw
Ответил стараясь максимально быть точным. Но как всегда в случаях, когда имеешь дело с умным и подготовленным собеседником, постфактум вижу, что кое-что мог бы сформулировать лучше.
Плюс, есть, конечно, и разница в жанрах: доклад в узком кругу профессионалов и ответы на вопросы большого российского федерального ТВ канала с историей. Многое упрощал.
Но главное: многое сегодня осталось еще и недосказанным.
Там основная проблема: речь шла в целом больше о военной стороне развития ИИ. А она очень необычна и многообразна. Почти не осмыслена обществом. Чтобы ее объяснить, надо вводить в оборот массу новых для массовой аудитории фактов. И сколько бы я их не ввел за время передачи, все равно этого мало.
Тем более, что я стремлюсь избегать эпатажа и хлестких фраз, что для индустрии массового ТВ - не верно. Опорные точки в выступлении в СМИ априори должны быть яркими. Одной исследовательской новизны - недостаточно.
В принципе, эти мои ощущения по итогам передачи или интервью - хорошие. Рабочее критическое недовольство сделанным продуктом - это всегда полезно.
Но будет интересно посмотреть на реакцию публики. Нашел я верные акценты и стиль или нет.
В любом случае, внимание такого уровня СМИ к моим идеям очень приятно.
Как только выйдет, опубликую тут линк. Должно быть скоро.
Сам доклад тут:
https://yury-shevtsov.blogspot.com/2025/09/palantir-30092025.html?fbclid=IwY2xjawPUlQlleHRuA2FlbQIxMQBicmlkETFKQVpXcTdNaE0yQlFoY05Qc3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHpYN5OQoROE9Hp56axNnJvkV25_KmTxFT_TD5yR22pEApkWeQVyQ4YZi59Dn_aem_QfdglncEmbgs0OZtbE0okw
Blogspot
Философский клуб ЭФКО (Москва). Доклад Ю.Шевцова "Питер Тиль и философия Palantir Какое будущее готовят человечеству Тиль, Карп…
Сергей Иванов : Питер Тиль и философия Palantir Какое будущее готовят человечеству Тиль, Карп, и Кремниевая Долина. У нас новая тема в «Л...
👍9
Стратегия применения искусственного интеллекта для Министерства войны.
Министр войны
9 января 2026 г.
То есть (цитаты ниже):
- 30 дней. Первая отчетность: через 6 месяцев (примерно 180 дней) с даты этого меморандума.
- Интеграция с Genesis Минэнерго. Там очень жесткий график для 17 лабораторий на прорыв Уровня Манхэтенского проекта максимум за 270 дней с ноября 2025.
- Идеологические ограничения от прежних эпох - вон. Режим военного времени. Этапы: 90 и 180 дней.
- Политически: "теоретически" к промежуточным выборам в США в ноябре обе скоординированные программы - эта Пентагона и Genesis Минэнерго (Трампа) подходят с механизмом тотального внедрения ИИ, достигнутых в Genesis прорывах и в прорывах коммерческих корпораций в реальные армейский и разведывательный организмы.
Цитаты:
Каждый PSP будет возглавлять образцовый руководитель программы в партнёрстве со спонсорской организацией. Прогресс будет демонстрироваться ежемесячно заместителю министра войны и заместителю министра войны по исследованиям и инженерии (USW(R&E)), при этом первоначальная демонстрация партнёром-пользователем перехода должна произойти в течение шести месяцев с даты настоящего меморандума...
мы будем поддерживать и использовать Американскую платформу науки и безопасности, разрабатываемую в рамках миссии Genesis президента Трампа по инновациям в области науки и технологий...
Министерство не может работать с моделями, которым месяцы или годы. Мы должны иметь новейшие и лучшие модели ИИ, развёрнутые для наших воинов. Развёртывание этих возможностей на всех эшелонах просто недостаточно, мы должны быть в состоянии поддерживать и обеспечивать быстрые обновления моделей на всех эшелонах. Я даю указание CDAO установить ритм поставки и интеграции с поставщиками ИИ, который позволяет развёртывать новейшие модели в течение 30 дней после публичного релиза. Это должно стать основным критерием закупок для будущего приобретения моделей...
Мы должны подходить к компромиссам в рисках, «интересам» и другим субъективным вопросам так, как если бы мы находились в состоянии войны. С этой целью я ожидаю, что наш CDAO будет действовать как CDAO военного времени и работать с главным информационным директором, чтобы полностью использовать законодательные и делегированные полномочия для ускорения поставки возможностей ИИ, включая доступ к ... USW(R&E) учредит ежемесячный «Совет по устранению барьеров» с полномочиями отменять незаконодательные требования и эскалировать блокировки для немедленного разрешения...
Разнообразие, справедливость и инклюзивность и социальная идеология не имеют места в DoW, поэтому мы не должны использовать модели ИИ, которые включают идеологическую «настройку», мешающую их способности предоставлять объективно правдивые ответы на пользовательские запросы. Министерство также должно использовать модели, свободные от ограничений политики использования, которые могут ограничивать законные военные применения. Поэтому я даю указание CDAO установить тесты для объективности моделей в качестве основного критерия закупок в течение 90 дней, и я даю указание заместителю министра войны по закупкам и поддержанию включить стандартную формулировку «любое законное использование» в любой контракт DoW, через который закупаются услуги ИИ, в течение 180 дней. Я также даю указание CDAO обеспечить, чтобы все существующие руководящие материалы по политике ИИ в Министерстве соответствовали директивам, изложенным в настоящем меморандуме...
2026 год станет тем годом, когда мы решительно поднимем планку военного доминирования в области ИИ.
Стратегия применения искусственного интеллекта для Министерства войны
OSD0,70946-25/CMD018427-25
МИНИСТР ВОЙНЫ
1000 DEFENSE PENTAGON
WASHINGTON, DC 20301-1000
9 января 2026 г.
https://www.war.gov/News/Releases/Release/Article/4376420/war-department-launches-ai-acceleration-strategy-to-secure-american-military-ai/
Министр войны
9 января 2026 г.
То есть (цитаты ниже):
- 30 дней. Первая отчетность: через 6 месяцев (примерно 180 дней) с даты этого меморандума.
- Интеграция с Genesis Минэнерго. Там очень жесткий график для 17 лабораторий на прорыв Уровня Манхэтенского проекта максимум за 270 дней с ноября 2025.
- Идеологические ограничения от прежних эпох - вон. Режим военного времени. Этапы: 90 и 180 дней.
- Политически: "теоретически" к промежуточным выборам в США в ноябре обе скоординированные программы - эта Пентагона и Genesis Минэнерго (Трампа) подходят с механизмом тотального внедрения ИИ, достигнутых в Genesis прорывах и в прорывах коммерческих корпораций в реальные армейский и разведывательный организмы.
Цитаты:
Каждый PSP будет возглавлять образцовый руководитель программы в партнёрстве со спонсорской организацией. Прогресс будет демонстрироваться ежемесячно заместителю министра войны и заместителю министра войны по исследованиям и инженерии (USW(R&E)), при этом первоначальная демонстрация партнёром-пользователем перехода должна произойти в течение шести месяцев с даты настоящего меморандума...
мы будем поддерживать и использовать Американскую платформу науки и безопасности, разрабатываемую в рамках миссии Genesis президента Трампа по инновациям в области науки и технологий...
Министерство не может работать с моделями, которым месяцы или годы. Мы должны иметь новейшие и лучшие модели ИИ, развёрнутые для наших воинов. Развёртывание этих возможностей на всех эшелонах просто недостаточно, мы должны быть в состоянии поддерживать и обеспечивать быстрые обновления моделей на всех эшелонах. Я даю указание CDAO установить ритм поставки и интеграции с поставщиками ИИ, который позволяет развёртывать новейшие модели в течение 30 дней после публичного релиза. Это должно стать основным критерием закупок для будущего приобретения моделей...
Мы должны подходить к компромиссам в рисках, «интересам» и другим субъективным вопросам так, как если бы мы находились в состоянии войны. С этой целью я ожидаю, что наш CDAO будет действовать как CDAO военного времени и работать с главным информационным директором, чтобы полностью использовать законодательные и делегированные полномочия для ускорения поставки возможностей ИИ, включая доступ к ... USW(R&E) учредит ежемесячный «Совет по устранению барьеров» с полномочиями отменять незаконодательные требования и эскалировать блокировки для немедленного разрешения...
Разнообразие, справедливость и инклюзивность и социальная идеология не имеют места в DoW, поэтому мы не должны использовать модели ИИ, которые включают идеологическую «настройку», мешающую их способности предоставлять объективно правдивые ответы на пользовательские запросы. Министерство также должно использовать модели, свободные от ограничений политики использования, которые могут ограничивать законные военные применения. Поэтому я даю указание CDAO установить тесты для объективности моделей в качестве основного критерия закупок в течение 90 дней, и я даю указание заместителю министра войны по закупкам и поддержанию включить стандартную формулировку «любое законное использование» в любой контракт DoW, через который закупаются услуги ИИ, в течение 180 дней. Я также даю указание CDAO обеспечить, чтобы все существующие руководящие материалы по политике ИИ в Министерстве соответствовали директивам, изложенным в настоящем меморандуме...
2026 год станет тем годом, когда мы решительно поднимем планку военного доминирования в области ИИ.
Стратегия применения искусственного интеллекта для Министерства войны
OSD0,70946-25/CMD018427-25
МИНИСТР ВОЙНЫ
1000 DEFENSE PENTAGON
WASHINGTON, DC 20301-1000
9 января 2026 г.
https://www.war.gov/News/Releases/Release/Article/4376420/war-department-launches-ai-acceleration-strategy-to-secure-american-military-ai/
U.S. Department of War
War Department Launches AI Acceleration Strategy to Secure American Mi
The War Department launched a transformative Artificial Intelligence Acceleration Strategy that will extend the lead in military AI deployment and establish the United States as the world's undisputed
❤5🤯2
Закон США о национальной обороне на 2026 финансовый год, обязывающее министра обороны создать «Руководящий комитет по будущему искусственного интеллекта», состоящий из высшего руководства, не позднее 1 апреля 2026 года.
NDAA FY2026 подписан 18.12.2025. (См.цитаты ниже)
То есть:
- Комитет очень высокого, стратегического уровня по составу, в составе "рабочие лошадки" силового сектора США. Выше них - уже в основном политические руководители. В Комитете: зам главы Министра войны и зам главы Объединенного комитета штабов.
- Впервые в официальных документах США такого уровня признана подготовка к появлению и военному использованию AGI или AGI подобных моделей.
- Центральный вопрос для военного применения AGI-уровневых систем: как сохранить человеческий контроль, если система умнее оператора.
- Противники США также учтены в мандате комитета — анализ траекторий развития AGI у Китая и других стран является обязательным элементом работы Комитета.
- Принятая 9.01.2026 AI Стратегия Пентагона и этот более ранний документ не конкурируют, а дополняют друг друга: PSPs обеспечивают быстрый прогресс в краткосрочной перспективе, комитет — рамку для управления AGI-рисками на горизонте 5–10 лет.
- Комитет соберется прослушать отчет после промежуточных выборов в США. К этому времени будут готовы отчеты программы Genesis и Стратегии применения искусственного интеллекта для Министерства войны. Эти две структуры имеют время пройти "бюрократическое слаживание" и должны уже иметь задания на следующие этапы работы (они завершат свой нынешний график летом 2026).
Если Конгресс останется в руках республиканцев, то к президентским выборам в США 2028 в американском силовом секторе будет проведена глубочайшая перестройка под ИИ и даже AGI подобные технологии.
Если Конгресс захватят демократы, прогресс с внедрением этих технологий может замедлиться, но вряд ли принципиально.
Оргструктура силового сектора США, нацеленная на глобальное лидерство в области ИИ и AGI подобных моделей будет готова примерно к промежуточным выборам в США.
Цитаты (NDAA FY2026 подписан 18.12.2025):
Компромиссная версия Закона о национальной обороне 2026 финансового года, разработанная участниками Палаты представителей и Сената, включает положение, обязывающее министра обороны создать «Руководящий комитет по будущему искусственного интеллекта», состоящий из высшего руководства, не позднее 1 апреля 2026 года.
Руководящий комитет будет сопредседателем заместителя министра обороны и заместителя председателя Объединённого комитета начальников штабов. Другими членами были заместители начальников службы; заместителем начальника Бюро национальной гвардии; заместителей министра обороны по закупкам и обеспечению, исследованиям и инженерии, разведке и безопасности, а также контролёру/главному финансовому директору; главного специалиста по цифровым технологиям и искусственному интеллекту Пентагона; и других должностных лиц, которых Министр обороны считает подходящими....
В тексте законопроекта, говорится в тексте законопроекта, комиссия будет поручена «разработать проактивную политику по оценке, внедрению, управлению и снижению рисков современных систем искусственного интеллекта Министерства обороны, которые являются более продвинутыми, чем любые существующие современные системы искусственного интеллекта, включая передовые системы искусственного интеллекта, которые приближаются к искусственному общему интеллекту или достигают их достижения».
Согласно описанию IBM, искусственный общий интеллект, или AGI, — это «гипотетический этап в развитии машинного обучения (ML), на котором система искусственного интеллекта (ИИ) может соперничать или превосходить когнитивные способности человека в любой задаче»...
Кроме того, комитету будет поручено изучить потенциальные «оперативные эффекты» интеграции современного или «универсального» ИИ в сети и системы Министерства обороны с технической, доктринальной, учебной и ресурсной точки зрения, а также оценить, как технология может повлиять на будущих военных командиров.
(Окончание в следующем посте)
NDAA FY2026 подписан 18.12.2025. (См.цитаты ниже)
То есть:
- Комитет очень высокого, стратегического уровня по составу, в составе "рабочие лошадки" силового сектора США. Выше них - уже в основном политические руководители. В Комитете: зам главы Министра войны и зам главы Объединенного комитета штабов.
- Впервые в официальных документах США такого уровня признана подготовка к появлению и военному использованию AGI или AGI подобных моделей.
- Центральный вопрос для военного применения AGI-уровневых систем: как сохранить человеческий контроль, если система умнее оператора.
- Противники США также учтены в мандате комитета — анализ траекторий развития AGI у Китая и других стран является обязательным элементом работы Комитета.
- Принятая 9.01.2026 AI Стратегия Пентагона и этот более ранний документ не конкурируют, а дополняют друг друга: PSPs обеспечивают быстрый прогресс в краткосрочной перспективе, комитет — рамку для управления AGI-рисками на горизонте 5–10 лет.
- Комитет соберется прослушать отчет после промежуточных выборов в США. К этому времени будут готовы отчеты программы Genesis и Стратегии применения искусственного интеллекта для Министерства войны. Эти две структуры имеют время пройти "бюрократическое слаживание" и должны уже иметь задания на следующие этапы работы (они завершат свой нынешний график летом 2026).
Если Конгресс останется в руках республиканцев, то к президентским выборам в США 2028 в американском силовом секторе будет проведена глубочайшая перестройка под ИИ и даже AGI подобные технологии.
Если Конгресс захватят демократы, прогресс с внедрением этих технологий может замедлиться, но вряд ли принципиально.
Оргструктура силового сектора США, нацеленная на глобальное лидерство в области ИИ и AGI подобных моделей будет готова примерно к промежуточным выборам в США.
Цитаты (NDAA FY2026 подписан 18.12.2025):
Компромиссная версия Закона о национальной обороне 2026 финансового года, разработанная участниками Палаты представителей и Сената, включает положение, обязывающее министра обороны создать «Руководящий комитет по будущему искусственного интеллекта», состоящий из высшего руководства, не позднее 1 апреля 2026 года.
Руководящий комитет будет сопредседателем заместителя министра обороны и заместителя председателя Объединённого комитета начальников штабов. Другими членами были заместители начальников службы; заместителем начальника Бюро национальной гвардии; заместителей министра обороны по закупкам и обеспечению, исследованиям и инженерии, разведке и безопасности, а также контролёру/главному финансовому директору; главного специалиста по цифровым технологиям и искусственному интеллекту Пентагона; и других должностных лиц, которых Министр обороны считает подходящими....
В тексте законопроекта, говорится в тексте законопроекта, комиссия будет поручена «разработать проактивную политику по оценке, внедрению, управлению и снижению рисков современных систем искусственного интеллекта Министерства обороны, которые являются более продвинутыми, чем любые существующие современные системы искусственного интеллекта, включая передовые системы искусственного интеллекта, которые приближаются к искусственному общему интеллекту или достигают их достижения».
Согласно описанию IBM, искусственный общий интеллект, или AGI, — это «гипотетический этап в развитии машинного обучения (ML), на котором система искусственного интеллекта (ИИ) может соперничать или превосходить когнитивные способности человека в любой задаче»...
Кроме того, комитету будет поручено изучить потенциальные «оперативные эффекты» интеграции современного или «универсального» ИИ в сети и системы Министерства обороны с технической, доктринальной, учебной и ресурсной точки зрения, а также оценить, как технология может повлиять на будущих военных командиров.
(Окончание в следующем посте)
🤯2🤔1
(Начало в предыдущем посте)
Разработка «стратегии, ориентированной на риски» для внедрения технологии Пентагоном, должна включать оценку «потенциальных последствий для командиров оперативных командований, включая влияние, связанное с поддержанием контроля над командованием миссии при использовании искусственного интеллекта и возможностью человека преодолевать искусственный интеллект с помощью технических, политических или других оперативных контролей», согласно законодательству.
Законодатели также имели в виду противников США, когда разрабатывали NDAA....
По данным NDAA, заместитель министра обороны должен представить доклад по выводам руководящей группы — включая оценку широких ресурсов для искусственного интеллекта — комитетам Конгресса по обороне не позднее 31 января 2027 года.
Обе палаты Конгресса должны принять компромиссную версию NDAA и получить её подписание президентом до того, как она станет законом.
[NDAA would mandate new DOD steering committee on artificial general intelligence | DefenseScoop]
( https://defensescoop.com/2025/12/08/fy26-ndaa-dod-ai-artificial-intelligence-futures-agi-steering-committee/ )
Разработка «стратегии, ориентированной на риски» для внедрения технологии Пентагоном, должна включать оценку «потенциальных последствий для командиров оперативных командований, включая влияние, связанное с поддержанием контроля над командованием миссии при использовании искусственного интеллекта и возможностью человека преодолевать искусственный интеллект с помощью технических, политических или других оперативных контролей», согласно законодательству.
Законодатели также имели в виду противников США, когда разрабатывали NDAA....
По данным NDAA, заместитель министра обороны должен представить доклад по выводам руководящей группы — включая оценку широких ресурсов для искусственного интеллекта — комитетам Конгресса по обороне не позднее 31 января 2027 года.
Обе палаты Конгресса должны принять компромиссную версию NDAA и получить её подписание президентом до того, как она станет законом.
[NDAA would mandate new DOD steering committee on artificial general intelligence | DefenseScoop]
( https://defensescoop.com/2025/12/08/fy26-ndaa-dod-ai-artificial-intelligence-futures-agi-steering-committee/ )
DefenseScoop
NDAA would mandate new DOD steering committee on artificial general intelligence
The conference version of the FY26 NDAA would require Pentagon leadership to form a new steering committee to look at the military implications of artificial general intelligence and other advanced AI capabilities.
🤯2
У темы Гренландии есть очень важный аспект, касающийся Золотого купола.
Золотой купол - критически важная тема для новой обороноспособности США. Золотой купол также вписан в стратегическую логику взаимоотношений США и Маска. Прежде всего через ракету Starship и проект Маска Starlink Gen 2. Также имеют некоторое значение на перспективу месторождения редкоземельных металлов (в первую очередь Kvanefjeld и Tanbreez) и холодный климат для дата-центров. Starlink Gen 2 как раз получил разрешение на запуск первой половины спутников (15 тысяч).
Золотой купол опирается на существующие на Гренландии объекты противоракетной и противолодочной обороны США относительно России. Это - наиболее короткое направление для удара ракетами по США. Но их надо дополнительно резко расширить. Одна из основных особенностей Золотого купола: способность перехватывать гиперзвуковые ракеты.
Наибольшая проблема США по Гренландии: развитая бюрократия ЕС. Трамп максимально снимает регуляторные барьеры для развития AI технологий и связанных с ними военных программ. ЕС этого не делает. Максимальный сюжет на эту тему: своего рода раскол на Парижском саммите по AI 2025. С одной стороны США-Британия, с другой - ЕС-Китай-Индия и в целом 61 страна. ( https://techcrunch.com/2025/02/11/as-us-and-uk-refuse-to-sign-ai-action-summit-statement-countries-fail-to-agree-on-the-basics/ )
Проблема системная. Трамп пытается решить ее быстро, ибо ограничен по времени.
Тайминг Трампа по Золотому куполу (цитаты и линки):
- Заявление Трампа (май 2025): Золотой купол должен быть «полностью операционален» через 2,5-3 года, то есть к концу второго срока (2029) ( https://thehill.com/policy/defense/5310368-trump-announces-golden-dome-missile-defense/ )
- «Будет выполнено за три года» ( https://edition.cnn.com/2025/08/01/politics/golden-dome-missile-test-election )
Пентагон осторожнее:
1. Первый major test: октябрь-декабрь 2028
- Официально запланирован на 4-й квартал 2028 года ( https://abc7chicago.com/post/pentagon-schedules-first-major-test-golden-dome-missile-defense-system-before-2028-election-sources-say/17441730/ )
- Timing выбран намеренно: за месяц до президентских выборов (ноябрь 2028) ( https://edition.cnn.com/2025/08/01/politics/golden-dome-missile-test-election )
- "Они хотят win to point to в ноябре" ( https://abc7chicago.com/post/pentagon-schedules-first-major-test-golden-dome-missile-defense-system-before-2028-election-sources-say/17441730/ )
2. «Частичная боевая готовность к 2028 году»:
- Руководитель Золотого купола Gen. Michael Guetlein: "Частичная боевая готовность к 2028 году"( https://www.defensedaily.com/golden-dome.../missile-defense/ )
- The Guardian (май 2025): «Пентагон ожидает, что системы будут готовы только для "демонстрации" в идеальных условиях к концу 2028» ( https://www.theguardian.com/us-news/2025/may/30/trump-golden-dome-missile-defense )
Без полного контроля над Гренландией высок риск, что инфраструктура не будет готова к 2028. Дания может:
- Замедлить согласования
- Потребовать консультаций с Гренландией (85% населения острова против выхода из состава Дании)
- Выдвинуть политические условия
Итог: К концу 2028 — политически критический демонстрационный тест Золотого купола перед президентскими выборами. Для его успеха важна расширенная арктическая инфраструктура, включая территорию Гренландии за пределами базы Питуффик (Туле). Чтобы успеть построить к лету 2028, очень желательно в 2026 соглашение (или односторонние действия) по Гренландии.
Золотой купол - критически важная тема для новой обороноспособности США. Золотой купол также вписан в стратегическую логику взаимоотношений США и Маска. Прежде всего через ракету Starship и проект Маска Starlink Gen 2. Также имеют некоторое значение на перспективу месторождения редкоземельных металлов (в первую очередь Kvanefjeld и Tanbreez) и холодный климат для дата-центров. Starlink Gen 2 как раз получил разрешение на запуск первой половины спутников (15 тысяч).
Золотой купол опирается на существующие на Гренландии объекты противоракетной и противолодочной обороны США относительно России. Это - наиболее короткое направление для удара ракетами по США. Но их надо дополнительно резко расширить. Одна из основных особенностей Золотого купола: способность перехватывать гиперзвуковые ракеты.
Наибольшая проблема США по Гренландии: развитая бюрократия ЕС. Трамп максимально снимает регуляторные барьеры для развития AI технологий и связанных с ними военных программ. ЕС этого не делает. Максимальный сюжет на эту тему: своего рода раскол на Парижском саммите по AI 2025. С одной стороны США-Британия, с другой - ЕС-Китай-Индия и в целом 61 страна. ( https://techcrunch.com/2025/02/11/as-us-and-uk-refuse-to-sign-ai-action-summit-statement-countries-fail-to-agree-on-the-basics/ )
Проблема системная. Трамп пытается решить ее быстро, ибо ограничен по времени.
Тайминг Трампа по Золотому куполу (цитаты и линки):
- Заявление Трампа (май 2025): Золотой купол должен быть «полностью операционален» через 2,5-3 года, то есть к концу второго срока (2029) ( https://thehill.com/policy/defense/5310368-trump-announces-golden-dome-missile-defense/ )
- «Будет выполнено за три года» ( https://edition.cnn.com/2025/08/01/politics/golden-dome-missile-test-election )
Пентагон осторожнее:
1. Первый major test: октябрь-декабрь 2028
- Официально запланирован на 4-й квартал 2028 года ( https://abc7chicago.com/post/pentagon-schedules-first-major-test-golden-dome-missile-defense-system-before-2028-election-sources-say/17441730/ )
- Timing выбран намеренно: за месяц до президентских выборов (ноябрь 2028) ( https://edition.cnn.com/2025/08/01/politics/golden-dome-missile-test-election )
- "Они хотят win to point to в ноябре" ( https://abc7chicago.com/post/pentagon-schedules-first-major-test-golden-dome-missile-defense-system-before-2028-election-sources-say/17441730/ )
2. «Частичная боевая готовность к 2028 году»:
- Руководитель Золотого купола Gen. Michael Guetlein: "Частичная боевая готовность к 2028 году"( https://www.defensedaily.com/golden-dome.../missile-defense/ )
- The Guardian (май 2025): «Пентагон ожидает, что системы будут готовы только для "демонстрации" в идеальных условиях к концу 2028» ( https://www.theguardian.com/us-news/2025/may/30/trump-golden-dome-missile-defense )
Без полного контроля над Гренландией высок риск, что инфраструктура не будет готова к 2028. Дания может:
- Замедлить согласования
- Потребовать консультаций с Гренландией (85% населения острова против выхода из состава Дании)
- Выдвинуть политические условия
Итог: К концу 2028 — политически критический демонстрационный тест Золотого купола перед президентскими выборами. Для его успеха важна расширенная арктическая инфраструктура, включая территорию Гренландии за пределами базы Питуффик (Туле). Чтобы успеть построить к лету 2028, очень желательно в 2026 соглашение (или односторонние действия) по Гренландии.
TechCrunch
As US and UK refuse to sign the Paris AI Action Summit statement, other countries commit to developing 'open, inclusive, ethical'…
The Artificial Intelligence Action Summit in Paris was supposed to culminate with a joint declaration on artificial intelligence signed by dozens of world
👍5❤1🤔1
Дальний космос.
Март 2026 - стратегия Китая по космосу.
В ней особое значение - курс на запуск двух аппаратов в дальний космос в 2030х. Один - в начало Солнечной системы, другой - в ее "нос". Прибытие в случае запуска в имеющиеся сейчас сроки - 2050 - 2060.
Вес - 8 тонн. Ядерный реактор - 1 киловатт.
США - варианты ответа есть. Но очень высока вероятность, что отложатся.
Китайский вариант - 11 "датчиков" . Это очень важно. Американский, если США на это пойдут, - гораздо бОльшая мощность для имеющегося оборудования, хотя и очень меньшего изначально.
В чём смысл: при любом варианте гонки, с американцами или без, но:
- к 2050-2060 если не будет катастрофы на Земле и окрестностях должна быть эпоха ASI и следующих за нею почти мгновенно эпох. Информация из до и после Солнечной системы будет поступать им. Фронтом создаётся не для Китая и может быть США. А для общечеловеческой "ASI".
- Китай по ибн Халдуну (я не зацикливаясь на него, Но прикидываю как вариант сценария, возможны и иные расчеты китайских династийных циклов, в любом случае их при таких больших сроках надо иметь ввиду) отправить аппараты может быть ещё сможет. Но использовать их на границах Солнечной системы высока вероятность будет новая китайская политическая реальность. Пока Китай развивается вполне по логике и поколенческому графику ибн Халдуна.
То есть в чем смысл для Китая и человечества в ожидаемом решении съезда КПК, где одним из решений должны стать эти аппараты? Или иначе: в чем реальная мотивация Китая?
(Ссылки не ставлю. Они легко находятся через мой текст)
https://spacenews.com/china-advances-plans-for-dual-solar-system-boundary-missions/
Март 2026 - стратегия Китая по космосу.
В ней особое значение - курс на запуск двух аппаратов в дальний космос в 2030х. Один - в начало Солнечной системы, другой - в ее "нос". Прибытие в случае запуска в имеющиеся сейчас сроки - 2050 - 2060.
Вес - 8 тонн. Ядерный реактор - 1 киловатт.
США - варианты ответа есть. Но очень высока вероятность, что отложатся.
Китайский вариант - 11 "датчиков" . Это очень важно. Американский, если США на это пойдут, - гораздо бОльшая мощность для имеющегося оборудования, хотя и очень меньшего изначально.
В чём смысл: при любом варианте гонки, с американцами или без, но:
- к 2050-2060 если не будет катастрофы на Земле и окрестностях должна быть эпоха ASI и следующих за нею почти мгновенно эпох. Информация из до и после Солнечной системы будет поступать им. Фронтом создаётся не для Китая и может быть США. А для общечеловеческой "ASI".
- Китай по ибн Халдуну (я не зацикливаясь на него, Но прикидываю как вариант сценария, возможны и иные расчеты китайских династийных циклов, в любом случае их при таких больших сроках надо иметь ввиду) отправить аппараты может быть ещё сможет. Но использовать их на границах Солнечной системы высока вероятность будет новая китайская политическая реальность. Пока Китай развивается вполне по логике и поколенческому графику ибн Халдуна.
То есть в чем смысл для Китая и человечества в ожидаемом решении съезда КПК, где одним из решений должны стать эти аппараты? Или иначе: в чем реальная мотивация Китая?
(Ссылки не ставлю. Они легко находятся через мой текст)
https://spacenews.com/china-advances-plans-for-dual-solar-system-boundary-missions/
SpaceNews
China advances plans for dual solar system boundary missions
China advances plans for dual solar system boundary missions China has published coordinated papers outlining dual missions to the solar system’s edge, suggesting the long-studied project is nearing formal approval.
🤔1
Вновь чувствую, что скоро родится в сознании нечто новое. В этот раз, в литературу не пущу.
Это состояние сознания уйдет на философский текст.
Суток пять обдумываю предметно. Все тезисы уже вижу. Но их очень много. Надо выстроить часть из них в рамках цели текста.
Надеюсь завтра утром.
Основная проблема на этот момент:
текстом не слишком опередить время.
Это состояние сознания уйдет на философский текст.
Суток пять обдумываю предметно. Все тезисы уже вижу. Но их очень много. Надо выстроить часть из них в рамках цели текста.
Надеюсь завтра утром.
Основная проблема на этот момент:
текстом не слишком опередить время.
🔥9😁3