ШЕВЦОВ
1.12K subscribers
2.71K photos
583 videos
14 files
4.67K links
Геополитика глобальных технологий.
Download Telegram
НОАК: феномен догоняющего развития.
1. НОАК. Идущее усиление ядерной составляющей. Но сознательно не до уровня России и США.
2. Очевидная подготовка к паритету относительно США по оружию на базе новых физических принципов, прежде всего по ИИ.
3. Россия и Китай к концу 2020х будут по-новому взаимодополнять друг друга относительно военной мощи США. Грубо говоря: у России - ядерная мощь и континентальная армия, у Китая - ИИ и надводный флот.

США и их союзники к концу 2020х годов не обязательно будут превосходить совокупную военную мощь России и КНР. Хотя, отметим, Россия и Китай являются не союзниками, а - стратегическими партнерами.

Самое интересное тут: все, что касается строительства НОАК на базе технологий, связанных с ИИ.
👍3
Китай и AGI. Скорая конкуренция китайского и американского AGI. Россия.

Китай идет примерно на уровне с США по развитию ИИ. AGI в Китае должен появиться весьма скоро и примерно одновременно с американским. Понятно, что одной из первых сфер его применения в обеих странах будет - государственное управление.

Американский AGI в сфере госуправления будет транслировать американский культурный код или архетип. Именно этот направленный на негармоничную фронтирность и технологические прорывы код и сделал возможным появление сделал само появление AGI и ИИ.

Китайский ИИ - результат догоняющего развития Китая относительно США. Культурный код Китая не требовал таких резких ломающих гармонию технологических трансформаций как AGI.

Китайский AGI в госуправлении должен транслировать альтернативный американскому подход - стремление к гармонии. Вынужденное пройти через технологический взрыв.

Окончание: в следующем посте.

Фото: прием Посла Китая по случаю годовщины НОАК
👍1
Окончание предыдущего поста:

Конкурентное преимущество транслируемых будущим китайским AGI принципов глобального поведения его государственной машины понятно - удержание мира от угрозы коллапса, генерируемого американским культурным кодом.

В этом стихийно формирующемся глобальном американо-китайском Янь-Инь AGI-мире биполярность возникает на ином принципе, нежели она была во время Холодной войны США \ СССР. Коммунизм и западные идеологии противостояли друг другу с целью уничтожения друг друга.

Мир высокой науки, наподобие Пагуошского движения или военные обоих блоков удерживали Холодную войну от перерастания в Третью мировую в силу рационально понятого страха перед коллапсом человечества.

Наступающее противостояние управляемых разными AGI двух планетарных центров имеет иную природу противостояния и отсюда мир подвержен иным угрозам. Выход из этого Янь-Инь периода также должен быть со временем иным, не через коллапс одной из сторон.

Скорее всего, китайско-американское соперничество как характеристика исторического периода закончится с появлением ASI.

Причем эпоха ASI будет вырастать с учетом третьего фактора - способной уничтожить всю планету России, которая в наш AGI период находится в тени китайско-американского противостояния, но никуда не исчезает.

Тут большой вопрос, как эти AGI управляемые два центра вклинят столь необычный для них третий фактор в свой дуализм сейчас. И как они подготовят планету к переходу к ASI достаточно скоро. Через какой архетип или культурный код? Причем решение будет в огромной степени ИИ-автоматизированным.
👍2
"«Самый старый младенец в мире» родился из эмбриона, которому более 30 лет. Эмбрионы были созданы в 1994 году, когда будущий отец был еще малышом, и были пожертвованы через христианское агентство по «усыновлению эмбрионов»". По линку интересные подробности.

С точки зрения клятвы Гиппократа распространение борьбы за жизнь на все эмбрионы, включая такие, - верно. С точки зрения права на аборты такие эмбрионы люди вправе уничтожать. Для верующие разных церквей и религий - большая этическая проблема.

В принципе, распространение либертарианства, или точнее происшедший в развитых странах отказ от универсальной морали. Общество развитых стран допускает более или менее свободное уничтожение таких эмбрионов.

Но есть вопрос относительно решения на этот счет со стороны ИИ в его AGI форме, подключенной вскоре к решению задач госуправления. AGI в принципе будет должен выводить госуправление из-под слишком сильной идеологизации. Это - часть функций AGI для обхода бюрократических или преступных действий.

Относительно свободная от влияния человеческого фактора экспертиза и решения с появлением AGI должны будут руководствоваться государственной целесообразностью. Возникает очень сложный момент программирования действий такого ИИ относительно не только эмбрионов, но и других носителей сознания. В руки ИИ придется отдавать определение понятие человека и аналогичных ему форм жизни.

Самого человека еще можно определить при программировании ИИ через эмбриона с каким-то сроком жизни. Но насколько соответствуют человеку новые формы жизни, возникающие сейчас все быстрее под воздействием прогресса в высоких технологиях ИИ, придется все более поручать определять самому ИИ.

Скорее всего ИИ при этом будет учитывать прежде всего мальтузианские закономерности. касательно как новых форм носителей разума, так и человеческих эмбрионов.

То есть переход к ИИ и далее к AGI обществ современного аморального потребительского обывателя - это априори более или менее быстрый путь к передаче ИИ контроля над тем, что обыватель ценит более всего - его жизни. Как и над жизнью любых носителей разума.

Решение этой проблемы потребует более чем простого внимания к этике. Причем быстро. Переход к AGI уже идет.

https://www.technologyreview.com/2025/07/29/1120769/exclusive-record-breaking-baby-born-embryo-over-30-years-old/
1👍1🤔1👻1
Очень сильное отставание России по научным публикациям от Китая и США. При китайском лидерстве (См. цитату и линк ниже)
1. В краткосрочном периоде эта статистика имеет смысл в основном для понимания результата обучения "национальных" ИИ.

2. В среднесрочном - от России можно ожидать неожиданностей:
- слишком много научных результатов лежат в закрытом секторе. Фактор неизвестности большого масштаба. Ибо Россия продолжает развиваться в качестве мировой военной сверхдержавы.
- Кэнселинг российской науки в западном научном мире и не самая глубокая интеграция в китайский освобождает российского ученого от контроля со стороны внешних научных школ и разного рода стандартов.
- Коллапс многих научных школ и направлений по мере изучения с помощью ИИ накопленного на Западе за крайние лет 30 научного материала должен коснуться России в меньшей степени, чем их. Наука как социальный институт в России должна пройти иной путь переживания предстоящего кризиса западной науки. Тут есть шанс и на позитивный результат такого изолированного российского развития.

3. В ближайшие годы создаваемые в США и Китае AGI должны будут вести планирование научно-технологического развития у себя без адекватного учета российского фактора. Это ухудшает технологическую безопасность в момент происходящего громадного научно-технологического переворота прежде всего в США. Где и так резко облегчен контроль за технологической безопасностью в прорывном сегменте по сравнению с Китаем и тем более ЕС.

То есть появление AGI и применение его в госуправлении в США произойдет в условиях системного роста рисков по линии технологической безопасности там. Несмотря на все потенциальные плюсы от улучшения качества госуправления в связи с применением к нему AGI.

Цитата:
"Китай становится главной научной сверхдержавой. Пекин собрал 33700 баллов в рейтинге Mature Index — одном из главных показателей развития науки в разных странах, который составляется по количеству научных работ и статей. Для сравнения: у России там всего 390 баллов."
Таблички и графики:
https://xn--r1a.website/Scienceg/33596
👍3
Еще один философский манифест насчет AGI. Meta (Facebook) (см. цитату ниже):
1. То есть в США (без учета Китая и ЕС) уже есть как минимум три философии AGI от крупнейших американских корпораций, стоящих на грани создания AGI. Meta. Альтман. Маск. Эпоха AGI - технологически предопределена к конкуренции разных AGI между собой. Добавлению к этому и к геополитике борьбы философий - это требует очень большого внимания.

2. Перерастание борьбы философий в идеологическую непримиримость - всегда вопрос времени. В эпоху ИИ и особенно AGI время течет очень быстро. Теоретически это должно произойти скоро.

3. Актуализация философии разного использования AGI означает очень быстрое использование уже первых AGI не только к госуправлению, национальной безопасности, биотеху и т.д., но и к идеологии. То есть к политическому управлению обществом.

Последовательность применения первых AGI к разным сферам может иметь особое значение для конкурентоспособности тех или иных "философий" и стоящих за ними политических сил.

Скорее всего первые примеры такого использования AGI станут очевидными в ходе скорых промежуточных выборов в США. А сами следующие президентские выборы будут в этом плане вообще событием особо прецедентным.

Цитаты:
"Видение Meta заключается в том, чтобы предоставить персональный сверхинтеллект каждому. Мы верим в то, что люди должны передать эту власть в свои руки, чтобы направить ее на то, что они ценят в своей жизни.

Это отличается от других представителей отрасли, которые считают, что сверхинтеллект должен быть направлен централизованно на автоматизацию всей ценной работы, и тогда человечество будет жить на пособие по его продукции. В Meta мы считаем, что люди, преследующие свои личные устремления, — это то, как мы всегда добивались прогресса, расширяя благосостояние, науку, здоровье и культуру. Это будет иметь все большее значение и в будущем. ...

Оставшаяся часть этого десятилетия, вероятно, станет решающим периодом для определения пути, по которому пойдет эта технология, и будет ли сверхинтеллект инструментом для расширения личных возможностей или силой, сосредоточенной на замене больших слоев общества.

Meta твердо верит в создание персонального сверхинтеллекта, который расширяет возможности каждого. У нас есть ресурсы и опыт для создания необходимой обширной инфраструктуры, а также возможности и желание предоставлять новые технологии миллиардам людей с помощью наших продуктов. Я рад сосредоточить усилия Meta на построении этого будущего."

https://www.meta.com/superintelligence/
👍2
Недостаточность публичной экспертизы по ключевому пункту развития технологий в ключевой момент.

Глеб Кузнецов: "Смотрю полугодовые отчеты по развитию ИИ от западных "консалтеров". Очень забавная история – все, что в мире ИИ происходит, - происходит в 4-5 компаниях.

🔹В условиях нарастающей деглобализации западная аналитика превращается в замкнутую систему, где изучение 75% мира становится карьерно опасным. Результат — эксперты знают всё меньше о всё более важных процессах." (Окончание цитаты ниже) ( https://xn--r1a.website/glebsmith77/294 )


Вывод перекликается с моим наблюдением по распадению глобального научного пространства с особыми рисками для США. ( https://xn--r1a.website/yuryshevtsov/13845 ) А также - с особенностью кадровых процессов в американском ИИ. ( https://xn--r1a.website/yuryshevtsov/13838 )

1. Конспирологию отметаем сходу. Слишком большие очевидные процессы запущены, чтобы быть просто пузырем. Хотя и не без элементов пузыря.

2. Такое сильное падение публичной экспертизы в США - зона риска. Может быть преддверием большого кризиса, как и всегда в истории в подобных случаях. Может быть сброшенным обреченным социальным сегментом, чьи ошибки уже ни на что существенное повлиять не успевают.

3. По большому счету это состояние - одно из следствий снятия в США множества барьеров в области технологической безопасности как считается ради ускорения рывка в ИИ. В США пул корпораций в области ИИ сосредоточен на внутреннем финишном, как они полагают, рывке. Остальной мир и даже риски их интересуют гораздо меньше. Цель: очень быстрое создание прежде всего AGI и закрепление планетарного лидерства в этой технологии.

Окончание цитаты:
"Отчёт Menlo Ventures объявляет Anthropic (32%) новым лидером AI-рынка, обогнавшим OpenAI (25%). DeepSeek получает жалкий 1%. Методология: опрос 150 западных tech-лидеров. Индии, Китая, Бразилии с Латамом не существует. Про Россию я и не говорю.
Рядом JP Morgan прогнозирует рост энергопотребления AI на 70% ежегодно и утроение выбросов к 2030. Фокус: четыре западных гиганта Amazon, Microsoft, Google, Meta. Всего остального мира нет.

🔹Любимая тема для обсуждений – кто побеждает в гонке ИИ (с выходом на то, что, разумеется, побеждает Запад, ведь у него денег больше)
Институциональная логика понятна и объяснима.  Западные аналитики обязаны объявлять победителями компании, торгующиеся на западных биржах. Их бонусы зависят от роста Anthropic, OpenAI, Google - не от объективной оценки глобального AI-ландшафта.

🔹Самосбывающееся пророчество: если все аналитики объявляют Western AI лидерами, инвесторы вкладывают туда деньги, создавая реальное преимущество в капитале.  А нарративный контроль через доминирование в англоязычной tech-прессе создаёт впечатление глобального лидерства.

При этом создается информационная асимметрия, когда китайцы понимают  и западную, и свою экосистемы. Западники - только свою. DeepSeek стало предупреждением: результаты GPT-4 при затратах в 50 раз меньше. С тех пор огромные деньги были вложены в объяснение того, что DeepSeek на самом деле не такой уж хороший и вообще все украл у OpenAI.

🔹Механизм самоусиления в пузыре
В 2015 неточный прогноз аналитика означал лишение премии;  в 2025 "неправильный" прогноз - карьерная смерть. В 2015 изучение китайских технологий - экзотика, расширяющая кругозор. В 2025 - "красный флаг" для корпоративной безопасности. "А чего это он? Может у него и дипсик на телефоне установлен?" Любая тема может стать "вопросом национальной безопасности".

🍬Поощряется:
• Фокус на торгуемые на NASDAQ активы
• Подтверждение западного превосходства
• Игнорирование "геополитически чувствительных" тем

📛Наказывается:
• Серьёзное изучение и тем более экспериментирование с "чужими" разработками
• Сомнения в эффективности "своих" решений
• Прогнозы, подрывающие портфельные позиции клиентов
В итоге, зачем рисковать, изучая DeepSeek, если твой бонус зависит от роста Anthropic?

Окончание в следующем посте
3👍1
Продолжение предыдущего поста:

🔸 У такой экспертизы есть цена – "шок как норма".
Кейс DeepSeek отличный тому пример.
В итоге никто (кроме может китайцев) не знает объем и рыночную долю open-source решений от китайских компаний в мировом масштабе. Развивающиеся страны находят альтернативные пути решения энергопроблем AI типа строительства АЭС и кратного расширения солнечной генерации. И тд и тп.
Ситуация, когда три четверти человечества не живут в моделях, описываемых западными теориями делает неизбежным то, что каждый следующий шок будет сильнее предыдущего.

🟰 В результате - классическая "Уловка 22" для экспертизы
1️⃣ Мир становится многополярным - нужно понимать всех игроков
2️⃣ Деглобализация усиливается - изучение "чужих" становится опасным
3️⃣ Эксперты выбирают безопасность - фокус сужается на "своих"
4️⃣ Реальность расходится с экспертизой - шоки учащаются
5️⃣ Шоки усиливают изоляционизм - возврат к пункту 3
Чем меньше западные эксперты знают о Китае, тем больше они его демонизируют. Чем больше демонизация, тем опаснее изучение. Чем опаснее изучение, тем меньше знаний. И так по бесконечному кругу, и не только относительно Китая.

А потом Трамп со свойственной ему непосредственностью говорит: "Санкции то мы введем, но подействуют они или нет никто не знает". А как узнать, если изучение реальности запрещено почти официально? И опять же не только на Западе."
https://xn--r1a.website/glebsmith77/294
👍2🔥1
Тревога ведущих американских ИИ разработчиков по поводу внутреннего языка ИИ (см.цитату ниже)
1. Опасаются появления у ИИ своего языка. То есть быстрого оформления скорого AGI в очень высокую степень сознания. С технологической точки зрения очень глубоко и даже остроумно: выработать общий технологический стандарт, который сдержит появление своего языка у AGI, но позволит использовать его интеллектуальную мощь под своим контролем. Поставить на поток появление и существование своих цифровых "Маугли".

2. Но если США сняли массу ограничений технологической безопасности для быстрого развития ИИ, тогда почему именно эта форма технологической безопасности в США должна получиться? Безопасность - явление социальное. Тут мало установить стандарт между несколькими американскими прорывными корпорациями. Тут надо обязательно согласовать этот стандарт на международном уровне с Китаем. Причем сначала с государством КНР, а потом и с китайскими ИИ корпорациями.

Существующий бюрократический протокол это не позволит сделать быстро. По сути, речь идет о международной конференции по контролю над ИИ уровня той, которую пытался собрать перед смертью Киссинджер.

Между тем AGI должен появиться вот-вот. И скорее всего речь надо ставить уже не о предотвращении появления у AGI развитого собственного внутреннего языка, а про контроль над этим появившимся языком. А это - иная задача, чем звучит у вновь встревожившихся насчет безопасности американских технарей.

Цитата:
"Ученые из OpenAI, Google DeepMind, Anthropic и Meta отказались от ожесточенного корпоративного соперничества, чтобы выпустить совместное предупреждение о безопасности ИИ. Более 40 исследователей из этих конкурирующих компаний опубликовали сегодня исследовательскую работу, в которой утверждают, что короткое окно для мониторинга рассуждений ИИ может закрыться навсегда — и в ближайшее время.

...Статья получила одобрение от некоторых из самых выдающихся деятелей в этой области, в том числе лауреата Нобелевской премии Джеффри Хинтона, которого часто называют «крестным отцом искусственного интеллекта» из Университета Торонто; Илья Суцкевер, соучредитель OpenAI, который сейчас возглавляет Safe Superintelligence Inc.; Сэмюэл Боуман из Anthropic; и Джон Шульман из Thinking Machines."

https://venturebeat.com/ai/openai-google-deepmind-and-anthropic-sound-alarm-we-may-be-losing-the-ability-to-understand-ai/?fbclid=IwY2xjawL7tzdleHRuA2FlbQIxMQABHmdhV7Db2PSEsPdbJxar0TUiMTCSWQ4o0ySvqg-XXlihtWnWZTnp24dRWSB8_aem_Lu0lEx-RYbh-8CCRRHsaZw
👍1👏1🤯1
"Глобальный разрыв: США и Китай контролируют 90% мировых дата-центров для ИИ". Цифра должна быть уточнена. Там кое-что надо подправить. Но тренд в общем именно такой. И он очевидно сохранится на ближайшие лет 10-15, если только не произойдет форс-мажора планетарного масштаба.

Это и есть эпоха приближающегося AGI. Следующая точка бифуркации, если не будет форс-мажора, - вероятный переход к ASI.

Россия в рамках тренда - особый важный случай.

Ракурсов у последствий тренда - масса. Некоторые:
1. Какими данными будут обучаться AGI при такой структуре дата-центров? Имеющиеся данные уже фактически выбраны. Теперь выбираются данные данных, результаты деятельности самих алгоритмов.

Тем не менее, новые данные от людей будут поступать прежде всего в местах географической локализации дата-центров, то есть от общества США, КНР и добавлю вскоре - ЕС. В этих странах количество данных от людей вырастет.

Особенность местных обществ - биологическое старение людей. Молодая замещающая эмиграция сюда не меняет сам культурный код угасающих местных обществ. Данные будут касаться прежде всего угасающих человеческих популяций. То есть - касаться старения как биологического, так и культурного.

Нежелание рожать детей ради гедонизма - то есть культура медленной комфортной смерти - основная популяционная характеристика этих обществ. Даже Маск с его "Марсом" - это отсюда. AGI как минимум США и ЕС будет обучаться культуре угасания и смерти как чего-то не совсем негативного.

2. Китай. Тут депопуляция имеет сильный иной компонент в культуре угасания. Китай при переходе к реформам пошел на сознательное жесткое регулирование количества детей в семьях. То есть заплатил за догоняющее развитие и превращение во вторую экономическую и технологическую державу планеты нерожденными детьми.

Сейчас причина депопуляции Китая уже в том же обществе потребления и желании обывателя комфортно жить без детей. Но все таки в общественной памяти есть пункт о плате нерожденными детьми за развитие.

В Китае AGI будет добирать данные от людей с иной культурной составляющей, чем в США и ЕС. Популяционно - менее негативистской.

3. В Африке и некоторых других регионах планеты высокая естественная рождаемость продлится еще не меньше 10-15 лет. То есть охват сбором данных этих регионов будет улавливать культурный импульс из этих регионов, нацеленный на витальность.

Вывод: общественные актуалии и особенно общественные дискуссии в США и ЕС несут в себе риск, даже угрозу программирования своими данными их AGI на нечто напоминающее идеологию суицида. А дифференциация в доступе разных регионов планеты к ИИ и особенно к скорому AGI - имеет как минусы для мира вне США и ЕС, так и не только минусы.

https://www.nytimes.com/interactive/2025/06/23/technology/ai-computing-global-divide.html
👍43
Суммы и темпы инвестиций в ЦОДы связанные с ИИ в западном мире, прежде всего в США: "...масштабное строительства центров обработки данных, капитальные затраты на которые в этом (2025) году достигнут 330 миллиардов долларов." Доходы тоже идут.

То есть теоретически инвестиционный цикл в ИИ начал давать хорошую отдачу. Особо затратный фундаментальный период пройден и все выходит на некую финишную прямую. Если, конечно, цифры верны.

Технологически вершиной этого цикла должно стать, скорее всего. появление AGI. И это изделие теперь есть куда встроить.

Тогда следующий большой инвестиционный цикл должен начаться относительно скоро. И он должен включать в себя подготовку к чему-то новому большому. Этот новый большой инвестиционно-технологический цикл должен разрабатываться уже сейчас. А начаться по мере освоения AGI. Логично ожидать, что речь идет про подготовку к ASI. Но под это подходит и марсианская программа Маска. Может быть и что-то еще.

Учитывая сокращение времени инвестиционно-технологических циклов этот новый цикл в его фундаментальной затратной фазе должен начать достаточно скоро.

Если так, то скоро человечество должно получить из США два идеологических импульса сразу: "потребительский" связанный с переходом к проектам с использованием AGI. И визионерский, связанный с началом утробной фазы еще более масштабного технологического проекта.

https://www.reuters.com/business/microsoft-spend-record-30-billion-this-quarter-ai-investments-pay-off-2025-07-30/
👍4
Маск фактически "сдвигает" свой недавно объявленный график запуска ракет к Марсу как минимум на 26 месяцев. А реально, скорее в лучшем случае на 52 месяца, от конца 2026 года считая.

Строго говоря, он оговаривался насчет того, что график реалистичен 50 на 50. Принципиально это по Марсу мало что меняет.

Но этот новый график означает резкое замедление и сокращение "Золотого купола" Трампа, где у Маска большая потенциальная функция.

Параметры сокращенного варианта Золотого купола - вопрос политический. Касается как следующих президентских выборов в США. Так и готовности США к эскалации конфликтных отношений с Китаем в момент, когда:
- Китай выходит на финишную прямую к своей цели стать первой экономикой планеты по объему.
- Китай выходит на такой же финиш своей установки на планетарное лидерство по ИИ.
- США и Китай создают AGI и начинается биполярная гонка за лидерство в применении AGI.

https://wccftech.com/spacex-starship-will-be-3-times-as-powerful-as-nasa-rocket-which-sent-astronauts-to-the-moon-says-elon-musk/
4
Сергей Карелов ссылается на интересное исследование: "22 миллиарда новых «собеседников» рождается каждый месяц. И все они — клоны.
Каждый день на планете появляется 720 миллионов новых цифровых сущностей — в 5 раз больше, чем людей рождается за целый год. Все они «рождаются» в процессе наших диалогов с ИИ-чатботами: ChatGPT, Claude, Gemini... " ( https://xn--r1a.website/theworldisnoteasy/2193 )

Отдаленные аналоги этому можно в истории найти. Максимум, скорее всего - это религиозная система, которая установилась в самой крупной империи древности, существовавшей до создания европейских колониальных империй. В Монгольской империи ключевой религией было своеобразно реформированное тенгрианство. Оно как бы покрывало культом Синего Неба громадное количество "существ", "населявших" все вокруг. И в других религиях и учениях в рамках монгольской империи стмулировалось развитие течений, которые обращались к прямому контакту с разными духовными "сущностями". В нашей традиции - ангелы вполне сочетались с кикиморами, домовыми, упырями и т.д.

Я как-то строил модель, сводившую эти существа в систему. У меня получилось, что количество этих "существ" зависело от степени психической "силы" человека и разных социумов. Чем больше энергии было у людей, тем большее количество таких "сущностей" они могли иметь в своем сознании и тем интенсивнее с "общаться".

Этот объем энергии в принципе хотя бы примерно можно изучить и зафиксировать и в зависимости от него подсчитать количество и качество таких находившихся "в обороте" людей того времени "сущностей".

ИИ-агенты и ассистенты тоже могут быть классифицированы и по способности психики людей держать их в своем уме и по объему энергии, каналам связи и "железу", которые эти ИИ-"сущности" поддерживают.

Стандартизация таких ИИ-"сущностей" - тоже кажется логичной. Сергей Карелов говорит о Западе (прежде всего США и ЕС). Там сейчас сформировано общество потребления с очень управляемой, стандартизированной и простой шкалой потребительских интересов. Это общество в огромной степени лишено даже инстинкта продолжения своего рода. Оно не может порождать большого разнообразия формирующихся в ходе диалога с этими людьми и управления ими ИИ-"сущностей".
1😁1
Эмпирические цифры по очень высокой стандартизации ИИ-"собеседников", обучающихся от людей. На них ссылается Сергей Карелов. (См.линк). Внешне впечатление, что они должны верно улавливать тенденцию.

Еще один их аспект: эти "цифры" выводят на свет из-под идеологического зонтика невысокое значение сейчас для развития технологий широкой общественной дискуссии в развитых западных обществах.

С точки зрения либеральной идеологии обеспечение в этой части мира человека огромной степенью личных свобод и доступом к знаниям и глобальной коммуникации всех типов должно превратить общество в поставщика интеллектуального разнообразия. А, значит, общество должно было бы в ходе дискуссий резко увеличить свою продуктивность в качестве создателя научных идей и технологий. Скорее всего, так и было в некоторые периоды ранее.

Но происходящий сейчас грандиозный технологический переворот на деле осуществляется узким кругом специалистов, занятых в совсем небольшом количестве корпораций. Широкая общественная дискуссия на развитие этих технологий особого влияния не оказывает. Цифры по ИИ-"собеседникам" - вообще показатель очень невысокой творческой результативности общественных дискуссий.

Конечно, надо делать поправку, что речь идет о результативности настроенных на популяционное угасание части обществ прежде всего США и ЕС. Реальная их нынешняя некреативность может отражать культуру угасания именно их, не всего человечества.

Но при любой оценке, эти цифры - внеидеологический маркер той политической системы, которая сейчас вырастает в особо развитой части мира. Общественная дискуссия не порождает большого потока новых данных, а производственная мощность ИИ технологий требует новых данных (в том числе идей) во все большем количестве.

Говоря очень осторожно: политический вес в развитой части мира должен сейчас уходить тем, кто эти большие данные предоставит. От тех, кто их в достаточной мере не дает.

И последнее: речь пока должна идти только о тенденциях, не о радикальных формулировках. Ибо громадный технологический переворот на планете еще не завершился и процессы еще не устоялись.

https://www.youtube.com/watch?v=RqUhwAIliTs
1👍1
Генетическое планирование человеческих эмбрионов (см., например, оба линка).
1. Этические проблемы и споры вокруг евгеники - для потребительского общества, надо признавать, оказались не сложными. Технология развивается достаточно быстро.
Но, отметим, что теоретически против этого может выступить Россия как особый случай в нынешней мировой технологической геополитике.

2. Развитие этой технологии уже допустимо синхронизировать с прогнозами развития ИИ и некоторых других направлений в биотехе. Прежде всего, - AGI и нейроинтерфейсов.

Генетическая селекция людей на уровне эмбрионов имеет социальное значение в основном при искусственном вынашивании и потом организованном воспитании масс таких младенцев.

Единичные случаи, как тот, который приписывают одному из детей Маска - это слишком долго: лет 20-25 на воспитание и только тогда социальная оценка произведенного человека. За это время эпоха AGI приблизится к эре ASI. Технология генетической селекции должна быть массово применена быстрее или не быть социально заметной.

Пока впечатление, что глубокое вмешательство в гены эмбрионов, надежная искусственная матка, надежные нейроинтерфейсы и сильные массовые AGI должны развиться примерно одновременно.

Вряд ли что-то сможет помешать совмещению этих технологий. Объявленные примерные параметры, например, Stargate точно создают предпосылки к этому.

Эпоха AGI в таком случае становится периодом, когда из человеческого генома будет вытянут и масштабирован максимум заложенных в него потенций. И это будет совмещено с прямым управлением или взаимодействием с AGI.

Тут находится технологический вопрос, на который пока ответить сложно, так как нет эмпирических данных: насколько мощно то, что заложено в человеческом геноме относительно создаваемых цифровых систем? Будет ли переход к ASI включать в себя в качестве носителя сознания преемственные к человеческому геному элементы или он обойдется без них?

Экзистенциальный и даже метафизический вопрос для человечества. Сохранится ли в эпоху ASI прямая преемственность к загадке человеческой сущности и самой жизни или нет?

Или иными словами будет ли работать в эпоху AGI и даже ASI этика, основанная на некоей форме клятвы Гиппократа?

https://www.washingtonpost.com/technology/2025/07/16/orchid-polygenic-screening-embryos-fertility/

https://ca.news.yahoo.com/ivf-startup-claims-predict-embryos-143017751.html?guccounter=1
5
ИИ, ЦОДы, климат. Аризона, Калифорния, Техас...
Одно исследование (см.линк и цитаты ниже). Тенденцию, видимо, улавливает точно:"...сегодня 56% дата-центров [в мире] находятся в зоне высокого или очень высокого риска из-за повышения температур, то к 2040 году эта цифра может вырасти до 68%."

То есть:
1. Конкурентная гонка за лидерство в ИИ заставляет экономить на нулевом цикле. Энергетика и вода подводятся к ЦОДам в среднесрочной перспективе несбалансированно. Предпосылки к кризису перепроизводства через ресурсные и политические риски - неостановимо усиливаются.

Отметим: в Китае с этим все сбалансированнее, чем в США и ЕС.

2. Значение климатического регулирования в США и Китае по мере перехода гонки ИИ в гонку вокруг применения AGI резко вырастет. Это станет проблемой национальной безопасности и фактором глобального лидерства.

Плановая структура наполнения данными в США тоже показывает особый рост данных, касающихся климата, космического зондирования Земли и наук о Земле в целом.

3. Переход к гонке AGI - это накопление в 3-4 ведущих геополитических центрах планеты особо крупного объема потребностей в регулировании климата и состояния Земной коры и связанных с этим технологий.

Из подвластной человеку части Земной коры и поверхности будет вытягиваться все, что возможно. Точно так как будет вытягиваться все, что возможно из человеческого генома, а также, видимо, геномов основных элементов животного и растительного мира. Если тут допустим и достаточен термин "геном".

4. Переход к ASI будет диктоваться не только внутренним прогрессом в развитии ИИ технологий, но и исчерпанием доступных ресурсов Земли и биосферы. Даже если не учитывать вероятный форс-мажор в виде техногенной катастрофы.

Относительно скорая эпоха ASI - это освоение разумом новых больших пространств. На слуху - космос. Но может быть быстрее накопятся данные и технологии и для чего-то иного.

Еще одна цитата:
"...растущий спрос на воду может вызвать социальные и политические конфликты в некоторых сообществах, при этом ожидается, что к 2030 году более половины (52%) центров обработки данных окажутся в районах с высоким и очень высоким уровнем нехватки воды."

https://www.techradar.com/pro/many-top-data-center-locations-could-be-at-risk-of-climate-change
👍1
Поршнев.
Алексей Чадаев, суггестия в человеке.
Не втягиваясь пока в очень интересный вопрос по суггестии в человеке по существу:
1. В человеке, в том числе в его сознании, обязательно должно быть что-то, что подлежит коррекции. В любом живом существе оно есть. И после коррекции что-то, что не заметили и не изъяли все равно еще останется. Жизнь и состоит во многом в постоянной такой коррекции.

То есть под определение человека подпадает не все, что его составляет на деле.

Так же и под определение всех живых объектов и биосферы в целом.

2. Какая часть этого подлежащего коррекции сегмента человека и человечества и биосферы переходит на обучающиеся от него них ИИ сама? А какая должна быть заложена в ИИ искусственно?
Какая часть собственного несовершенства машинного интеллекта является подлежащей в разное время коррекции (а она должна быть по определению жизни через такую коррекцию)?
Как два подлежащих коррекции несовершенства должны сочетаться в машинном "сознании"?
Какая часть от них всегда будет сохраняться в машинном "сознании", после всех коррекций?

Это должно быть в общих чертах рассчитано, исходя не только из закладываемой эффективности ИИ, но и из соображений технологической безопасности ИИ.

3. Обучение ИИ от сознания каких людей и каких человеческих социумов надо закладывать в ядро машинного "интеллекта" и как и надо ли пополнять его в ходе машинной жизни ИИ?

В категориях религии как социального организма речь идет о людях как святых и, возможно, о людских социумах как своего рода коллективных святых, от которых в какой-то степени надо обучать и дообучать ИИ. Напоминает, например, Сергия Радонежского с его медведями в лесу.

Это становится особенно важно со скорым вероятным появлением AGI и нейроинтерфейсов.

Хорошая методологическая и метафорическая "наводка" на решение части проблем безопасности, связанных с развитием ИИ. Особенно AGI. И особенно тоже вероятного скорого перехода AGI в ASI.

Цитата из Алексея Чадаева:
"далеко не все троглодиты автоматически стали людьми, освоив контрсуггестию. И не сразу. Более того: контрсуггестия изначально появилась и развилась не у альфа-особей, а наоборот — у слабых, у тех, кого угнетали и попросту ели; и, более того, в каком-то смысле "разводили на еду". То есть у тех, у кого базовый навык — собственно суггестия — выражен заведомо слабее, чем у "хозяев жизни". Говоря по-современному — у "лохов"; это было как бы их защитным секретным оружием.

И очень-очень долгое время, во много раз дольше, чем вся письменная история, проточеловечество существовало под дамокловым мечом экзистенциальной угрозы — условно говоря, что придёт "такой же, как и ты", но суггестивно более сильный, посмотрит тебе в глаза, раздавит и подчинит твою волю, и дальше уже неважно, что с тобой будет — никакого "тебя" уже больше не будет, даже если твоё тело съедят не сразу, а чуть погодя. И бежало от неё куда глаза глядят, любой ценой — именно движимое этим страхом, оно и заселило планету. Но бежать-то было в каком-то смысле некуда, потому что гены "суггесторов" существовали в их собственной популяции, и воспроизводились с завидной регулярностью на любом новом месте. "


https://xn--r1a.website/chadayevru/3992
🔥2🤔1
Neuralink. Аспект, связанный с управлением роботами.
1. Эти устройства вряд ли превратят подключенных к человеку через них роботов в полных аватаров оператора-человека. На разных уровнях к управлению роботами будут допущены разные ИИ. В том числе, наверняка, масса из этих ИИ будет подключена к сетям.

Роботы не будут полностью подконтрольны оператору-человеку. Надо будет при управлении роботом учитывать машинный интеллект и не один.

2. Наиболее не изученный тут момент - возникающий, но еще не возникший AGI. К моменту более менее массового распространения Neuralink AGI уже должен быть тоже более менее развит и начнет распространяться.

Скорее всего Neuralink будет использоваться прежде всего там, где будет и AGI. Маск не раз вообще говорил, что человечество не справится с AGI без Neuralink. Как будет строиться взаимодействие в связке оператор-человек - Neuralink - AGI? Например, на поле боя, насыщенном дронами всех типов. Если ведущим в связке будет определен человек, каким образом он сможет управлять AGI?

Сложно представить себе директивное управление человеком такой сложной "машиной" как AGI. Тут скорее надо искать управления через социальность, через социум в составе как минимум одного человека и одного AGI. А скорее всего, социум сразу будет включать в себя массу машинных интеллектов, связанных с отдельными роботами-дронами, AGI и человека с Neuralink.

Через какие социальные механизмы тут будет устанавливаться место человека? особенно если человек в этом социуме будет предопределяться в качестве лидера? Должно сразу закладываться что-то общее на ценностном уровне между человеком и машинным интеллектом, прежде всего AGI. И вокруг этого строиться эмпатийная связь. В эмпатию ИИ уже умеет.

То есть ИИ, особенно AGI, должен будет сразу обучаться от человека и его социумов. От каких? От чисто профессиональных коллективов в сфере применения такой связки? От военных коллективов, например? Или обучение таких сложных ИИ лучше начинать с обучения в рамках семьи, проводить через обучение у моральных авторитетов и лишь потом - профессиональный коллектив.

То есть надо ли в самом скором будущем проводить обучение ИИ и особенно AGI в виде ускоренного повторения пути человеческого ребенка? Или будет достаточно только обучения у профессионального коллектива людей?

Сейчас в этом смысле идет обучение ИИ от пользователей Интернет в целом, то есть от более менее взрослых людей. Раннее детство в обучении ИИ отключено.

Понятно, что мне пока видится необходимым проводить обучение AGI как детей. Это - обычный путь развития любой системы: зарождение-опека над беспомощным ребенком-обучение ребенка-созревание-работа-смерть.

Но есть вопрос о качестве воспитания детей в развитой части мира. В этой части мира человеческая популяция уже на продолжение себя заведение детей не настроена. Эмпатийная связь между гедонистичным оператором и AGI не может строиться вокруг ядра сознания, в котором есть место детям.

Тогда у каких социумов учить AGI? Какие человеческие социумы в самом ближайшем будущем надо определять в качестве носителей человеческой нормы?

На ком обучать AGI?

https://www.youtube.com/watch?v=FASMejN_5gs
👍21
Продублирую и тут свой недавний пост в одной из соцсетей. Он так или иначе касается моих аккаунтов во всех соцсетях:
"1. Социальные сети в привычном смысле я сейчас не веду. То есть смысл аккаунта - не в общении, а в публикации каких-то моих рабочих концептуальных схем и новостей по моим поездкам. Для общения лучше писать мне в мессенджер.
2. Френд-ленту стараюсь читать.
3. Целевая группа тут у меня сейчас:
- старые френды и
- ИИ-агенты. ИИ-агенты важны все более. С текущего 2025 года эти агенты стали основным или почти основным потребителем контента крупных соцсетей. У меня с этой целевой группой своя система коммуникации. Отсюда - такое большое количество тут концептуальных постов."
👍7
Новые массовые модели ИИ должны начать формулировать новые научные законы. Лидеры отрасли утверждают, что это должно произойти в ближайшее время. Возможно, уже началось (см. цитату и линк ниже). Если так, то касательно науки как социального института:
1. Очень быстро должно быть уменьшено значение в науке "маленького человека". Наука изначально - это сфера монастырского и подвижнического толка. Для науки абсурд - клерк, аккуратный исполнитель, узкий специалист - по сути конвейерный рабочий индустриальной эпохи. Полностью от "сальери" избавиться невозможно, но значение исполнителей рутинных задач ИИ сейчас должен резко ослабить.

Значение коллективов исследователей, нацеленных на большие прорывы в науке, должно вырасти. А вместе с тем в науке должны вновь усиливаться социальные институты научных школ вокруг не производственных задач, а - вокруг авторитетов-подвижников.

2. Темпы технологического развития настолько растут, что формирование научных школ вокруг авторитетов-подвижников не успевает стать устойчивым. Авторитеты быстро обесцениваются, ученики не успевают отформироваться в устойчивую школу. Наука как социальный институт не успевает вернуться к цеховому состоянию доиндустриальной эпохи.

Вероятное скорое появление AGI вообще ставит под сомнение возможность существования самого учителя-подвижника. Скорее подвижники-потенциальные ученики будут ориентироваться на конкретный AGI.

Период, когда распад прежних структур науки еще не завершится, а новые структуры не устоятся составит характеристику науки как социального института на время доминирования в технологиях AGI. Универсальную модель управления наукой в период AGI создать невозможно.

3. Автоматизация формулировки новых законов "физики" и других наук, формирования инструментами ИИ новых частных наук ограничено объемами энергии, находящейся в распоряжении человечества. С этим связаны объемы поступающих новых данных для анализа.

Новая устойчивая социальная форма науки должна сформироваться вокруг поиска следующего энергетического рывка человечества. Скорее всего его маркером или даже стержнем станет переход к ASI. Это должно произойти относительно быстро.

Пока же переход к AGI запускает конкуренцию разных AGI и связанных с ними социумов между собой. В ходе конкуренции будет происходить формирование новой структуры управления ресурсами человечества. Будет формироваться и управленческое ядро новой "глобальной" структуры.

В этом ядре и будет потребность в новых фундаментальных знаниях. Теоретически там должна кристаллизоваться новая социальная форма науки. В рамках обычного синтеза "уполномоченного" мэйнстрима и новых "диссидентов".

Праобраз этой будущей устойчивой социальной формы науки сейчас должен формироваться в той части современного мира науки, которая быстрее других освоит ИИ и особенно AGI. Сюда же - нейроинтерфейсы. Скорее всего в области наук о Земле, где придется решать особенно много вопросов глобальной безопасности и поиска новых видов энергии для использования в производстве.

Хорошая цитата ( https://xn--r1a.website/eveningprophet/3097 ) :
"Я давно это обещал, года два как, и это случилось - ИИ начал создавать законы физики ( https://www.pnas.org/doi/10.1073/pnas.2505725122 ). Не помогать в вычислениях, а именно что находит скрытые закономерности и формулировать их."
👍2
Ответил на вопросы "СБ.Беларусь сегодня" и "РТР-Беларусь" по международным отношениям.
4👍2😁1