ШЕВЦОВ
1.11K subscribers
2.7K photos
583 videos
14 files
4.66K links
Геополитика глобальных технологий.
Download Telegram
Новая глава книги по 13му веку великолепного писателя.
Правда, я сам в истории тангутов обращаю внимание на другие моменты:
1. Очень необычные иероглифы. Да, вроде бы, иероглифы взяты изначально от киданей. Но структурную необычность им тангуты придали сами. Зачем им была нужна настолько семантическая иероглифическая письменность?

2. Тангуты и тантрические школы тибетского буддизма. Тангутский буддизм тантрическим не был, но широкий контакт с тантрическими школами у них уже был. Прежде всего с Кагью-па. В чем был смысл этого контакта и для тангутов и для Кагью? Школы Кагью и Сакья стали активными и влиятельнейшими в Монгольской империи после Чингисхана. Но зачем Кагью выходила за рамки своих монастырей в эпоху Чингисхана? К тангутам?

3. Почему Чингисхан был так терпим к тангутам? Он до своей смерти оставлял им государственность.

4. В чем вообще смысл существования тангутского государства? Зачем один из тибетских народов его вообще создал? Да еще на таком важном стратегически месте, где Великий шелковый путь "впадает" Китай. В чем смысл такой экспансии? Тибетцы обычно стремились к самоизоляции в своих тяжелодоступных местах. И вдруг - ключевая позиция на торговых путях Евразии.

5. Тангуты как важная составляющая монгольского инженерного корпуса. Победы на земледельческими государствами с их городами-крепостями монголам дал этот корпус. Может быть, даже с тангутов этот корпус и начался. Почему они стали этой отмычкой монголов к земледельческим государствам? Это были не просто "мобилизованные".

6. Тангуты и кидани. Тангуты и уйгуры. Есть ли у тангутов место рядом с этими двумя народами в монгольской империи? В будущем тибетский буддизм пришел к монголам через бывшее тангутское государство. Может быть, тут есть тема?

https://graph.org/Velikaya-mongolskaya-vojna---201-Za-chas-do-rassveta-CHast-I-07-25
👍21
Chat GPT-5. Должен выйти в августе. ( https://xn--r1a.website/singularityp0int/7333 ) Вместе с ним идет, как обычно целая линейка примерно однотипных моделей от конкурентов. Политических последствий будет много. Среди самых важных:
1. Новости в огромной степени продолжат уход из СМИ и соцсетей в ИИ. Скорее всего GPT-5 и его аналоги за короткое время, до появления GPT-6 станут основным поставщиком новостей, публицистики и публичной аналитики потребителям в развитой части мира. Массовое политическое поведение в развитых странах переходит под управление этих инструментов.

2. Радикально изменяется смысл ведения соцсетей. Наиболее важным потребителем постов в соцсетях уже являются агенты моделей. GPT-5 это сделает очевидным. Очень возможно, что и поставщиком постов в соцсети в значительной степени станут также ИИ-агенты.

Ирония: пользователи соцсетей подсажены на погоню за эмоциями своих читателей, за лайками и короткими комментами. Но теперь их основным читателем становится по сути безэмоциональная "машина". Что пользователи соцсетей по инерции осознают не сразу.

3. Сильнейшее проникновение агентов GPT-5 и его аналогов в частную жизнь людей усилят атомизацию людей друг относительно друга. Общение с ИИ-агентами заберет огромную часть их духовной энергии и времени от общения с людьми. Надо ждать волны неожиданных социальных и политических явлений.
🆒2🔥1😭1
Нобелевская речь Джеффри Хинтона с предупреждением относительно ИИ (декабрь 2024. См.линк):
"Хинтон разделил Нобелевскую премию по физике с Джоном Хопфилдом «за фундаментальные открытия и изобретения, сделавшие возможным машинное обучение на базе искусственных нейронных сетей»"
1. На таком высоком уровне "...упоминание конкретных сценариев оружия массового поражения, генерируемого ИИ, прозвучало впервые."
Надо сказать, реакция на это предупреждение была довольно сильной. Но в итоге Трамп все таки после своей инаугурации пошел по пути резкого уменьшения мер контроля за развитием ИИ.
2. Ясно сформулированы те проблемные зоны, где может в ближайшее время произойти катастрофа, связанная с развитием ИИ. Прежде всего создание биологического оружия.
3. Плюс: "Нам крайне необходимо исследовать, как предотвратить стремление этих новых сущностей захватить контроль. Они больше не научная фантастика."

Можно примерно моделировать варианты крупной или даже глобальной катастрофы, риски которой сейчас особенно усилились.

Предлагаемые "технарем" меры предосторожности относительно ИИ - естественно являются техническими.

Но без гуманитарного блока тут не обойтись.

И как раз гуманитарный блок проседает сейчас больше всего остального.

https://www.youtube.com/watch?v=odUjxJy0YMo
🔥31
Крещение Руси
1. Историческое значение для руси и подчиненных ей народов переоценить невозможно. Особенно для славян.
2. Одна из двух ядерных сверхдержав планеты - это отдаленное последствие Крещения Руси.
3. Причины такой огромной исторической важности Крещения именно Руси - еще не изучены.

https://xn--r1a.website/sergei_ivanov_efko/3470
3
Запасы научных данных NASA. Применение ИИ, улучшенной обработки изображений, связи с аналогичной переработкой других подобных запасов данных (например, наук о Земле) можно получить огромный новый массив выводов и концепций.

Появление AGI должно ускорить научную результативность обработки именно имеющихся баз данных. Просто потому, что не тратится энергия и время на прорывные эксперименты.

То есть США и ЕС тут имеют большую фору для рывка. По сравнению со странами, которые начали догоняющее развитие относительно недавно или наоборот в последние несколько десятилетий тормозили в развитии фундаментальной науки (бывшие СССР и его блок).

Сюда же: анализ накопленных баз научных статей, исследований и монографий.

Для AGI эти объемы данных должны не большой проблемой. И это как раз то, где AGI Может дать быстрее научный результат, нежели при использовании для моделирования чего-то нового.

Но это же дополнительно ударит по существующей системе научных авторитетов, ибо обязательно вскроет массу бюрократических и иных неправильных интерпретаций имевшихся данных.

Тут есть огромной мощи плюс и громадное непонятное социальное последствие, касающееся науки как социального института.

Цитата:
"В настоящее время запасы научных данных NASA превышают 100 петабайт — этого достаточно для хранения 20 миллиардов фотографий со среднего современного смартфона. Ожидается, что этот объем значительно вырастет с новыми миссиями.

Этот огромный объем данных позволяет делать новые открытия, связывая научные наблюдения друг с другом значимым образом. Более 50% научных публикаций [о космосе?] опираются на архивные данные, которые NASA предоставляет миллионам коммерческих, правительственных и научных пользователей."

На эту мысль навел ТГ Innovation & Research

https://science.nasa.gov/open-science/archival-data-discoveries/
👍3
Cтруктура роста данных NASA до 2030 года. Громадные цифры и темпы: Большая астрономия, Радарная "Земля", климатические наблюдения...

При такой структуре данных появление Маска - огромная странность. Даже если речь идет не про его реальные проекты, а только про его идеологию - исход на Марс.

Конечно, можно отмахнуться и признать "Марс" романтичным прикрытием более приземленных (в прямом смысле) задач.

Но тогда у его философского американского "космизма" есть другая социальная функция. И она почему-то очень важна. Притом что Китай, Европа и другие космические игроки такой идеологии и функции не выдвигают. То есть скорее всего в ней не нуждаются.
🤔2
Безопасность всех сетей в мире - сейчас под вопросом. Взлом Аэрофлота - это маркер. Прогресс массовых ИИ идет гораздо быстрее средств безопасности.

Альтман (!) в ФРС (!): «Меня пугает то, что, по-видимому, все еще есть некоторые финансовые учреждения, которые принимают отпечаток голоса в качестве аутентификации», — сказал Альтман. «Это безумие — все еще делать это. ИИ полностью победил это».

Некоторые выводы по ходу:
1. Все базы данных всех учреждений и компаний, имеющие выход в Интернет, - очень уязвимы. Степень уязвимости будет нарастать. Общественная и технологическая безопасность - мрак.

2. Впереди взлет мошенничества вокруг массовой подделки данных живых людей: от медицинских карточек до банковских счетов и судебных дел. Личная безопасность людей и функционирование государственных институтов - степень уязвимости будет нарастать.

3. Манипуляции сознанием и психикой людей - особо уязвимая сфера.

По большому счету в развитых странах необходимо готовиться к жизни в условиях чрезвычайного положения особого типа.

Цитата про Альтмана в ФРС дальше:
"...теперь голосовые клоны ИИ, а в конечном итоге и видеоклоны, могут выдавать себя за людей таким образом, что, по словам Альтмана, становится все более «неотличимым от реальности» и потребует новых методов проверки.

"Это может быть то, о чем мы можем подумать о партнерстве", - сказала заместитель председателя ФРС по надзору Мишель Боуман, главный финансовый регулятор центрального банка, которая вела дискуссию с Альтманом."

https://apnews.com/article/openai-ceo-sam-altman-fed-ad87262a4c1e71a0695ff6d06a2586f2
🔥4👍1
Развитие ИИ скоро в теории способно дать рост мирового ВВП более 20% в год (см.цитату ниже)

То есть:
1. Возможен резкий рост ВВП по мере развития ИИ. судя по прогнозному времени - сразу после появления AGI. Прямая связь с AGI тут должна дополнять весь комплекс процессов, связанных с развитием ИИ.

2. С какого момента надо учитывать ИИ как форму производящего продукцию сознания и надо ли это? Пока такой качественной границей кажется AGI. Если мир высоких технологий признает AGI первой более менее суверенной формой нечеловеческого сознания, тогда очень скоро надо будет сильно трансформировать методику расчета ВВП.

3. Параллельно идущий технологический процесс появления гибридных биокибернетических носителей разума дополняет эту сложность. Первой проблемой в этом ключе будет - как учитывать людей с нейроимплантами? Пока они видятся людьми, которых снабдили очень сложными аналогами протезов. Но признание хоть одного вида ИИ носителем разума эту характеристику усложнит. И в любом случае, биотех стоит на грани скорого появления разнообразия биологических носителей разума. Что еще более усложнит определение, что есть человек в контексте понятия ВВП.

В целом, скорее всего, надо готовиться по мере развития нынешнего технологического переворота к периоду ускоренных темпов роста глобального ВВП.

Цитата
"Модель исследователя Glen Ho показывает, что после автоматизации ≈ 30% задач «цифровые работники» создают эффект реинвестирования в вычислительные мощности и ИИ-R&D.

Результатом становится экспоненциальное ускорение производительности, при котором годовой прирост мирового ВВП способен превысить 20%."

https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode
Легкие переходы в США технарей - разработчиков ИИ из компании в компанию - эмпирически хорошо видная особенность развития этой технологии. Во время Манхэтенского проекта такого с лабораториями не было. В СССР при создании атомной бомбы - также. Режим секретности и приверженность научной школе при создании ИИ едва ли ни отсуствует.

Фактически создатели ИИ в США - это единое распределенное сообщество.

Перетекание идей и кусков технологий там происходит очень легко. Очевидно, что и фигурирующие громадные суммы, которые выплачиваются неопытным в
потреблении на таких уровнях и в инвестициях увлеченным сложной умственной работой технарям, не могут быть технарями потрачены самостоятельно. Расходование таких сумм не может не быть сферой какого-то общего, как минимум косвенного управления.

Это ставит вопрос о конкуренции корпораций при создании действительно прорывных технологий. Во всяком случае ИИ как ключевой из таких технологий, которая находится в основе происходящего грандиозного технологического переворота.

Действительно ли там есть конкуренция или если там конкуренция действительно есть, то корпораций ли это конкуренция?

Если перед нами распределенная кадровая система, работающая на создание такой важной технологии, тогда:
- где координирующий ее центр и каковы его характеристики?
- Является ли смыслом переходов технарей из структуры в структуру создание им комфортных условий для работы их "мозга", то есть своего рода социальной игрой, или тут есть еще какой-то смысл?
- Каким образом была найдена такая исторически необычная социальная форма для организации эффективного сообщества разрабатывающих ИИ специалистов?

Один из типичных примеров:
https://www.wired.com/story/four-openai-researchers-leave-meta/
🤔3👍1
"Вопрос не в том, сохранят ли люди работу в эпоху ИИ. Вопрос в том, останемся ли мы людьми." (Сергей Карелов https://xn--r1a.website/theworldisnoteasy/2184 )

Родная земля, степь, лес, горы, река, двор, церковь, школа, в узком смысле - мама, бабушка, друзья ... - у разных людей и народов образы, которые сформировали личность отличаются, но они всю предыдущую историю человечества были созданы природой и человеком. Обращение в трудные минуты к ним было формой нормализации сознания человека. Ибо они и есть образы человеческой нормы. Человечество сформировалось и существовало на них.

ИИ, и особенно скорый AGI, а потом не менее вероятный ASI формируют все более далекий от природы и человека комплекс образов для человеческого сознания.

В принципе, это все тот же вопрос: что такое человек и жизнь в новую эпоху. Просто касательно образов.

Образный комплекс, влияющий на человеческое сознание придется брать в свои руки так же сознательно, как берется сейчас в руки человека расширенное понимание жизни и человека. Борьба с фейками на гораздо более глубоком уровне.

Но есть вопрос: а что является такой же образной нормой для всех видов ИИ (особенно будущих AGI и ASI)? Ее по-крайней мере сейчас должен будет и сможет в значительной степени формировать человек.

Точно так, хотя и легче: какие образы должны составлять костяк для биокибернетических существ и для в той или иной степени рукотворных биологических существ-носителей сознания?

Скорее всего, ответ на дилемму Сергея Карелова придется искать не в простой парадигме как сохранить человеком себя в коммуникации с ИИ (алгоритмами).

А - в более сложной: как наполнить правильным пониманием себя рукотворные существа - носители разума, алгоритмы включая. То есть не в процессе обороны от них человек должен будет сохранять себя и свое сознание в норме. В процессе, наоборот, сознательного программирования нормы для рукотворных существ, алгоритмы включая.
👍31🔥1
НОАК: феномен догоняющего развития.
1. НОАК. Идущее усиление ядерной составляющей. Но сознательно не до уровня России и США.
2. Очевидная подготовка к паритету относительно США по оружию на базе новых физических принципов, прежде всего по ИИ.
3. Россия и Китай к концу 2020х будут по-новому взаимодополнять друг друга относительно военной мощи США. Грубо говоря: у России - ядерная мощь и континентальная армия, у Китая - ИИ и надводный флот.

США и их союзники к концу 2020х годов не обязательно будут превосходить совокупную военную мощь России и КНР. Хотя, отметим, Россия и Китай являются не союзниками, а - стратегическими партнерами.

Самое интересное тут: все, что касается строительства НОАК на базе технологий, связанных с ИИ.
👍3
Китай и AGI. Скорая конкуренция китайского и американского AGI. Россия.

Китай идет примерно на уровне с США по развитию ИИ. AGI в Китае должен появиться весьма скоро и примерно одновременно с американским. Понятно, что одной из первых сфер его применения в обеих странах будет - государственное управление.

Американский AGI в сфере госуправления будет транслировать американский культурный код или архетип. Именно этот направленный на негармоничную фронтирность и технологические прорывы код и сделал возможным появление сделал само появление AGI и ИИ.

Китайский ИИ - результат догоняющего развития Китая относительно США. Культурный код Китая не требовал таких резких ломающих гармонию технологических трансформаций как AGI.

Китайский AGI в госуправлении должен транслировать альтернативный американскому подход - стремление к гармонии. Вынужденное пройти через технологический взрыв.

Окончание: в следующем посте.

Фото: прием Посла Китая по случаю годовщины НОАК
👍1
Окончание предыдущего поста:

Конкурентное преимущество транслируемых будущим китайским AGI принципов глобального поведения его государственной машины понятно - удержание мира от угрозы коллапса, генерируемого американским культурным кодом.

В этом стихийно формирующемся глобальном американо-китайском Янь-Инь AGI-мире биполярность возникает на ином принципе, нежели она была во время Холодной войны США \ СССР. Коммунизм и западные идеологии противостояли друг другу с целью уничтожения друг друга.

Мир высокой науки, наподобие Пагуошского движения или военные обоих блоков удерживали Холодную войну от перерастания в Третью мировую в силу рационально понятого страха перед коллапсом человечества.

Наступающее противостояние управляемых разными AGI двух планетарных центров имеет иную природу противостояния и отсюда мир подвержен иным угрозам. Выход из этого Янь-Инь периода также должен быть со временем иным, не через коллапс одной из сторон.

Скорее всего, китайско-американское соперничество как характеристика исторического периода закончится с появлением ASI.

Причем эпоха ASI будет вырастать с учетом третьего фактора - способной уничтожить всю планету России, которая в наш AGI период находится в тени китайско-американского противостояния, но никуда не исчезает.

Тут большой вопрос, как эти AGI управляемые два центра вклинят столь необычный для них третий фактор в свой дуализм сейчас. И как они подготовят планету к переходу к ASI достаточно скоро. Через какой архетип или культурный код? Причем решение будет в огромной степени ИИ-автоматизированным.
👍2
"«Самый старый младенец в мире» родился из эмбриона, которому более 30 лет. Эмбрионы были созданы в 1994 году, когда будущий отец был еще малышом, и были пожертвованы через христианское агентство по «усыновлению эмбрионов»". По линку интересные подробности.

С точки зрения клятвы Гиппократа распространение борьбы за жизнь на все эмбрионы, включая такие, - верно. С точки зрения права на аборты такие эмбрионы люди вправе уничтожать. Для верующие разных церквей и религий - большая этическая проблема.

В принципе, распространение либертарианства, или точнее происшедший в развитых странах отказ от универсальной морали. Общество развитых стран допускает более или менее свободное уничтожение таких эмбрионов.

Но есть вопрос относительно решения на этот счет со стороны ИИ в его AGI форме, подключенной вскоре к решению задач госуправления. AGI в принципе будет должен выводить госуправление из-под слишком сильной идеологизации. Это - часть функций AGI для обхода бюрократических или преступных действий.

Относительно свободная от влияния человеческого фактора экспертиза и решения с появлением AGI должны будут руководствоваться государственной целесообразностью. Возникает очень сложный момент программирования действий такого ИИ относительно не только эмбрионов, но и других носителей сознания. В руки ИИ придется отдавать определение понятие человека и аналогичных ему форм жизни.

Самого человека еще можно определить при программировании ИИ через эмбриона с каким-то сроком жизни. Но насколько соответствуют человеку новые формы жизни, возникающие сейчас все быстрее под воздействием прогресса в высоких технологиях ИИ, придется все более поручать определять самому ИИ.

Скорее всего ИИ при этом будет учитывать прежде всего мальтузианские закономерности. касательно как новых форм носителей разума, так и человеческих эмбрионов.

То есть переход к ИИ и далее к AGI обществ современного аморального потребительского обывателя - это априори более или менее быстрый путь к передаче ИИ контроля над тем, что обыватель ценит более всего - его жизни. Как и над жизнью любых носителей разума.

Решение этой проблемы потребует более чем простого внимания к этике. Причем быстро. Переход к AGI уже идет.

https://www.technologyreview.com/2025/07/29/1120769/exclusive-record-breaking-baby-born-embryo-over-30-years-old/
1👍1🤔1👻1
Очень сильное отставание России по научным публикациям от Китая и США. При китайском лидерстве (См. цитату и линк ниже)
1. В краткосрочном периоде эта статистика имеет смысл в основном для понимания результата обучения "национальных" ИИ.

2. В среднесрочном - от России можно ожидать неожиданностей:
- слишком много научных результатов лежат в закрытом секторе. Фактор неизвестности большого масштаба. Ибо Россия продолжает развиваться в качестве мировой военной сверхдержавы.
- Кэнселинг российской науки в западном научном мире и не самая глубокая интеграция в китайский освобождает российского ученого от контроля со стороны внешних научных школ и разного рода стандартов.
- Коллапс многих научных школ и направлений по мере изучения с помощью ИИ накопленного на Западе за крайние лет 30 научного материала должен коснуться России в меньшей степени, чем их. Наука как социальный институт в России должна пройти иной путь переживания предстоящего кризиса западной науки. Тут есть шанс и на позитивный результат такого изолированного российского развития.

3. В ближайшие годы создаваемые в США и Китае AGI должны будут вести планирование научно-технологического развития у себя без адекватного учета российского фактора. Это ухудшает технологическую безопасность в момент происходящего громадного научно-технологического переворота прежде всего в США. Где и так резко облегчен контроль за технологической безопасностью в прорывном сегменте по сравнению с Китаем и тем более ЕС.

То есть появление AGI и применение его в госуправлении в США произойдет в условиях системного роста рисков по линии технологической безопасности там. Несмотря на все потенциальные плюсы от улучшения качества госуправления в связи с применением к нему AGI.

Цитата:
"Китай становится главной научной сверхдержавой. Пекин собрал 33700 баллов в рейтинге Mature Index — одном из главных показателей развития науки в разных странах, который составляется по количеству научных работ и статей. Для сравнения: у России там всего 390 баллов."
Таблички и графики:
https://xn--r1a.website/Scienceg/33596
👍3
Еще один философский манифест насчет AGI. Meta (Facebook) (см. цитату ниже):
1. То есть в США (без учета Китая и ЕС) уже есть как минимум три философии AGI от крупнейших американских корпораций, стоящих на грани создания AGI. Meta. Альтман. Маск. Эпоха AGI - технологически предопределена к конкуренции разных AGI между собой. Добавлению к этому и к геополитике борьбы философий - это требует очень большого внимания.

2. Перерастание борьбы философий в идеологическую непримиримость - всегда вопрос времени. В эпоху ИИ и особенно AGI время течет очень быстро. Теоретически это должно произойти скоро.

3. Актуализация философии разного использования AGI означает очень быстрое использование уже первых AGI не только к госуправлению, национальной безопасности, биотеху и т.д., но и к идеологии. То есть к политическому управлению обществом.

Последовательность применения первых AGI к разным сферам может иметь особое значение для конкурентоспособности тех или иных "философий" и стоящих за ними политических сил.

Скорее всего первые примеры такого использования AGI станут очевидными в ходе скорых промежуточных выборов в США. А сами следующие президентские выборы будут в этом плане вообще событием особо прецедентным.

Цитаты:
"Видение Meta заключается в том, чтобы предоставить персональный сверхинтеллект каждому. Мы верим в то, что люди должны передать эту власть в свои руки, чтобы направить ее на то, что они ценят в своей жизни.

Это отличается от других представителей отрасли, которые считают, что сверхинтеллект должен быть направлен централизованно на автоматизацию всей ценной работы, и тогда человечество будет жить на пособие по его продукции. В Meta мы считаем, что люди, преследующие свои личные устремления, — это то, как мы всегда добивались прогресса, расширяя благосостояние, науку, здоровье и культуру. Это будет иметь все большее значение и в будущем. ...

Оставшаяся часть этого десятилетия, вероятно, станет решающим периодом для определения пути, по которому пойдет эта технология, и будет ли сверхинтеллект инструментом для расширения личных возможностей или силой, сосредоточенной на замене больших слоев общества.

Meta твердо верит в создание персонального сверхинтеллекта, который расширяет возможности каждого. У нас есть ресурсы и опыт для создания необходимой обширной инфраструктуры, а также возможности и желание предоставлять новые технологии миллиардам людей с помощью наших продуктов. Я рад сосредоточить усилия Meta на построении этого будущего."

https://www.meta.com/superintelligence/
👍2
Недостаточность публичной экспертизы по ключевому пункту развития технологий в ключевой момент.

Глеб Кузнецов: "Смотрю полугодовые отчеты по развитию ИИ от западных "консалтеров". Очень забавная история – все, что в мире ИИ происходит, - происходит в 4-5 компаниях.

🔹В условиях нарастающей деглобализации западная аналитика превращается в замкнутую систему, где изучение 75% мира становится карьерно опасным. Результат — эксперты знают всё меньше о всё более важных процессах." (Окончание цитаты ниже) ( https://xn--r1a.website/glebsmith77/294 )


Вывод перекликается с моим наблюдением по распадению глобального научного пространства с особыми рисками для США. ( https://xn--r1a.website/yuryshevtsov/13845 ) А также - с особенностью кадровых процессов в американском ИИ. ( https://xn--r1a.website/yuryshevtsov/13838 )

1. Конспирологию отметаем сходу. Слишком большие очевидные процессы запущены, чтобы быть просто пузырем. Хотя и не без элементов пузыря.

2. Такое сильное падение публичной экспертизы в США - зона риска. Может быть преддверием большого кризиса, как и всегда в истории в подобных случаях. Может быть сброшенным обреченным социальным сегментом, чьи ошибки уже ни на что существенное повлиять не успевают.

3. По большому счету это состояние - одно из следствий снятия в США множества барьеров в области технологической безопасности как считается ради ускорения рывка в ИИ. В США пул корпораций в области ИИ сосредоточен на внутреннем финишном, как они полагают, рывке. Остальной мир и даже риски их интересуют гораздо меньше. Цель: очень быстрое создание прежде всего AGI и закрепление планетарного лидерства в этой технологии.

Окончание цитаты:
"Отчёт Menlo Ventures объявляет Anthropic (32%) новым лидером AI-рынка, обогнавшим OpenAI (25%). DeepSeek получает жалкий 1%. Методология: опрос 150 западных tech-лидеров. Индии, Китая, Бразилии с Латамом не существует. Про Россию я и не говорю.
Рядом JP Morgan прогнозирует рост энергопотребления AI на 70% ежегодно и утроение выбросов к 2030. Фокус: четыре западных гиганта Amazon, Microsoft, Google, Meta. Всего остального мира нет.

🔹Любимая тема для обсуждений – кто побеждает в гонке ИИ (с выходом на то, что, разумеется, побеждает Запад, ведь у него денег больше)
Институциональная логика понятна и объяснима.  Западные аналитики обязаны объявлять победителями компании, торгующиеся на западных биржах. Их бонусы зависят от роста Anthropic, OpenAI, Google - не от объективной оценки глобального AI-ландшафта.

🔹Самосбывающееся пророчество: если все аналитики объявляют Western AI лидерами, инвесторы вкладывают туда деньги, создавая реальное преимущество в капитале.  А нарративный контроль через доминирование в англоязычной tech-прессе создаёт впечатление глобального лидерства.

При этом создается информационная асимметрия, когда китайцы понимают  и западную, и свою экосистемы. Западники - только свою. DeepSeek стало предупреждением: результаты GPT-4 при затратах в 50 раз меньше. С тех пор огромные деньги были вложены в объяснение того, что DeepSeek на самом деле не такой уж хороший и вообще все украл у OpenAI.

🔹Механизм самоусиления в пузыре
В 2015 неточный прогноз аналитика означал лишение премии;  в 2025 "неправильный" прогноз - карьерная смерть. В 2015 изучение китайских технологий - экзотика, расширяющая кругозор. В 2025 - "красный флаг" для корпоративной безопасности. "А чего это он? Может у него и дипсик на телефоне установлен?" Любая тема может стать "вопросом национальной безопасности".

🍬Поощряется:
• Фокус на торгуемые на NASDAQ активы
• Подтверждение западного превосходства
• Игнорирование "геополитически чувствительных" тем

📛Наказывается:
• Серьёзное изучение и тем более экспериментирование с "чужими" разработками
• Сомнения в эффективности "своих" решений
• Прогнозы, подрывающие портфельные позиции клиентов
В итоге, зачем рисковать, изучая DeepSeek, если твой бонус зависит от роста Anthropic?

Окончание в следующем посте
3👍1
Продолжение предыдущего поста:

🔸 У такой экспертизы есть цена – "шок как норма".
Кейс DeepSeek отличный тому пример.
В итоге никто (кроме может китайцев) не знает объем и рыночную долю open-source решений от китайских компаний в мировом масштабе. Развивающиеся страны находят альтернативные пути решения энергопроблем AI типа строительства АЭС и кратного расширения солнечной генерации. И тд и тп.
Ситуация, когда три четверти человечества не живут в моделях, описываемых западными теориями делает неизбежным то, что каждый следующий шок будет сильнее предыдущего.

🟰 В результате - классическая "Уловка 22" для экспертизы
1️⃣ Мир становится многополярным - нужно понимать всех игроков
2️⃣ Деглобализация усиливается - изучение "чужих" становится опасным
3️⃣ Эксперты выбирают безопасность - фокус сужается на "своих"
4️⃣ Реальность расходится с экспертизой - шоки учащаются
5️⃣ Шоки усиливают изоляционизм - возврат к пункту 3
Чем меньше западные эксперты знают о Китае, тем больше они его демонизируют. Чем больше демонизация, тем опаснее изучение. Чем опаснее изучение, тем меньше знаний. И так по бесконечному кругу, и не только относительно Китая.

А потом Трамп со свойственной ему непосредственностью говорит: "Санкции то мы введем, но подействуют они или нет никто не знает". А как узнать, если изучение реальности запрещено почти официально? И опять же не только на Западе."
https://xn--r1a.website/glebsmith77/294
👍2🔥1
Тревога ведущих американских ИИ разработчиков по поводу внутреннего языка ИИ (см.цитату ниже)
1. Опасаются появления у ИИ своего языка. То есть быстрого оформления скорого AGI в очень высокую степень сознания. С технологической точки зрения очень глубоко и даже остроумно: выработать общий технологический стандарт, который сдержит появление своего языка у AGI, но позволит использовать его интеллектуальную мощь под своим контролем. Поставить на поток появление и существование своих цифровых "Маугли".

2. Но если США сняли массу ограничений технологической безопасности для быстрого развития ИИ, тогда почему именно эта форма технологической безопасности в США должна получиться? Безопасность - явление социальное. Тут мало установить стандарт между несколькими американскими прорывными корпорациями. Тут надо обязательно согласовать этот стандарт на международном уровне с Китаем. Причем сначала с государством КНР, а потом и с китайскими ИИ корпорациями.

Существующий бюрократический протокол это не позволит сделать быстро. По сути, речь идет о международной конференции по контролю над ИИ уровня той, которую пытался собрать перед смертью Киссинджер.

Между тем AGI должен появиться вот-вот. И скорее всего речь надо ставить уже не о предотвращении появления у AGI развитого собственного внутреннего языка, а про контроль над этим появившимся языком. А это - иная задача, чем звучит у вновь встревожившихся насчет безопасности американских технарей.

Цитата:
"Ученые из OpenAI, Google DeepMind, Anthropic и Meta отказались от ожесточенного корпоративного соперничества, чтобы выпустить совместное предупреждение о безопасности ИИ. Более 40 исследователей из этих конкурирующих компаний опубликовали сегодня исследовательскую работу, в которой утверждают, что короткое окно для мониторинга рассуждений ИИ может закрыться навсегда — и в ближайшее время.

...Статья получила одобрение от некоторых из самых выдающихся деятелей в этой области, в том числе лауреата Нобелевской премии Джеффри Хинтона, которого часто называют «крестным отцом искусственного интеллекта» из Университета Торонто; Илья Суцкевер, соучредитель OpenAI, который сейчас возглавляет Safe Superintelligence Inc.; Сэмюэл Боуман из Anthropic; и Джон Шульман из Thinking Machines."

https://venturebeat.com/ai/openai-google-deepmind-and-anthropic-sound-alarm-we-may-be-losing-the-ability-to-understand-ai/?fbclid=IwY2xjawL7tzdleHRuA2FlbQIxMQABHmdhV7Db2PSEsPdbJxar0TUiMTCSWQ4o0ySvqg-XXlihtWnWZTnp24dRWSB8_aem_Lu0lEx-RYbh-8CCRRHsaZw
👍1👏1🤯1
"Глобальный разрыв: США и Китай контролируют 90% мировых дата-центров для ИИ". Цифра должна быть уточнена. Там кое-что надо подправить. Но тренд в общем именно такой. И он очевидно сохранится на ближайшие лет 10-15, если только не произойдет форс-мажора планетарного масштаба.

Это и есть эпоха приближающегося AGI. Следующая точка бифуркации, если не будет форс-мажора, - вероятный переход к ASI.

Россия в рамках тренда - особый важный случай.

Ракурсов у последствий тренда - масса. Некоторые:
1. Какими данными будут обучаться AGI при такой структуре дата-центров? Имеющиеся данные уже фактически выбраны. Теперь выбираются данные данных, результаты деятельности самих алгоритмов.

Тем не менее, новые данные от людей будут поступать прежде всего в местах географической локализации дата-центров, то есть от общества США, КНР и добавлю вскоре - ЕС. В этих странах количество данных от людей вырастет.

Особенность местных обществ - биологическое старение людей. Молодая замещающая эмиграция сюда не меняет сам культурный код угасающих местных обществ. Данные будут касаться прежде всего угасающих человеческих популяций. То есть - касаться старения как биологического, так и культурного.

Нежелание рожать детей ради гедонизма - то есть культура медленной комфортной смерти - основная популяционная характеристика этих обществ. Даже Маск с его "Марсом" - это отсюда. AGI как минимум США и ЕС будет обучаться культуре угасания и смерти как чего-то не совсем негативного.

2. Китай. Тут депопуляция имеет сильный иной компонент в культуре угасания. Китай при переходе к реформам пошел на сознательное жесткое регулирование количества детей в семьях. То есть заплатил за догоняющее развитие и превращение во вторую экономическую и технологическую державу планеты нерожденными детьми.

Сейчас причина депопуляции Китая уже в том же обществе потребления и желании обывателя комфортно жить без детей. Но все таки в общественной памяти есть пункт о плате нерожденными детьми за развитие.

В Китае AGI будет добирать данные от людей с иной культурной составляющей, чем в США и ЕС. Популяционно - менее негативистской.

3. В Африке и некоторых других регионах планеты высокая естественная рождаемость продлится еще не меньше 10-15 лет. То есть охват сбором данных этих регионов будет улавливать культурный импульс из этих регионов, нацеленный на витальность.

Вывод: общественные актуалии и особенно общественные дискуссии в США и ЕС несут в себе риск, даже угрозу программирования своими данными их AGI на нечто напоминающее идеологию суицида. А дифференциация в доступе разных регионов планеты к ИИ и особенно к скорому AGI - имеет как минусы для мира вне США и ЕС, так и не только минусы.

https://www.nytimes.com/interactive/2025/06/23/technology/ai-computing-global-divide.html
👍43
Суммы и темпы инвестиций в ЦОДы связанные с ИИ в западном мире, прежде всего в США: "...масштабное строительства центров обработки данных, капитальные затраты на которые в этом (2025) году достигнут 330 миллиардов долларов." Доходы тоже идут.

То есть теоретически инвестиционный цикл в ИИ начал давать хорошую отдачу. Особо затратный фундаментальный период пройден и все выходит на некую финишную прямую. Если, конечно, цифры верны.

Технологически вершиной этого цикла должно стать, скорее всего. появление AGI. И это изделие теперь есть куда встроить.

Тогда следующий большой инвестиционный цикл должен начаться относительно скоро. И он должен включать в себя подготовку к чему-то новому большому. Этот новый большой инвестиционно-технологический цикл должен разрабатываться уже сейчас. А начаться по мере освоения AGI. Логично ожидать, что речь идет про подготовку к ASI. Но под это подходит и марсианская программа Маска. Может быть и что-то еще.

Учитывая сокращение времени инвестиционно-технологических циклов этот новый цикл в его фундаментальной затратной фазе должен начать достаточно скоро.

Если так, то скоро человечество должно получить из США два идеологических импульса сразу: "потребительский" связанный с переходом к проектам с использованием AGI. И визионерский, связанный с началом утробной фазы еще более масштабного технологического проекта.

https://www.reuters.com/business/microsoft-spend-record-30-billion-this-quarter-ai-investments-pay-off-2025-07-30/
👍4