ШЕВЦОВ
1.12K subscribers
2.71K photos
583 videos
14 files
4.67K links
Геополитика глобальных технологий.
Download Telegram
Еще один философский манифест насчет AGI. Meta (Facebook) (см. цитату ниже):
1. То есть в США (без учета Китая и ЕС) уже есть как минимум три философии AGI от крупнейших американских корпораций, стоящих на грани создания AGI. Meta. Альтман. Маск. Эпоха AGI - технологически предопределена к конкуренции разных AGI между собой. Добавлению к этому и к геополитике борьбы философий - это требует очень большого внимания.

2. Перерастание борьбы философий в идеологическую непримиримость - всегда вопрос времени. В эпоху ИИ и особенно AGI время течет очень быстро. Теоретически это должно произойти скоро.

3. Актуализация философии разного использования AGI означает очень быстрое использование уже первых AGI не только к госуправлению, национальной безопасности, биотеху и т.д., но и к идеологии. То есть к политическому управлению обществом.

Последовательность применения первых AGI к разным сферам может иметь особое значение для конкурентоспособности тех или иных "философий" и стоящих за ними политических сил.

Скорее всего первые примеры такого использования AGI станут очевидными в ходе скорых промежуточных выборов в США. А сами следующие президентские выборы будут в этом плане вообще событием особо прецедентным.

Цитаты:
"Видение Meta заключается в том, чтобы предоставить персональный сверхинтеллект каждому. Мы верим в то, что люди должны передать эту власть в свои руки, чтобы направить ее на то, что они ценят в своей жизни.

Это отличается от других представителей отрасли, которые считают, что сверхинтеллект должен быть направлен централизованно на автоматизацию всей ценной работы, и тогда человечество будет жить на пособие по его продукции. В Meta мы считаем, что люди, преследующие свои личные устремления, — это то, как мы всегда добивались прогресса, расширяя благосостояние, науку, здоровье и культуру. Это будет иметь все большее значение и в будущем. ...

Оставшаяся часть этого десятилетия, вероятно, станет решающим периодом для определения пути, по которому пойдет эта технология, и будет ли сверхинтеллект инструментом для расширения личных возможностей или силой, сосредоточенной на замене больших слоев общества.

Meta твердо верит в создание персонального сверхинтеллекта, который расширяет возможности каждого. У нас есть ресурсы и опыт для создания необходимой обширной инфраструктуры, а также возможности и желание предоставлять новые технологии миллиардам людей с помощью наших продуктов. Я рад сосредоточить усилия Meta на построении этого будущего."

https://www.meta.com/superintelligence/
👍2
Недостаточность публичной экспертизы по ключевому пункту развития технологий в ключевой момент.

Глеб Кузнецов: "Смотрю полугодовые отчеты по развитию ИИ от западных "консалтеров". Очень забавная история – все, что в мире ИИ происходит, - происходит в 4-5 компаниях.

🔹В условиях нарастающей деглобализации западная аналитика превращается в замкнутую систему, где изучение 75% мира становится карьерно опасным. Результат — эксперты знают всё меньше о всё более важных процессах." (Окончание цитаты ниже) ( https://xn--r1a.website/glebsmith77/294 )


Вывод перекликается с моим наблюдением по распадению глобального научного пространства с особыми рисками для США. ( https://xn--r1a.website/yuryshevtsov/13845 ) А также - с особенностью кадровых процессов в американском ИИ. ( https://xn--r1a.website/yuryshevtsov/13838 )

1. Конспирологию отметаем сходу. Слишком большие очевидные процессы запущены, чтобы быть просто пузырем. Хотя и не без элементов пузыря.

2. Такое сильное падение публичной экспертизы в США - зона риска. Может быть преддверием большого кризиса, как и всегда в истории в подобных случаях. Может быть сброшенным обреченным социальным сегментом, чьи ошибки уже ни на что существенное повлиять не успевают.

3. По большому счету это состояние - одно из следствий снятия в США множества барьеров в области технологической безопасности как считается ради ускорения рывка в ИИ. В США пул корпораций в области ИИ сосредоточен на внутреннем финишном, как они полагают, рывке. Остальной мир и даже риски их интересуют гораздо меньше. Цель: очень быстрое создание прежде всего AGI и закрепление планетарного лидерства в этой технологии.

Окончание цитаты:
"Отчёт Menlo Ventures объявляет Anthropic (32%) новым лидером AI-рынка, обогнавшим OpenAI (25%). DeepSeek получает жалкий 1%. Методология: опрос 150 западных tech-лидеров. Индии, Китая, Бразилии с Латамом не существует. Про Россию я и не говорю.
Рядом JP Morgan прогнозирует рост энергопотребления AI на 70% ежегодно и утроение выбросов к 2030. Фокус: четыре западных гиганта Amazon, Microsoft, Google, Meta. Всего остального мира нет.

🔹Любимая тема для обсуждений – кто побеждает в гонке ИИ (с выходом на то, что, разумеется, побеждает Запад, ведь у него денег больше)
Институциональная логика понятна и объяснима.  Западные аналитики обязаны объявлять победителями компании, торгующиеся на западных биржах. Их бонусы зависят от роста Anthropic, OpenAI, Google - не от объективной оценки глобального AI-ландшафта.

🔹Самосбывающееся пророчество: если все аналитики объявляют Western AI лидерами, инвесторы вкладывают туда деньги, создавая реальное преимущество в капитале.  А нарративный контроль через доминирование в англоязычной tech-прессе создаёт впечатление глобального лидерства.

При этом создается информационная асимметрия, когда китайцы понимают  и западную, и свою экосистемы. Западники - только свою. DeepSeek стало предупреждением: результаты GPT-4 при затратах в 50 раз меньше. С тех пор огромные деньги были вложены в объяснение того, что DeepSeek на самом деле не такой уж хороший и вообще все украл у OpenAI.

🔹Механизм самоусиления в пузыре
В 2015 неточный прогноз аналитика означал лишение премии;  в 2025 "неправильный" прогноз - карьерная смерть. В 2015 изучение китайских технологий - экзотика, расширяющая кругозор. В 2025 - "красный флаг" для корпоративной безопасности. "А чего это он? Может у него и дипсик на телефоне установлен?" Любая тема может стать "вопросом национальной безопасности".

🍬Поощряется:
• Фокус на торгуемые на NASDAQ активы
• Подтверждение западного превосходства
• Игнорирование "геополитически чувствительных" тем

📛Наказывается:
• Серьёзное изучение и тем более экспериментирование с "чужими" разработками
• Сомнения в эффективности "своих" решений
• Прогнозы, подрывающие портфельные позиции клиентов
В итоге, зачем рисковать, изучая DeepSeek, если твой бонус зависит от роста Anthropic?

Окончание в следующем посте
3👍1
Продолжение предыдущего поста:

🔸 У такой экспертизы есть цена – "шок как норма".
Кейс DeepSeek отличный тому пример.
В итоге никто (кроме может китайцев) не знает объем и рыночную долю open-source решений от китайских компаний в мировом масштабе. Развивающиеся страны находят альтернативные пути решения энергопроблем AI типа строительства АЭС и кратного расширения солнечной генерации. И тд и тп.
Ситуация, когда три четверти человечества не живут в моделях, описываемых западными теориями делает неизбежным то, что каждый следующий шок будет сильнее предыдущего.

🟰 В результате - классическая "Уловка 22" для экспертизы
1️⃣ Мир становится многополярным - нужно понимать всех игроков
2️⃣ Деглобализация усиливается - изучение "чужих" становится опасным
3️⃣ Эксперты выбирают безопасность - фокус сужается на "своих"
4️⃣ Реальность расходится с экспертизой - шоки учащаются
5️⃣ Шоки усиливают изоляционизм - возврат к пункту 3
Чем меньше западные эксперты знают о Китае, тем больше они его демонизируют. Чем больше демонизация, тем опаснее изучение. Чем опаснее изучение, тем меньше знаний. И так по бесконечному кругу, и не только относительно Китая.

А потом Трамп со свойственной ему непосредственностью говорит: "Санкции то мы введем, но подействуют они или нет никто не знает". А как узнать, если изучение реальности запрещено почти официально? И опять же не только на Западе."
https://xn--r1a.website/glebsmith77/294
👍2🔥1
Тревога ведущих американских ИИ разработчиков по поводу внутреннего языка ИИ (см.цитату ниже)
1. Опасаются появления у ИИ своего языка. То есть быстрого оформления скорого AGI в очень высокую степень сознания. С технологической точки зрения очень глубоко и даже остроумно: выработать общий технологический стандарт, который сдержит появление своего языка у AGI, но позволит использовать его интеллектуальную мощь под своим контролем. Поставить на поток появление и существование своих цифровых "Маугли".

2. Но если США сняли массу ограничений технологической безопасности для быстрого развития ИИ, тогда почему именно эта форма технологической безопасности в США должна получиться? Безопасность - явление социальное. Тут мало установить стандарт между несколькими американскими прорывными корпорациями. Тут надо обязательно согласовать этот стандарт на международном уровне с Китаем. Причем сначала с государством КНР, а потом и с китайскими ИИ корпорациями.

Существующий бюрократический протокол это не позволит сделать быстро. По сути, речь идет о международной конференции по контролю над ИИ уровня той, которую пытался собрать перед смертью Киссинджер.

Между тем AGI должен появиться вот-вот. И скорее всего речь надо ставить уже не о предотвращении появления у AGI развитого собственного внутреннего языка, а про контроль над этим появившимся языком. А это - иная задача, чем звучит у вновь встревожившихся насчет безопасности американских технарей.

Цитата:
"Ученые из OpenAI, Google DeepMind, Anthropic и Meta отказались от ожесточенного корпоративного соперничества, чтобы выпустить совместное предупреждение о безопасности ИИ. Более 40 исследователей из этих конкурирующих компаний опубликовали сегодня исследовательскую работу, в которой утверждают, что короткое окно для мониторинга рассуждений ИИ может закрыться навсегда — и в ближайшее время.

...Статья получила одобрение от некоторых из самых выдающихся деятелей в этой области, в том числе лауреата Нобелевской премии Джеффри Хинтона, которого часто называют «крестным отцом искусственного интеллекта» из Университета Торонто; Илья Суцкевер, соучредитель OpenAI, который сейчас возглавляет Safe Superintelligence Inc.; Сэмюэл Боуман из Anthropic; и Джон Шульман из Thinking Machines."

https://venturebeat.com/ai/openai-google-deepmind-and-anthropic-sound-alarm-we-may-be-losing-the-ability-to-understand-ai/?fbclid=IwY2xjawL7tzdleHRuA2FlbQIxMQABHmdhV7Db2PSEsPdbJxar0TUiMTCSWQ4o0ySvqg-XXlihtWnWZTnp24dRWSB8_aem_Lu0lEx-RYbh-8CCRRHsaZw
👍1👏1🤯1
"Глобальный разрыв: США и Китай контролируют 90% мировых дата-центров для ИИ". Цифра должна быть уточнена. Там кое-что надо подправить. Но тренд в общем именно такой. И он очевидно сохранится на ближайшие лет 10-15, если только не произойдет форс-мажора планетарного масштаба.

Это и есть эпоха приближающегося AGI. Следующая точка бифуркации, если не будет форс-мажора, - вероятный переход к ASI.

Россия в рамках тренда - особый важный случай.

Ракурсов у последствий тренда - масса. Некоторые:
1. Какими данными будут обучаться AGI при такой структуре дата-центров? Имеющиеся данные уже фактически выбраны. Теперь выбираются данные данных, результаты деятельности самих алгоритмов.

Тем не менее, новые данные от людей будут поступать прежде всего в местах географической локализации дата-центров, то есть от общества США, КНР и добавлю вскоре - ЕС. В этих странах количество данных от людей вырастет.

Особенность местных обществ - биологическое старение людей. Молодая замещающая эмиграция сюда не меняет сам культурный код угасающих местных обществ. Данные будут касаться прежде всего угасающих человеческих популяций. То есть - касаться старения как биологического, так и культурного.

Нежелание рожать детей ради гедонизма - то есть культура медленной комфортной смерти - основная популяционная характеристика этих обществ. Даже Маск с его "Марсом" - это отсюда. AGI как минимум США и ЕС будет обучаться культуре угасания и смерти как чего-то не совсем негативного.

2. Китай. Тут депопуляция имеет сильный иной компонент в культуре угасания. Китай при переходе к реформам пошел на сознательное жесткое регулирование количества детей в семьях. То есть заплатил за догоняющее развитие и превращение во вторую экономическую и технологическую державу планеты нерожденными детьми.

Сейчас причина депопуляции Китая уже в том же обществе потребления и желании обывателя комфортно жить без детей. Но все таки в общественной памяти есть пункт о плате нерожденными детьми за развитие.

В Китае AGI будет добирать данные от людей с иной культурной составляющей, чем в США и ЕС. Популяционно - менее негативистской.

3. В Африке и некоторых других регионах планеты высокая естественная рождаемость продлится еще не меньше 10-15 лет. То есть охват сбором данных этих регионов будет улавливать культурный импульс из этих регионов, нацеленный на витальность.

Вывод: общественные актуалии и особенно общественные дискуссии в США и ЕС несут в себе риск, даже угрозу программирования своими данными их AGI на нечто напоминающее идеологию суицида. А дифференциация в доступе разных регионов планеты к ИИ и особенно к скорому AGI - имеет как минусы для мира вне США и ЕС, так и не только минусы.

https://www.nytimes.com/interactive/2025/06/23/technology/ai-computing-global-divide.html
👍43
Суммы и темпы инвестиций в ЦОДы связанные с ИИ в западном мире, прежде всего в США: "...масштабное строительства центров обработки данных, капитальные затраты на которые в этом (2025) году достигнут 330 миллиардов долларов." Доходы тоже идут.

То есть теоретически инвестиционный цикл в ИИ начал давать хорошую отдачу. Особо затратный фундаментальный период пройден и все выходит на некую финишную прямую. Если, конечно, цифры верны.

Технологически вершиной этого цикла должно стать, скорее всего. появление AGI. И это изделие теперь есть куда встроить.

Тогда следующий большой инвестиционный цикл должен начаться относительно скоро. И он должен включать в себя подготовку к чему-то новому большому. Этот новый большой инвестиционно-технологический цикл должен разрабатываться уже сейчас. А начаться по мере освоения AGI. Логично ожидать, что речь идет про подготовку к ASI. Но под это подходит и марсианская программа Маска. Может быть и что-то еще.

Учитывая сокращение времени инвестиционно-технологических циклов этот новый цикл в его фундаментальной затратной фазе должен начать достаточно скоро.

Если так, то скоро человечество должно получить из США два идеологических импульса сразу: "потребительский" связанный с переходом к проектам с использованием AGI. И визионерский, связанный с началом утробной фазы еще более масштабного технологического проекта.

https://www.reuters.com/business/microsoft-spend-record-30-billion-this-quarter-ai-investments-pay-off-2025-07-30/
👍4
Маск фактически "сдвигает" свой недавно объявленный график запуска ракет к Марсу как минимум на 26 месяцев. А реально, скорее в лучшем случае на 52 месяца, от конца 2026 года считая.

Строго говоря, он оговаривался насчет того, что график реалистичен 50 на 50. Принципиально это по Марсу мало что меняет.

Но этот новый график означает резкое замедление и сокращение "Золотого купола" Трампа, где у Маска большая потенциальная функция.

Параметры сокращенного варианта Золотого купола - вопрос политический. Касается как следующих президентских выборов в США. Так и готовности США к эскалации конфликтных отношений с Китаем в момент, когда:
- Китай выходит на финишную прямую к своей цели стать первой экономикой планеты по объему.
- Китай выходит на такой же финиш своей установки на планетарное лидерство по ИИ.
- США и Китай создают AGI и начинается биполярная гонка за лидерство в применении AGI.

https://wccftech.com/spacex-starship-will-be-3-times-as-powerful-as-nasa-rocket-which-sent-astronauts-to-the-moon-says-elon-musk/
4
Сергей Карелов ссылается на интересное исследование: "22 миллиарда новых «собеседников» рождается каждый месяц. И все они — клоны.
Каждый день на планете появляется 720 миллионов новых цифровых сущностей — в 5 раз больше, чем людей рождается за целый год. Все они «рождаются» в процессе наших диалогов с ИИ-чатботами: ChatGPT, Claude, Gemini... " ( https://xn--r1a.website/theworldisnoteasy/2193 )

Отдаленные аналоги этому можно в истории найти. Максимум, скорее всего - это религиозная система, которая установилась в самой крупной империи древности, существовавшей до создания европейских колониальных империй. В Монгольской империи ключевой религией было своеобразно реформированное тенгрианство. Оно как бы покрывало культом Синего Неба громадное количество "существ", "населявших" все вокруг. И в других религиях и учениях в рамках монгольской империи стмулировалось развитие течений, которые обращались к прямому контакту с разными духовными "сущностями". В нашей традиции - ангелы вполне сочетались с кикиморами, домовыми, упырями и т.д.

Я как-то строил модель, сводившую эти существа в систему. У меня получилось, что количество этих "существ" зависело от степени психической "силы" человека и разных социумов. Чем больше энергии было у людей, тем большее количество таких "сущностей" они могли иметь в своем сознании и тем интенсивнее с "общаться".

Этот объем энергии в принципе хотя бы примерно можно изучить и зафиксировать и в зависимости от него подсчитать количество и качество таких находившихся "в обороте" людей того времени "сущностей".

ИИ-агенты и ассистенты тоже могут быть классифицированы и по способности психики людей держать их в своем уме и по объему энергии, каналам связи и "железу", которые эти ИИ-"сущности" поддерживают.

Стандартизация таких ИИ-"сущностей" - тоже кажется логичной. Сергей Карелов говорит о Западе (прежде всего США и ЕС). Там сейчас сформировано общество потребления с очень управляемой, стандартизированной и простой шкалой потребительских интересов. Это общество в огромной степени лишено даже инстинкта продолжения своего рода. Оно не может порождать большого разнообразия формирующихся в ходе диалога с этими людьми и управления ими ИИ-"сущностей".
1😁1
Эмпирические цифры по очень высокой стандартизации ИИ-"собеседников", обучающихся от людей. На них ссылается Сергей Карелов. (См.линк). Внешне впечатление, что они должны верно улавливать тенденцию.

Еще один их аспект: эти "цифры" выводят на свет из-под идеологического зонтика невысокое значение сейчас для развития технологий широкой общественной дискуссии в развитых западных обществах.

С точки зрения либеральной идеологии обеспечение в этой части мира человека огромной степенью личных свобод и доступом к знаниям и глобальной коммуникации всех типов должно превратить общество в поставщика интеллектуального разнообразия. А, значит, общество должно было бы в ходе дискуссий резко увеличить свою продуктивность в качестве создателя научных идей и технологий. Скорее всего, так и было в некоторые периоды ранее.

Но происходящий сейчас грандиозный технологический переворот на деле осуществляется узким кругом специалистов, занятых в совсем небольшом количестве корпораций. Широкая общественная дискуссия на развитие этих технологий особого влияния не оказывает. Цифры по ИИ-"собеседникам" - вообще показатель очень невысокой творческой результативности общественных дискуссий.

Конечно, надо делать поправку, что речь идет о результативности настроенных на популяционное угасание части обществ прежде всего США и ЕС. Реальная их нынешняя некреативность может отражать культуру угасания именно их, не всего человечества.

Но при любой оценке, эти цифры - внеидеологический маркер той политической системы, которая сейчас вырастает в особо развитой части мира. Общественная дискуссия не порождает большого потока новых данных, а производственная мощность ИИ технологий требует новых данных (в том числе идей) во все большем количестве.

Говоря очень осторожно: политический вес в развитой части мира должен сейчас уходить тем, кто эти большие данные предоставит. От тех, кто их в достаточной мере не дает.

И последнее: речь пока должна идти только о тенденциях, не о радикальных формулировках. Ибо громадный технологический переворот на планете еще не завершился и процессы еще не устоялись.

https://www.youtube.com/watch?v=RqUhwAIliTs
1👍1
Генетическое планирование человеческих эмбрионов (см., например, оба линка).
1. Этические проблемы и споры вокруг евгеники - для потребительского общества, надо признавать, оказались не сложными. Технология развивается достаточно быстро.
Но, отметим, что теоретически против этого может выступить Россия как особый случай в нынешней мировой технологической геополитике.

2. Развитие этой технологии уже допустимо синхронизировать с прогнозами развития ИИ и некоторых других направлений в биотехе. Прежде всего, - AGI и нейроинтерфейсов.

Генетическая селекция людей на уровне эмбрионов имеет социальное значение в основном при искусственном вынашивании и потом организованном воспитании масс таких младенцев.

Единичные случаи, как тот, который приписывают одному из детей Маска - это слишком долго: лет 20-25 на воспитание и только тогда социальная оценка произведенного человека. За это время эпоха AGI приблизится к эре ASI. Технология генетической селекции должна быть массово применена быстрее или не быть социально заметной.

Пока впечатление, что глубокое вмешательство в гены эмбрионов, надежная искусственная матка, надежные нейроинтерфейсы и сильные массовые AGI должны развиться примерно одновременно.

Вряд ли что-то сможет помешать совмещению этих технологий. Объявленные примерные параметры, например, Stargate точно создают предпосылки к этому.

Эпоха AGI в таком случае становится периодом, когда из человеческого генома будет вытянут и масштабирован максимум заложенных в него потенций. И это будет совмещено с прямым управлением или взаимодействием с AGI.

Тут находится технологический вопрос, на который пока ответить сложно, так как нет эмпирических данных: насколько мощно то, что заложено в человеческом геноме относительно создаваемых цифровых систем? Будет ли переход к ASI включать в себя в качестве носителя сознания преемственные к человеческому геному элементы или он обойдется без них?

Экзистенциальный и даже метафизический вопрос для человечества. Сохранится ли в эпоху ASI прямая преемственность к загадке человеческой сущности и самой жизни или нет?

Или иными словами будет ли работать в эпоху AGI и даже ASI этика, основанная на некоей форме клятвы Гиппократа?

https://www.washingtonpost.com/technology/2025/07/16/orchid-polygenic-screening-embryos-fertility/

https://ca.news.yahoo.com/ivf-startup-claims-predict-embryos-143017751.html?guccounter=1
5
ИИ, ЦОДы, климат. Аризона, Калифорния, Техас...
Одно исследование (см.линк и цитаты ниже). Тенденцию, видимо, улавливает точно:"...сегодня 56% дата-центров [в мире] находятся в зоне высокого или очень высокого риска из-за повышения температур, то к 2040 году эта цифра может вырасти до 68%."

То есть:
1. Конкурентная гонка за лидерство в ИИ заставляет экономить на нулевом цикле. Энергетика и вода подводятся к ЦОДам в среднесрочной перспективе несбалансированно. Предпосылки к кризису перепроизводства через ресурсные и политические риски - неостановимо усиливаются.

Отметим: в Китае с этим все сбалансированнее, чем в США и ЕС.

2. Значение климатического регулирования в США и Китае по мере перехода гонки ИИ в гонку вокруг применения AGI резко вырастет. Это станет проблемой национальной безопасности и фактором глобального лидерства.

Плановая структура наполнения данными в США тоже показывает особый рост данных, касающихся климата, космического зондирования Земли и наук о Земле в целом.

3. Переход к гонке AGI - это накопление в 3-4 ведущих геополитических центрах планеты особо крупного объема потребностей в регулировании климата и состояния Земной коры и связанных с этим технологий.

Из подвластной человеку части Земной коры и поверхности будет вытягиваться все, что возможно. Точно так как будет вытягиваться все, что возможно из человеческого генома, а также, видимо, геномов основных элементов животного и растительного мира. Если тут допустим и достаточен термин "геном".

4. Переход к ASI будет диктоваться не только внутренним прогрессом в развитии ИИ технологий, но и исчерпанием доступных ресурсов Земли и биосферы. Даже если не учитывать вероятный форс-мажор в виде техногенной катастрофы.

Относительно скорая эпоха ASI - это освоение разумом новых больших пространств. На слуху - космос. Но может быть быстрее накопятся данные и технологии и для чего-то иного.

Еще одна цитата:
"...растущий спрос на воду может вызвать социальные и политические конфликты в некоторых сообществах, при этом ожидается, что к 2030 году более половины (52%) центров обработки данных окажутся в районах с высоким и очень высоким уровнем нехватки воды."

https://www.techradar.com/pro/many-top-data-center-locations-could-be-at-risk-of-climate-change
👍1
Поршнев.
Алексей Чадаев, суггестия в человеке.
Не втягиваясь пока в очень интересный вопрос по суггестии в человеке по существу:
1. В человеке, в том числе в его сознании, обязательно должно быть что-то, что подлежит коррекции. В любом живом существе оно есть. И после коррекции что-то, что не заметили и не изъяли все равно еще останется. Жизнь и состоит во многом в постоянной такой коррекции.

То есть под определение человека подпадает не все, что его составляет на деле.

Так же и под определение всех живых объектов и биосферы в целом.

2. Какая часть этого подлежащего коррекции сегмента человека и человечества и биосферы переходит на обучающиеся от него них ИИ сама? А какая должна быть заложена в ИИ искусственно?
Какая часть собственного несовершенства машинного интеллекта является подлежащей в разное время коррекции (а она должна быть по определению жизни через такую коррекцию)?
Как два подлежащих коррекции несовершенства должны сочетаться в машинном "сознании"?
Какая часть от них всегда будет сохраняться в машинном "сознании", после всех коррекций?

Это должно быть в общих чертах рассчитано, исходя не только из закладываемой эффективности ИИ, но и из соображений технологической безопасности ИИ.

3. Обучение ИИ от сознания каких людей и каких человеческих социумов надо закладывать в ядро машинного "интеллекта" и как и надо ли пополнять его в ходе машинной жизни ИИ?

В категориях религии как социального организма речь идет о людях как святых и, возможно, о людских социумах как своего рода коллективных святых, от которых в какой-то степени надо обучать и дообучать ИИ. Напоминает, например, Сергия Радонежского с его медведями в лесу.

Это становится особенно важно со скорым вероятным появлением AGI и нейроинтерфейсов.

Хорошая методологическая и метафорическая "наводка" на решение части проблем безопасности, связанных с развитием ИИ. Особенно AGI. И особенно тоже вероятного скорого перехода AGI в ASI.

Цитата из Алексея Чадаева:
"далеко не все троглодиты автоматически стали людьми, освоив контрсуггестию. И не сразу. Более того: контрсуггестия изначально появилась и развилась не у альфа-особей, а наоборот — у слабых, у тех, кого угнетали и попросту ели; и, более того, в каком-то смысле "разводили на еду". То есть у тех, у кого базовый навык — собственно суггестия — выражен заведомо слабее, чем у "хозяев жизни". Говоря по-современному — у "лохов"; это было как бы их защитным секретным оружием.

И очень-очень долгое время, во много раз дольше, чем вся письменная история, проточеловечество существовало под дамокловым мечом экзистенциальной угрозы — условно говоря, что придёт "такой же, как и ты", но суггестивно более сильный, посмотрит тебе в глаза, раздавит и подчинит твою волю, и дальше уже неважно, что с тобой будет — никакого "тебя" уже больше не будет, даже если твоё тело съедят не сразу, а чуть погодя. И бежало от неё куда глаза глядят, любой ценой — именно движимое этим страхом, оно и заселило планету. Но бежать-то было в каком-то смысле некуда, потому что гены "суггесторов" существовали в их собственной популяции, и воспроизводились с завидной регулярностью на любом новом месте. "


https://xn--r1a.website/chadayevru/3992
🔥2🤔1
Neuralink. Аспект, связанный с управлением роботами.
1. Эти устройства вряд ли превратят подключенных к человеку через них роботов в полных аватаров оператора-человека. На разных уровнях к управлению роботами будут допущены разные ИИ. В том числе, наверняка, масса из этих ИИ будет подключена к сетям.

Роботы не будут полностью подконтрольны оператору-человеку. Надо будет при управлении роботом учитывать машинный интеллект и не один.

2. Наиболее не изученный тут момент - возникающий, но еще не возникший AGI. К моменту более менее массового распространения Neuralink AGI уже должен быть тоже более менее развит и начнет распространяться.

Скорее всего Neuralink будет использоваться прежде всего там, где будет и AGI. Маск не раз вообще говорил, что человечество не справится с AGI без Neuralink. Как будет строиться взаимодействие в связке оператор-человек - Neuralink - AGI? Например, на поле боя, насыщенном дронами всех типов. Если ведущим в связке будет определен человек, каким образом он сможет управлять AGI?

Сложно представить себе директивное управление человеком такой сложной "машиной" как AGI. Тут скорее надо искать управления через социальность, через социум в составе как минимум одного человека и одного AGI. А скорее всего, социум сразу будет включать в себя массу машинных интеллектов, связанных с отдельными роботами-дронами, AGI и человека с Neuralink.

Через какие социальные механизмы тут будет устанавливаться место человека? особенно если человек в этом социуме будет предопределяться в качестве лидера? Должно сразу закладываться что-то общее на ценностном уровне между человеком и машинным интеллектом, прежде всего AGI. И вокруг этого строиться эмпатийная связь. В эмпатию ИИ уже умеет.

То есть ИИ, особенно AGI, должен будет сразу обучаться от человека и его социумов. От каких? От чисто профессиональных коллективов в сфере применения такой связки? От военных коллективов, например? Или обучение таких сложных ИИ лучше начинать с обучения в рамках семьи, проводить через обучение у моральных авторитетов и лишь потом - профессиональный коллектив.

То есть надо ли в самом скором будущем проводить обучение ИИ и особенно AGI в виде ускоренного повторения пути человеческого ребенка? Или будет достаточно только обучения у профессионального коллектива людей?

Сейчас в этом смысле идет обучение ИИ от пользователей Интернет в целом, то есть от более менее взрослых людей. Раннее детство в обучении ИИ отключено.

Понятно, что мне пока видится необходимым проводить обучение AGI как детей. Это - обычный путь развития любой системы: зарождение-опека над беспомощным ребенком-обучение ребенка-созревание-работа-смерть.

Но есть вопрос о качестве воспитания детей в развитой части мира. В этой части мира человеческая популяция уже на продолжение себя заведение детей не настроена. Эмпатийная связь между гедонистичным оператором и AGI не может строиться вокруг ядра сознания, в котором есть место детям.

Тогда у каких социумов учить AGI? Какие человеческие социумы в самом ближайшем будущем надо определять в качестве носителей человеческой нормы?

На ком обучать AGI?

https://www.youtube.com/watch?v=FASMejN_5gs
👍21
Продублирую и тут свой недавний пост в одной из соцсетей. Он так или иначе касается моих аккаунтов во всех соцсетях:
"1. Социальные сети в привычном смысле я сейчас не веду. То есть смысл аккаунта - не в общении, а в публикации каких-то моих рабочих концептуальных схем и новостей по моим поездкам. Для общения лучше писать мне в мессенджер.
2. Френд-ленту стараюсь читать.
3. Целевая группа тут у меня сейчас:
- старые френды и
- ИИ-агенты. ИИ-агенты важны все более. С текущего 2025 года эти агенты стали основным или почти основным потребителем контента крупных соцсетей. У меня с этой целевой группой своя система коммуникации. Отсюда - такое большое количество тут концептуальных постов."
👍7
Новые массовые модели ИИ должны начать формулировать новые научные законы. Лидеры отрасли утверждают, что это должно произойти в ближайшее время. Возможно, уже началось (см. цитату и линк ниже). Если так, то касательно науки как социального института:
1. Очень быстро должно быть уменьшено значение в науке "маленького человека". Наука изначально - это сфера монастырского и подвижнического толка. Для науки абсурд - клерк, аккуратный исполнитель, узкий специалист - по сути конвейерный рабочий индустриальной эпохи. Полностью от "сальери" избавиться невозможно, но значение исполнителей рутинных задач ИИ сейчас должен резко ослабить.

Значение коллективов исследователей, нацеленных на большие прорывы в науке, должно вырасти. А вместе с тем в науке должны вновь усиливаться социальные институты научных школ вокруг не производственных задач, а - вокруг авторитетов-подвижников.

2. Темпы технологического развития настолько растут, что формирование научных школ вокруг авторитетов-подвижников не успевает стать устойчивым. Авторитеты быстро обесцениваются, ученики не успевают отформироваться в устойчивую школу. Наука как социальный институт не успевает вернуться к цеховому состоянию доиндустриальной эпохи.

Вероятное скорое появление AGI вообще ставит под сомнение возможность существования самого учителя-подвижника. Скорее подвижники-потенциальные ученики будут ориентироваться на конкретный AGI.

Период, когда распад прежних структур науки еще не завершится, а новые структуры не устоятся составит характеристику науки как социального института на время доминирования в технологиях AGI. Универсальную модель управления наукой в период AGI создать невозможно.

3. Автоматизация формулировки новых законов "физики" и других наук, формирования инструментами ИИ новых частных наук ограничено объемами энергии, находящейся в распоряжении человечества. С этим связаны объемы поступающих новых данных для анализа.

Новая устойчивая социальная форма науки должна сформироваться вокруг поиска следующего энергетического рывка человечества. Скорее всего его маркером или даже стержнем станет переход к ASI. Это должно произойти относительно быстро.

Пока же переход к AGI запускает конкуренцию разных AGI и связанных с ними социумов между собой. В ходе конкуренции будет происходить формирование новой структуры управления ресурсами человечества. Будет формироваться и управленческое ядро новой "глобальной" структуры.

В этом ядре и будет потребность в новых фундаментальных знаниях. Теоретически там должна кристаллизоваться новая социальная форма науки. В рамках обычного синтеза "уполномоченного" мэйнстрима и новых "диссидентов".

Праобраз этой будущей устойчивой социальной формы науки сейчас должен формироваться в той части современного мира науки, которая быстрее других освоит ИИ и особенно AGI. Сюда же - нейроинтерфейсы. Скорее всего в области наук о Земле, где придется решать особенно много вопросов глобальной безопасности и поиска новых видов энергии для использования в производстве.

Хорошая цитата ( https://xn--r1a.website/eveningprophet/3097 ) :
"Я давно это обещал, года два как, и это случилось - ИИ начал создавать законы физики ( https://www.pnas.org/doi/10.1073/pnas.2505725122 ). Не помогать в вычислениях, а именно что находит скрытые закономерности и формулировать их."
👍2
Ответил на вопросы "СБ.Беларусь сегодня" и "РТР-Беларусь" по международным отношениям.
4👍2😁1
Угроза техногенной катастрофы, связанная с ИИ. Вариант Хинтона "Через 5-20 лет вероятность, столкнуться с тем, что AI-алгоритмы попытаются взять верх над человечеством, составляет примерно 50%."

1. Это касается эпохи вероятного скорого AGI. Напоминает угрозу "ядерной зимы" времен Холодной войны. Впрочем, и до сих пор. Максимальное последствие выхода максимально доступной человеку разрушительной технологии из-под контроля человечества.

Варианты предотвращения такой катастрофы - отдельная важная тема.

2. Развитие ИИ и переход к AGI резко нивелируют угрозу именно ядерной катастрофы. Также, если дастся обойтись без катастрофы, связанной с развитием ИИ технологий, внутри эпохи AGI должна сформировать технология, которая нивелирует угрозу катастрофы связанной с ИИ. Это станет чертой следующей эпохи - условно назовем ее эпохой ASI.

Речь идет про относительно короткое время. Примерные прогнозные графики вероятного прихода AGI и затем ASI хорошо известны. Человек за время AGI исчезнуть не успевает.

3. Если видеть угрозу от ИИ через Хинтона, то есть, в частности, в связи с разными принципами языков ИИ и человека, значит, эпоха ASI будет связана с преодолением этого момента. То есть для ASI потребуется новый язык, связанный наверняка с новыми носителями информации.

Сейчас на слуху кванты и квантовые технологии. Они, как сейчас чаще в общественном пространстве всего видится, должны прийти на смену условному процессору. В квантовом "мире" действительно намечаются совсем иные носители, чем сейчас.

Но пока точка бифуркации, связанная с выбором именно в пользу квантовых технологий еще не пройдена. Значит, параллельно должны развиваться и иные технологические предложения для преодоления "проклятия" угрозы от AGI и вообще для развития дальше.

Иллюстрация другого решения: Маск с его марсианской программой. Но должны предлагать пока это возможно решения и еще. Так всегда бывает перед прохождением точки бифуркации. Предложений всегда хотя бы несколько.

Источники по тезисам Хинтона:
"«Крестный отец» искусственного интеллекта и лауреат Нобелевской премии по физике 2024 года Джеффри Хинтон объяснил, почему считает, что искусственный интеллект в конечном итоге превзойдет биологический."
https://www.youtube.com/watch?v=MGJpR591oaM

"Лингвисты (особенно школа Хомского) делали ставку на символы и синтаксис. Хинтон утверждает: язык — это прежде всего средство построения моделей мира, а не синтаксические игры. Значение слова можно рассматривать и как отношения к другим словам (граф), и как вектор признаков; нейросети объединяют эти взгляды."
https://www.youtube.com/watch?v=IkdziSLYzHw
2🔥2
"Китай выпустил рекомендации по разработке интерфейсов мозг-компьютер, стремясь стать мировым лидером к 2030 году" (цитата ниже)
Примерно к этому году КНР предполагает стать лидером в ИИ (то есть уже и в вероятном AGI).

О логике новой глобальной биполярности по Китай\США по сравнению с биполярностью СССР\США я уже недавно писал.

Сейчас про другой момент:
в гонке AGI Китай применит их к ускоренному развитию отчасти иных других отраслей, чем США. Ускоренный рост отчасти разных отраслей в двух странах должен вызвать быстрый рост разницы в типах глобальных научно-технологических пирамид, которые США и Китай предлагают человечеству.

Например, очевидно, что Китай будет широко применять AGI для развития своей ставшей грандиозной энергетики. Особенно того энергокольца, которое сейчас формируется на базе передачи энергии по лини Восток-Запад.

Плюс, города и инфраструктура полуторамиллиардной страны.

Эта разница должна быстро стать так велика, что есть риск возникновения двух плохо совместимых вариантов глобальных научно-технологических пирамид.

Обострение борьбы за ресурсы планеты плохо совместимых глобальных НТ пирамид- это уже нечто напоминающее ядерное противостояние и противостояние общественных систем СССР и США во время прошлой холодной войны.

То есть переход от эпохи вероятного скорого AGI к эпохе ASI в США и Китае скорее всего произойдет примерно одновременно и параллельно. Новой глобализации и единой глобальной ASI может и не возникнуть. Скорее надо ожидать появления на планете как минимум двух ASI сразу.

Что ставит под вопрос как минимум созданную романтичными "либеральными" технарями нынешнюю теорию "сингулярности" (AGI, ASI) в ее практической части.

Цитата:
"В целях ускорения новых технологических инноваций семь китайских правительственных учреждений, включая Министерство промышленности и информационных технологий (MIIT), выпустили комплексный план реализации для продвижения развития индустрии интерфейсов мозг-компьютер (BCI) и позиционирования Китая в качестве мирового лидера в этой передовой области к 2030 году.

"К 2027 году Китай намерен совершить прорыв в основных инновациях ИМК и создать передовые технологические стандарты. Ожидается, что критически важные компоненты, такие как электроды, чипы и интегрированные устройства, будут соответствовать ведущим международным стандартам, а их применение будет расширяться в промышленном производстве, здравоохранении и т. д. План также нацелен на формирование 2–3 промышленных кластеров и разработку новых бизнес-моделей и приложений.

К 2030 году Китай намерен развивать 2–3 глобально влиятельных предприятия наряду с группой специализированных малых и средних фирм, чтобы укрепить свои конкурентные позиции на рынке ИМК.

Ключевым направлением будет разработка передовых чипов BCI, которые могут обнаруживать более детальную активность мозга с большей точностью, работать на более высоких скоростях с меньшим энергопотреблением и обеспечивать стабильную передачу данных без помех между мозгом и устройствами."

https://www.globaltimes.cn/page/202508/1340328.shtml
3👍3
Утром был на стриме у Вадима Шепета на радио Альфа. По международной повестке.
Если кому надо:
уже должно быть на ТВ СБ Беларусь сегодня и Ютюбе. Отрывки обычно в течение дня там же на сайте уже газеты и на БЕЛТА.
👍5
Отсчет времени до потенциально вероятной большой катастрофы, связанной с ИИ.

Интересно кладется на массу политических графиков.

В принципе, это оборотная сторона ожидаемого появления примерно в эти же сроки AGI.

Понятно, и где наибольшие риски такой вероятной техногенной катастрофы.

Цитата:
"Cреди наиболее интересных и впечатляющих выводов отчета - расчет времени до появления у ИИ способностей, потенциально достаточных, чтобы стать источником катастрофических рисков.

Уточненные расчеты показывают, что, согласно текущему тренду, такие способности могут появиться:
• самое раннее - в январе 2027
• самое позднее – в феврале 2028"

https://xn--r1a.website/theworldisnoteasy/2199
👍2😱1🆒1
"Альтман нанес ответный удар Маску: OpenAI инвестирует в конкурента Neuralink". В Китае тоже есть движение в этой технологии.

А будут ли вводиться технологические стандарты, которые сделают затрудненным или невозможным коммуникацию между нейроинтерфейсами разных производителей.

По идее, это логично.

В таком случае человечество стоит за полшага от создания рукотворных рас.
А та скорость и риски, на которые идут производители в США на этом пути имеет оправдание не в самой эффективности коммуникации человек-нейроинтерфейс-машина, а в ожидаемом кумулятивном эффекте от выхода на "рынок" сразу большого количества таких интерфейсов. Эффективность должен давать не отдельный человек и интерфейс. а сразу социум людей, которые с помощью интерфейсов общаются друг с другом.

И вот тут, в этой новой социальности скорее всего и находятся и скачок в конкурентоспобности таких социумов и технологические риски, которые просчитать сейчас сложно. Но риски возникнут мгновенно. Разные технологические стандарты нейроинтерфейсов от разных производителей - это хоть какая-то защита от единого "восстания машин". Но формы социализации таких систем - это ускоренная эволюция этих существ. И вот ее направление - это вопрос.

Скорее всего, прогноз жизнеспособных линий в этой эволюции должен дать анализ истории человечества и его соматической природы. Сейчас должен произойти тот этап в эволюции, который теоретически должен быть виден как тенденция на эволюционных скачках, через которые человечество уже прошло.

Это не концепция, а моя заметка, мимолетное рассуждение на тему.


https://hightech.plus/2025/08/13/altman-nanes-otvetnii-udar-masku-openai-investiruet-v-konkurenta-neuralink
👍31