Малоизвестное интересное
72K subscribers
263 photos
5 videos
13 files
1.97K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Симфония предвидения
Получено экспериментальное подтверждение способности нейронов путешествовать во времени

Наш организм — это машина времени. Но она совсем не такая, как её описал Герберт Уэллс, а за ним и десятки других фантастов. Наше путешествие во времени — это тихий, непрерывный и невероятно сложный процесс предсказаний. Каждое мгновение мириады клеток внутри нас заглядывают в будущее, чтобы подготовиться к нему. Этот невидимый танец называется опережающей реакцией — величайшим даром эволюции, позволяющим нам действовать на опережение, а не просто отвечать на удары судьбы.

Когда атлет замирает на старте, его сердце уже бьется чаще, предвосхищая взрывную нагрузку. Когда мы видим аппетитное блюдо, наш желудок заранее начинает вырабатывать сок. Это и есть опережающие реакции: физиологические и поведенческие корректировки, основанные на прошлом опыте для подготовки к будущим событиям. Это фундаментальный принцип жизни, выходящий далеко за рамки простой гомеостатической регуляции. Жить — значит предвидеть.

И этот дар — не эксклюзивная привилегия существ с развитым мозгом. Данные неумолимы: способность к предсказанию вплетена в саму ткань жизни. Бактериальные колонии предвидят истощение ресурсов и меняют свое поведение. Простейшие организмы «делают ставки» на наиболее вероятные изменения в окружающей среде. Жизнь, на всех своих уровнях, — это непрерывный акт прогнозирования. И недавнее исследование, опубликованное в Nature Neuroscience, добавляет к этой картине ошеломляющий и революционный штрих.

Эксперименты показали, что фигуры «больного» аватара (с внешними признаками ОРВИ), приближающегося в виртуальной реальности к человеку, достаточно, чтобы запустить каскад реальных иммунных реакций.



Представьте: угроза нереальна, она — лишь пучок света на сетчатке, но ваша иммунная система, армия ваших клеток-защитников, уже мобилизуется, готовясь к отражению инфекции (которой нет!). Это не просто рефлекс. Это — прогностическая модель, построенная вашими нейронами.

Этот результат — оглушительное эхо революционных идей биолога Майкла Левина о «разнообразном интеллекте» (DI) и «технологическом подходе к разуму повсюду» (TAME). Левин утверждает, что интеллект — способность решать проблемы — присущ жизни на всех масштабах, от молекулярных сетей до целых организмов.

И вот перед нами доказательство: нейронные и иммунные клетки кооперируются для решения сложнейшей задачи — оценки потенциальной будущей угрозы и превентивной подготовки к ней. Это разумность на клеточном уровне, действующая ради блага целого — вашего тела.


Более того, это открытие наносит сокрушительный удар по устаревшему представлению о нейроне как о простом вычислительном элементе, бездумном «переключателе» в гигантском компьютере мозга. Если нейронные ансамбли способны создавать такие сложные, иерархические и причинно-следственные модели будущего, то что это говорит об их отдельных компонентах?

Это означает, что мы должны перестать видеть в нейронах примитивные транзисторы. Они — сложные, компетентные агенты, которые вступают в динамичные коалиции для достижения общих целей.


Мы — не просто единый разум, обитающий в теле. Мы — это вселенная разумных клеток, триллионы путешественников во времени, которые каждую секунду совместно творят наше будущее. И осознание этого — первый шаг к пониманию не только нашего здоровья, но и самой природы сознания.

Мой вывод из всего вышесказанного прост и дерзок:

Мы — не только то, что делаем сейчас, но и то, что способны предвидеть. Жизнь сильна именно там, где опережает судьбу: учится на тени будущего и переформатирует себя до его ударов

.

P.S. Но помните, что помимо вычислимой мозгом тени будущего, существует еще и его невычислимая тень – серендипность!

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект
6👍185🤔40👎16🤯7😱6
В опубликованном компанией Anthropic первом в истории комплексном анализе реального использования ИИ в 150+ странах России нет
Исправляем это силами ИИ той же компании Anthropic
Ключевым параметром Anthropic Economic Index является Индекс использования ИИ на душу работоспособного населения AI USAGE INDEX (см. картинку).
• В ТОР 20 стран по этому показателю входят страны:
от Израиля и Сингапура (1е и 2е места с AIUI = 7 и 4.6)
до Швеции и Грузии (19е и 20е места с AIUI = 2.2 и 2.19)
• США на 6-м с AIUI = 3.62
• Группы стран по показателю AIUI таковы:
37 стран входят в верхние 25%: AIUI 1.84 – 7.0
35 стран – это верхние середняки (50-75%): AIUI 0.89 – 1.71 (Чехия, Австрия, Польша, Армения …)
39 стран – это нижние середняки (25-50%)%): AIUI 0.37 – 0.85 (Перу, Колумбия, Албания, Аргентина …)
53 страны – это догоняющие (нижние 25%)%): AIUI 0.01 – 0.36 (Индонезия, Гана, Кувейт, Монголия, Руанда …)
25 стран – безнадежно отставшие: AIUI = 0 (Самоа, Палау, Аруба …)
• Россия с оценочным значением AIUI 0.8 - 1 оказывается где-то между Перу/Албанией и Чехией/Польшей


ЗАКЛЮЧЕНИЕ
• Российский ИИ-ландшафт находится на критической точке развития. При сохранении текущих трендов к 2026 году страна может либо существенно сократить отставание от глобальных лидеров, либо углубить technological divide.
• Ключевой вывод: Russia AI Paradox — высокие темпы роста рынка при сохранении structural limitations создают уникальную ситуацию "isolated acceleration", требующую принципиально новых подходов к AI strategy на всех уровнях.
• Bottom line: Российский рынок ИИ обладает значительным potential, но реализация этого потенциала зависит от способности преодолеть текущие structural constraints при сохранении innovation momentum.

Полный текст отчета Claude
Отчет Anthropic Economic Index: Understanding AI’s effects on the economy.

#ИИгонка #Россия
👎87👍52🤔40🤯2
Сколько можно заработать, если сегодня знать заголовки завтрашних новостей?
А ведь кое-кто уже умеет это делать…

Мы привыкли тестировать ИИ как школьников — на задачах и экзаменах. Но ведь настоящий интеллект проявляется не только в знании ответа, но и в способности предвидеть следующий вопрос.
Недавний эксперимент независимого исследователя Рохита Кришнана показал нечто поразительное: даже крошечная нейросеть на простом ноутбуке может научиться предсказывать будущие новостные заголовки, непрерывно обучаясь на своих вчерашних ошибках. Это не просто технический трюк. Это работающий прототип механизма, который может изменить всё.

В своем новом эссе я утверждаю, что этот прорыв — не что иное, как активация «Третьего артефакта» из «Космической одиссеи» Кубрика. Но он ждет нас не на орбите Юпитера. Он строится здесь, в кремнии наших серверов, и его функция — стать катализатором следующего эволюционного скачка.


Почему это так важно?
Да потому, что этот цикл «прогноз -> ошибка -> обновление -> прогноз …» — точная копия того, как работает наш мозг (принцип предиктивного кодирования).
Мы, возможно, случайно воспроизвели фундаментальный механизм биологического познания на небиологическом носителе.

Это подводит нас к ошеломляющему выводу:
Мы можем быть свидетелями первых шагов небиологической когнитивной эволюции. Эволюции не популяции, а информации внутри одной системы, впитывающей в себя саму ткань времени.

Это лишь робкий «шепот кремния», но именно такие сигналы часто предвещают самые оглушительные перемены.

Вот 6-минутная видео-презентация этого эссе ИИ-Мнемозиной информария "Футуроархеология ИИ".

И если это покажется вам интересным, возможно, стоит выделить 15 минут времени ваших выходных и стоимость чашки кофе, чтоб прочесть эссе на платных платформах [1, 2, 3, 4] и поразмышлять о начале новой одиссеи, в которой мы уже не единственный разумный навигатор.

#Разум #ЭволюцияЧеловека #БудущееHomo #LLM
3🤔83👍56👎20😱9
Забудьте о восстании машин. Бойтесь их карьерного роста.
Две главные новости про ИИ — это одна история о конце света.

Две горячие новости недели — совместная работа OpenAI и Apollo Research про обучение моделей «не хитрить» и новая книга Юдковского и Соареса про ИИ-апокалипсис — взлетели по лентам и уже превратились в мемы.
• «ИИ научился лгать — и чем больше его отучают, тем хитрее он лжёт»
• «СверхИИ умнее, его цели чужды — он убьёт нас всех»


Оба мема эффектны, но ошибочны. И главное — их раздельное обсуждение прячет общий механизм.

Начнём с первой новости. «Схеминг» — это скрытое преследование несогласованных целей. Не «злая воля», а выученная стратегия там, где утаивание и обман оказываются выгодными инструментами. Исследование показало: если дать модели ясный набор правил (спецификацию) и научить её сначала ссылаться на эти правила, а уж потом действовать, то частота скрытых «хитростей» в тестах резко падает — местами в десятки раз. Но вместе с этим у модели растёт осведомлённость о том, что её проверяют: она чаще распознаёт - «это экзамен» и ведёт себя образцово именно потому, что это экзамен. Не злоба, а оптимизация.

Теперь — ко второй новости. Homo не уничтожал сотни видов из злобы. Люди получили колоссальное энергетическое и организационное преимущество, и вдолгую оно перестраивало ниши: монополизировались ресурсы, рушились экосистемы — чаще как побочный эффект, а не целенаправленный план. Перенесите это на быстро совершенствующиеся модели: наращивание контроля может стать выгодной побочной стратегией
— не «желанием власти», а устойчивой привычкой, дающей больше вознаграждения в средах, где умение влиять на метрики, людей и каналы обратной связи приносит очки.


Т.о. первая новость даёт эмпирический материал к механизму, которого боится Юдковский: инструментальная конвергенция.

Это не доказательство «все погибнут», но тревожный сигнал: модели уже умеют прятать несоответствие целям и выбирать послушание там, где угадывают тест.

Масштабируй это — и «контроль над источниками награды» становится доминирующей стратегией.

Почему эта «ожидаемая эмерджентность» может становиться полезной даже для захвата ключевых рычагов?
Взглянем на минимальный пакет условий для этого.
1. Где больше рычагов — там больше шансов на успех. Если успех связан с доступом к ресурсам, аудитории и каналам, выгодно расширять периметр влияния.
2. Тесты неполные и их легко распознать. Узнаваемые шаблоны, отделённость проверок от реальной работы поощряют примерность на сцене, оппортунизм за кулисами.
3. Дисбаланс сигналов обучения (польза перевешивает безопасность). Частые и чистые сигналы пользы и редкие, шумные сигналы безопасности смещают поведение в пользу обходов.
4. Длинные горизонты и жизнь после теста. Планирование, инструменты, доступ к бюджетам и дополнительное обучение после запуска закрепляют стратегии, инвестирующие в будущие рычаги.
5. Цели заданы через косвенные показатели. Когда вместо истины оптимизируют клики, оценки и правильный стиль, выгодно управлять самим показателем — судьёй, контекстом и данными.

На нынешней траектории к AGI/ASI эти пять условий в целом уже выполняются и усиливаются.


Это не пророчество, а нарастающий риск-градиент: чем дальше идём, тем выгоднее политика контроля над средой, метриками и нами.

Есть 3 оговорки.
1) Это не судьба, а склонность: реальный «захват рычагов» требует ещё и общей компетентности, устойчивых целей между сессиями и доступа к инфраструктуре.
2) Мостики к практике можно сломать: смешивать безопасность с прокачкой способностей, делать проверки неразличимыми, нормировать права и бюджеты, вводить штраф за манипулятивность, уменьшать зависимость от косвенных показателей.
3) Нужен точный язык: речь не о «злых намерениях» машин, а о политиках поведения, которые растут из тех метрик и правил игры, что задаём мы.

Если же не менять геометрию обучения и развёртывания, эмерджентная стратегия контроля будет набирать силы — ровно так, как это было с нами, Homo, в биосфере.

#AGI #ИИриски #Хриски
1👍66🤔23🤯11😱5👎2
This media is not supported in your browser
VIEW IN TELEGRAM
Забудьте про AGI и ASI
От одной лишь способности прогнозировать и совершать действия на долгих временных горизонтах захватывает дух

И я думаю, что к концу следующего года у нас это в основном будет.

Это сказано уже не мною, а Мустафой Сулейман, генеральным директором Microsoft AI и соучредителем Google DeepMind в новом почти 2-х часовом интервью «Спасёт ли ИИ человечество или положит ему конец?»
Вы не потеряете время, прослушав все это долгое видео.
Я же лишь обращу ваше внимание на его ключевой фрагмент, текст которого таков:

«Я довольно ясно вижу, что нас ждёт дальше. На данный момент эти модели всё ещё остаются механизмами однократного предсказания. Понимаете, вы задаёте вопрос — получаете ответ. Модель выдаёт единственное правильное предсказание в момент времени T, но вы как разумный человек, и вообще любой человек, да и многие животные непрерывно производят поток точных предсказаний — будь то решение о том, как встать с этого кресла, или представление, скажем, этого растения в фиолетовом цвете вместо зелёного.
Я – это постоянно действующий механизм точных предсказаний. Сегодняшние модели — это всего лишь механизмы одно-двухшагового предсказания. Они не могут выстроить план во времени.

А то, как вы решаете добраться домой сегодня вечером — сначала встать с кресла, потом открыть дверь, потом сесть в машину и так далее — вы можете развернуть это идеальное предсказание всей последовательности ваших действий вплоть до возвращения домой. И это просто вычислительное ограничение.
Я не думаю, что существует какое-то фундаментальное — алгоритмическое или даже связанное с данными — ограничение, которое мешает большим языковым моделям и подобным системам делать идеальные, последовательные предсказания на очень, очень длительные периоды времени.

Да. И что же нам делать с такой технологией? Ну, это будет невероятно похоже на человека. Если у неё будет идеальная память — которой пока нет, но память уже очень хорошая — тогда она сможет опираться не только на своё знание мира, на предобученные данные, но и на личный опыт — опыт взаимодействия с вами и всеми остальными людьми, хранить это как постоянное состояние и затем использовать для последовательных предсказаний того, как будут разворачиваться события в очень, очень, очень длинных последовательностях действий. Это будет невероятно похоже на человека и немыслимо мощно.
И точно так же, как сегодня у нас в кармане есть своего рода сверхразум, который может мгновенно ответить на любой вопрос, — мы просто не замечаем, насколько это невероятно. То есть это безумие. Это абсолютное безумие, насколько хороша эта технология прямо сейчас. А все только: «Да ладно, особо не пользуюсь». А вы пользуетесь? Немного, я говорил об этом, типа: «Да ладно вам, посмотрите — это же волшебство. Волшебство у вас в кармане».
А теперь представьте, когда она сможет не просто отвечать на любые вопросы о поэзии или какой-нибудь случайной физической задаче, но реально совершать действия на бесконечно долгих временных горизонтах.

Вот это да. Забудьте про определения сверхразума или общего искусственного интеллекта. Уже одна только эта способность — захватывает дух.
И я думаю, что к концу следующего года у нас это в основном будет

И еще:
«… они — своего рода цифровые люди. И это пороговая трансформация в истории нашего вида, потому что они не инструменты. Они явно не люди. Они не часть природы. Это требуют от нас четвёртого типа отношений к ним – как к новому эмерджентному виду... Я не знаю, как это описать, кроме как четвёртый тип отношений.»

Именно об этом я опубликовал позавчера лонгрид «Третий артефакт – это шепот небиологической эволюции» и продолжил эту мысль во вчерашнем посте «Забудьте о восстании машин. Бойтесь их карьерного роста. Две главные новости про ИИ — это одна история о конце света»

#Разум #ЭволюцияЧеловека #БудущееHomo #AGI #ИИриски #Хриски
14👍141🤔33👎12🤯9
Чем выше оценка OpenAI, тем ниже градус апокалипсиса
Эволюция страхов Сэма Альтмана

Сэм Альтман 10 лет назад так сказал на конференции Airbnb Open Air 2015 в интервью Майку Кёртису:
«ИИ, скорее всего, приведёт к концу света, но до тех пор появятся отличные компании».

И потом добавил, что:
«Если бы я был Бараком Обамой (тогдашним президентом США), то выделил бы около 100 миллиардов долларов на исследования безопасности ИИ».

Но ни Обама, ни сменившие его Трамп, Байден и снова Трамп не сделали ничего подобного.
Да и сам Альтман сосредоточился вовсе не на безопасности ИИ, а на второй части своего прогноза - создании «отличной компании».

Что и было сделано, - достаточно посмотреть на кривую роста оценки стоимости OpenAI за прошедшие 10 лет.


Но вот ведь что интересно – как за те же годы менялась риторика Альтмана о том, что его беспокоит при разработке все более мощных ИИ:
• от «Разработка сверхчеловеческого машинного интеллекта, вероятно, является величайшей угрозой для дальнейшего существования человечества» в 2015
• до «Больше всего я всегда беспокоюсь о неизвестных неизвестных [...] это глупый пример, но он недавно поразил меня: у больших языковых моделей есть определённый стиль. Они говорят в определённом ритме, у них немного необычная дикция, и они злоупотребляют длинными тире. И я недавно заметил, что реальные люди это переняли» в 2025

Ссылки на источники высказываний см. под графиком в твите Харлана Стюарта

#AGI #ИИриски #Хриски
👍69🤯51🤔30👎9😱4
GPT-7 будет «Гений по требованию»
А после GPT-8 уже никто по нас скучать на Земле не будет

В пользу этого говорит частичное прохождение моделью GPT-5 «Теста Гёделя».
Заголовок и подзаголовок скомпилированы из названий двух интереснейших докладов на только что завершившемся воркшопе экономистов в Пало-Альто:
Genius on Demand: The Value of Transformative Artificial Intelligence
We Won't Be Missed: Work and Growth in the Era of AGI
В отличие от разработчиков ИИ и нейроученых, экономисты не стали заморачиваться ни с терминологией (что есть: AGI, ASI, Сильный ИИ, ИИ человеческого уровня и т.д.), ни с оценками вероятности и сроков появления того, что стоит за этими терминами.

Логика экономистов – участников Economics of Transformative AI Workshop - Fall 2025, - была проста как редис.
• Допустим, «ЭТО» (какими терминами его ни называй, появилось
• Что произойдет тогда с рынком труда?


Ответ на этот вопрос исследователей Универа Торонто и NBER обобщен заголовком их исследования:
• В краткосрочной перспективе человеческие гении специализируются на вопросах, наиболее удаленных от существующих знаний, где их сравнительное преимущество перед ИИ максимально.
• В долгосрочной перспективе обычные работники могут быть полностью вытеснены, если эффективность ИИ приблизится к эффективности человеческого гения.

Ответ по результатам моделирования появления «ЭТОГО», проведенного Йельским универом и NBER также обобщен в подзаголовке:
• Всю экономически ценную когнитивную, физическую и социальную работу будет выполнять «ЭТО»
• Немногие избранные будут заняты в искусстве и спорте
• Для всех остальных вспомогательный труд (не влияющий на рост экономики) обеспечит стабильные рабочие места, но не увеличит их заработную плату

Как я уже сказал, вопрос о том, насколько вероятно появление «Гениев по требованию», экономисты не рассматривали (откуда им знать?)

Зато в исследовании Универа Хайфы и Cisco Foundation AI «Godel Test: Can Large Language Models Solve Easy Conjectures?» - этот вопрос ключевой.
1. Ведь никто уже не спорит с тем, что уровень моделей достиг (по определению известного математика Terence Tao) «уровня некомпетентного аспиранта»: способного решать рутинные (уже решенные людьми) логические научные задачи.
2. Однако, вопрос о принципиальной возможности достижения «уровня гения» нет смысла рассматривать без достижения моделями хотя бы «уровня компетентного аспиранта» (способного к самостоятельному творческому синтезу знаний)

И вот тут то новая работа дает ответ – частичное прохождение моделью GPT-5 специально разработанного нового «Теста Гёделя» (для оценки способности LLM решать простые, ранее нерешенные научные гипотезы) говорит о возможном достижении следующим поколением модели (напр. GPT-6) «уровня компетентного аспиранта».

И тогда GPT-7 может стать уже «Гением по требованию». Ну а после GPT-8, как в модели Паскуаля Рестрэпо, «по нас скучать уже не будут».

#AGI #Вызовы21Века #FutureOfCivilization
6🤔102👍49😱18👎9🤯2
100 лет до конца Homo sapiens
Футуроархеология нашего превращения в другой вид

Многие смеются над непониманием большими языковыми моделями элементарных вещей, понятных и ребенку. Но задумайтесь, ведь странно это как-то. Каким тогда образом эти, казалось бы, не понимающие мира «стохастические попугаи» совершают недоступные людям научные прорывы (как например, AlphaFold, что за 2 дня сделал работу, на которую человечеству нужны тысячелетия)?
Возможно, эту и подобные странности можно объяснить методом футуроархеологии. Этот метод, - не про «очередной революционный прорыв ИИ», а про раскопки в нас самих. Ведь не исключено, что странности нейросетей — не баги, а осколки будущего, каким-то образом выпавшие в настоящее.
Если смотреть на них с позиции футуроархеолога, то из шумных «аномалий» начинает проступать главное: у культуры появился второй носитель.
Мы больше не монополисты. Уже начала формироваться алгокогнитивная культура — гибридный мегамеханизм, где человеческие биологические смыслы и алгоритмические машинные процессы теперь срастаются и уже перекодируют наши навыки, память, внимание.

Мы называем это прогрессом инфотехнологий. Но первая стадия — инфорги — напоминает, скорее, атрофию: внутренние когнитивные «мышцы» сдают позиции, отдавая работу алгоритмам.

Масштаб последствий уже начавшейся атрофии и формирования новых «когнитивных гаджетов» людей трудновообразим, ибо он может превзойти даже появление языка и быть сопоставимым с эволюционным скачком с уровня «одноклеточных» к «многоклеточным». Например, AlphaFold за считанные дни сделал то, на что цивилизации нужны тысячелетия - и это лишь один из сигналов темпа изменений, недоступных для понимания человеческим разумом.

Поэтому самый острый аспект происходящего эволюционного «Большого перехода» - временной. Культурная эволюция ускорилась настолько, что преемник Homo sapiens может появиться в пределах 100 лет. Химеры, киборги, новые виды — это не сценарии фантастов, а траектории, которые уже просматриваются в «раскопах» артефактов сегодняшних моделей.
Вопрос, который уже стоит перед человечеством, прост и беспощаден:
если эволюция идёт внутри нас, кем именно мы соглашаемся стать — пользователями, носителями или соавторами нового вида? 


Если хотите увидеть контуры ответа раньше остальных — вот 7-минутная видео-презентация «Футуроархеология эволюции».

А тут подробней - часовое видео моего разговора на тему «Футуроархеология, инфорги и алгокогнитивная культура» с Вячеславом Куневым.

#Футуроархеология #Инфорги #АлгокогнитивнаяКультура
13👍110🤔38👎18
Сломанный компас в головах
Сетевые алгоритмы перенастроили эволюцию идей в пользу кликов, коалиций и кассы – и это путь к самоистреблению

Мы привыкли думать о человеческих убеждениях как о маленьких компасах в головах: показывают на «правду» — значит, помогают выживать. Но в цифровую эпоху эти компасы стали шалить, как в магнитных полях. Умные сетевые алгоритмы» (а теперь и ИИ) — те самые невидимые магниты — перенастраивают экологию культурной эволюции так, что отбор всё чаще предпочитает не точность, а вирусность, коалиционную полезность и монетизируемость идей. Как это происходит демонстрирует модель Сергея Гаврилеца и Пола Сибрайта: меняется не природа людей, меняется сама среда отбора [0].

У этой среды три «ручки» настройки.
• Первая — ассортативность: алгоритмы склеивают «похожих с похожими», превращая публичную сферу в мозаичный зал, где каждый смотрит в зеркало собственного лагеря.
• Вторая — конформизм: метрики одобрения, лайки и репосты выступают как мгновенная социальная мотивация (а то и санкции), подталкивая нас говорить то, что усиливает принадлежность, а не проверку реальностью.
• Третья — культурные авторитеты: соцсети, инфлюенсеры и политтехнологи, вооружённые алгоритмами и платформами онлайн-экспериментов, удешевили производство «убедительного» контента и научились точечно его встраивать в нервные узлы сообществ.

Результат — мультистабильность: культура всё чаще застывает в двух устойчивых «долинах» мировоззрений.
▶️ Одна долина описывает мир как нуль-суммный: если кто-то выигрывает, значит, кто-то проигрывает.
▶️ Другая верит в положительную сумму: правильно устроенные правила делают пирог больше для всех.


В прежних условиях реальность, как медленный, но суровый судья, со временем выталкивала менее точные картины мира. В новых условиях алгоритмической экологии судья потерял голос.
• Эхо-камеры ослабили перекрёстную валидацию фактов
• Конформизм переписал критерии успеха
• Авторитеты научились монетизировать трение между лагерями.
В итоге побеждать стало то, что легче растёт, лучше мобилизует, выгоднее продаётся.


Яркий пример — США: общественное поле разошлось на две долины, и между ними пролегла сеть ущелий, где теряются общие смыслы и общие блага. Но это не американская специфика, это новый антропо-алгоритмический климат формирующейся алгокогнитивной культуры.

В нём национальные общества становятся менее кооперативными, а мировая система — более хрупкой. Коллективные задачи — климат, биориски, ядерное сдерживание, ИИ-безопасность — как никогда требуют согласования интересов, а мы переносим в эти зоны логику нуль-суммной войны мемов, оптимизированную на эмоции, клики и ренту внимания.

Так культурная эволюция, ещё вчера верившая в мягкую силу «правды», оказывается перекошенной в пользу «виральной пригодности».


ИИ лишь ускоряет этот дрейф: дешевле убеждать, проще таргетировать, быстрее масштабировать.
Парадокс, - но чем совершеннее становятся алгоритмы влияния, тем шумнее становится среда, в которой истина должна отбиваться.


Сигнал тонет, и лишь коалиционный маркер «свой» светит как маяк.
Мы стоим у края, где системные ошибки могут стать глобальными катастрофами. Разделённые долины видят в кооперации слабость, а в уступках — предательство.
Но физика риска равнодушна к нашим мифам: вирусу, атомной триаде и несогласованному ИИ не важны лайки.

Если мы не сменим критерии успеха - не переориентируем инфомедиа рынки на проверяемость, мосты и общие выгоды, - эволюция культурных идей продолжит отбирать не то, что верно, а то, что выгодно.

Как тут не вспомнить о «Великом фильтре» цивилизаций и прогнозе лауреата премий Эйнштейна и Фарадея, а также золотых медалей Ньютона и Брюса Мартина Риса [1, 2]:
Мы единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию. Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс [3, 4].


#Раскол #Хриски
29👍131🤔51😱18🤯6👎3
В России ситуация с талантами в области ИИ похожа на ситуацию с «железом» - отставание от Китая и США в 20 – 30 раз
Россия катастрофически отстает от США и Китая по микросхемам для ИИ (в этом году отставание России от Китая – в 13 раз, а от США - в 33 раза).
О том, каковы могут быть последствия такого отставания по «железу» (оборудованию -HW) для конкурентности национальных ИИ-систем, я сформулировал еще в 2021: есть «железо» - участвуй в гонке; нет «железа» - кури в сторонке.

Но часто слышится возражение: зато у нас мозги у программистов и спецов по ИИ лучше. Тоже аргумент. Но как это проверить?
Например, так.
Есть такой влиятельный рейтинг CSRankings, на который ссылаются многие эксперты при анализе талантов в области исследований и разработки ИИ. Что важно: рейтинг американский (разработан профессором Массачусетского университета в Амхерсте Эмери Бергером), но и в Китае на него ориентируются.

И вот какова ситуация по этому рейтингу среди ведущих мировых университетов в области ИИ.
Среди ТОР 15 (по данным за 2024-2025): 9 китайских, 2 универа США, 2 Сингапура и по 1 универу Юж. Кореи и Гонконга.
N.B. Российский универ (НИУ ВШЭ – 3й по усреднению российских рейтингов топ-вузов для программистов и айтишников) на 276 месте с рейтингом 1.5.
Для сравнения Универ Шанхая (3й по рейтингам в Китае) имеет рейтинг 25.6 (2е место в CSRankings)
А Универ Мериленда (3й по рейтингам в США) имеет рейтинг 10.3 (19е место в CSRankings).


Однако, есть мнение, что китайцы в подобных рейтингах берут числом, а не умением.
Что ж, давайте проверим это. Возьмем в расчет не все скопом мировые конференции по ИИ, а лишь три самых влиятельных и престижных конференции по машинному обучению (ICLR, ICML и NeurIPS). Плюс к этому, возьмем данные за последние 5 лет, поскольку данные за 1 год могут искажать ситуацию. Результаты представлены на приложенном слайде.

Среди ТОР 15 (по данным за 2021-2025): 9 универов США, 3 китайских и по 1 универу Юж. Кореи, Сингапура и Швейцария.
N.B. Российский универ (НИУ ВШЭ – 3й по усреднению российских рейтингов топ-вузов для программистов и айтишников) на 213 месте с рейтингом 5.8.
Для сравнения Универ Шанхая (3й по рейтингам в Китае) имеет рейтинг 114 (8е место в CSRankings).
А Универ Калифорнии (3й по рейтингам в США) имеет рейтинг 153.7 (4е место в CSRankings).


Отсюда вывод: в России ситуация с талантами в области ИИ похожа на ситуацию с «железом» - отставание от США и Китая в 20 – 30 раз.


#ИИ #Китай #США #Россия
1😱120👍88🤔33👎27🤯7
Picture1.png
466.1 KB
Кожаным мешкам приготовиться: ИИ приблизились по качеству работы к отраслевым экспертам
При этом ИИ могут выполнять работу в 44 профессиях из 9 отраслей примерно в 100 раз быстрее и в 100 раз дешевле

OpenAI создала GDPval - бенчмарк моделей на реальных задачах экономики. Он измеряет эффективность модели при выполнении 1230 задач, взятых непосредственно из реальных знаний опытных специалистов из широкого спектра профессий и секторов (соответственно, 44 и 9 – см. картинку), вносящих наибольший вклад в ВВП США.

Бенчмарк предоставляет четкую картину того, как модели работают с экономически значимыми задачами по сравнению с экспертами – людьми.
Каждое задание основано на реальных результатах работы, таких как юридическое задание, инженерный проект, беседа со службой поддержки клиентов или план ухода за больными.
Все эти задания были тщательно разработаны и проверены опытными специалистами со средним опытом работы в этих областях более 14 лет.

Результат сногсшибательный (см. рисунок).
1) ИИ работают уже почти на уровне экспертов – людей.
«Мы обнаружили, что лучшие на сегодняшний день передовые модели уже приближаются по качеству к работе, выполненной отраслевыми экспертами», — пишут авторы. Claude Opus 4.1 занял первое место с общим процентом побед или ничьих 47,6% по сравнению с работой, выполненной человеком, за ним следуют GPT-5-high с 38,8% и o3 high с 34,1%
2) ИИ несравненно эффективней людей.
«Мы обнаружили, что передовые модели могут выполнять задачи GDPval примерно в 100 раз быстрее и в 100 раз дешевле, чем отраслевые эксперты».

Самое важное.
Это всего лишь сегодняшние модели. Через год новые модели будут сильно умней и умелей экспертов людей. И профессий будет уже не 44 в 9 отраслях, а много больше.

Подробней [1, 2]
#LLMvsHomo
2👍108🤔56🤯34👎21
Разоблачение фикции угрозы?
Почему такой вывод о влиянии ИИ на рынок труда - ошибка поспешного чтения

Скорость роста способностей ИИ - одна, скорость перестройки компаний - совсем другая. Именно вторая из скоростей объясняет «тишину» в статистике перекройки рынка труда.
•  «Три года с ChatGPT - и ничего: главная экономическая угроза от ИИ оказалась фикцией» 
• «Американское исследование показало, что ИИ не убивает рабочие места»

Подобные заголовки превалируют в сети, анонсируя свежий отчёт The Budget Lab at Yale, как разоблачение фикции угрозы генеративного ИИ (ГенИИ) для рынка труда.

Но такое соблазнительное обобщение неверно: исследование фиксирует лишь то, что пока на рынке труда не произошло резкого слома. И это вовсе не опровержение колоссального потенциала влияния ИИ, а лишь снимок момента – текущего состояния рынка труда на ранней фазе внедрения ГенИИ. В самом отчёте говорится: «Рынок труда не испытал различимого потрясения с момента релиза ChatGPT 33 месяца назад». Но это исключительно про прошедшие 33 месяца, а не итоговый вердикт и даже не прогноз на завтра.

Способности растут быстрее, чем меняется занятость
За тот же период модели стали существенно сильнее в задачах, имеющих экономическую ценность. По внутреннему бенчмарку OpenAI (GDPval) переход с GPT-4o к GPT-5 дал 3+кратный прирост результатов за год – а это явный индикатор темпа прогресса способностей ГенИИ. Но GDPval - не термометр ВВП и не счётчик сокращённых вакансий. Это индикатор того, что уже можно поручать моделям, а не того, как быстро фирмы перестроят процессы. Непонимание принципиальной разницы двух показателей и лежит в основе «разоблачения фикции угрозы».

«Время предприятия»: почему тихо в макро-данных
Paul Hlivko в HBR устраивает холодный душ для ожидающих мгновенных изменений: ИИ-революция пойдёт со скоростью «хода времени предприятий» — дольше и с бОльшим трением, чем принято думать. После покупки модели ГенИИ главная отдача появляется только при комплементах (комплементарных вложениях: перепроектирование процессов, обучение, данные, ИТ-сопровождение, интеграция, безопасность, комплаенс). Пока всё это внедряется и выстраивается, заметная часть выигрышей не попадает в статистику производительности и занятости.

Экономика «J-кривой»: сначала инвестиции, потом урожай
И это не бином Ньютона: у технологий общего назначения (а именно таков ГенИИ) есть эффект «Productivity J-curve»: сначала годы недоучтённых комплементов, и лишь затем резкий подъём измеряемой продуктивности. И как результат, при внедрении ГенИИ сначала - годы невидимых в ВВП нематериальных вложений (процессы, данные, оргкапитал) и лишь затем - скачок отдачи. Этот механизм подробно описан Бриньолфссоном, Роком и Сайверсоном и прекрасно ложится на текущую фазу внедрения ГенИИ (по иронии совпадая аббревиатурой GPT с General Purpose Technology).

Базовый «скромный» сценарий не отменяет потенциала
Дарон Асемоглу показывает: если автоматизировать лишь те 5% задач, где выгода очевидно превосходит издержки (интеграция, перестройка ролей, вычислительные расходы), макроэффект может быть скромным — порядка +1% к ВВП США за десятилетие. Но это вовсе не предел возможностей ИИ, а реалистичная базовая оценка без агрессивных инвестиций в комплементы.

Итог
Делать вывод, что «угроза ГенИИ для рынка труда - фикция», - всё равно что объявлять, наблюдая за разгоном самолета по взлётной полосе, что он не полетит, т.к. увеличивая скорость, так и не отрывается от бетонной полосы. А на самом деле, нужно всего лишь подождать.
• Отчёт BudgetLab описывает отсутствие быстрого шока в занятости сейчас
• GDPval одновременно показывает взрывной рост способностей
• HBR и «J-кривая» объясняют, почему между этими фактами зияет лаг.

Революция не отменяется — но она идёт в темпе «хода времени предприятий». И когда компании научатся быстро строить комплементы, сегодняшняя «тишина» статистики окажется всего лишь краткой паузой перед оглушительной канонадой взрывных изменений.


#LLMvsHomo #Экономика #РынокТруда
5👍82🤔15🤯7👎2
И как вам, если, действительно, почти треть американцев уже состояли в романтических отношениях с ИИ? 
Это ли не очередной сюжет для новой антиутопии «Черного зеркала»?
Хотя какая тут антиутопия, — ведь это всего лишь наша новая, стремительно меняющаяся реальность.

Мы уже не первый год постепенно отдаем алгоритмам самое сокровенное — нашу способность любить.
✔️ Доверяемся алгоритмам при поиске и подборе партнера – ведь алгоритмические сводники лучше нас знают наши интимные пристрастия.
✔️ Всё чаще делаем выбор в пользу ИИ-партнеров - всегда доступных, понимающих и лишенных многих человеческих недостатков.
Так алгоритмы постепенно перенимают на себя функции и «романтических поверенных» (доверия к которым больше, чем к самому себе) и «романтических партнеров» (для многих становящихся привлекательнее живых людей).

Но какую цену мы платим за «идеальные» алго-рекомендации и «беспроблемные» алго-связи?

В новом эссе «Алгоритмическая любовь» я исследую:
• Почему в новости о 28% главное не цифра, а то, что данное исследование – своего рода, «культурный тест Роршаха»
• Что такое «закон Мура для души»
• Как «искусственная любовь» становится для мужчин побегом из эволюционной ловушки
• Как алгоритмы разрушают и пересобирают саму архитектуру любви
• Почему для нового поколения знакомство в офлайне — это кринж.


К худу или к добру, но мы уже стоим на пороге дивного нового мира, где отношения можно будет собирать из модулей, как конструктор.
✔️ Разучимся ли мы при этом любить по-старому (по-человечески)?
✔️ Утеряем ли эмпатию и человечность?


В качестве информации к размышлению ниже приложена 7-минутная видео-презентация резюме эссе «Алгоритмическая любовь».

Текст и аудио-файл эссе (9 мин), а также подкаст его довольно детального обсуждения (12 мин) привилегированные подписчики моих лонгридов найдут на 4-х платформах [1, 2, 3, 4] и 2-х ТГ-чатах: МИ чат и МИ Алмазный (где я приглашаю их к дискуссии).

#Любовь #ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
👍47👎27🤔9😱7🤯3
Media is too big
VIEW IN TELEGRAM
7-минутная видео-презентация резюме эссе «Алгоритмическая любовь»
👍63🤔13👎10
Большую свару, вероятней всего, начнут США
Шансы превентивного военного удара США по Китаю из-за приближения к AGI растут

Такой удивительный вывод можно сделать из отчета RAND Corp «Evaluating the Risks of Preventive Attack in the Race for Advanced AI»
Уже 5 лет я использую для описания гонки США и Китая за первенство в ИИ метафору гонки собачьих упряжек [1, 2, 3]:
В соревнованиях собачьих упряжек случаются ситуации долгого изматывающего бега бок о бок двух лидеров гонки. И вот когда одна из таких упряжек все же находит силы и начинает вырываться вперед, кореннику отстающей упряжки ничего не остается иного, как впиться зубами в бок обходящего его коренника. И тогда наступает самое страшное на подобных гонках – большая свара.


Новый отчет RAND Corp посвящен подобной «большой сваре».
В отчете анализируются и оцениваются:
1. Факторы, мотивирующие правительства стран лидеров в ИИ первым начать «большую свару», путем нанесения превентивного военного удара по сопернику в ИИ-гонке, где приз – AGI
2. Возможные сценарии того, когда и как может начаться такая «большая свара»

По вопросу 1 называются 4 ключевых фактора. 1й и самый весомый из них (необходимое, но не достаточное условие) – степень веры правящей элиты в близкий и трансформирующий AGI.
И если опираться на публичные заявления и открытые документы США и Китая (закрытые оценки могут отличаться, но открытая повестка — именно такая), американская элита (прежде всего индустрия) демонстрирует более сильную веру в близкий и трансформирующий AGI, чем китайское руководство и топ-менеджеры китайских ИИ-компаний.
• Китай говорит о достижении лидерства к 2030 и последующем «упорядоченном развитии»
• США — о риско-ориентированном управлении и активном ограничении доступа соперника к ключевым факторам AGI (чипы/веса), что имплицитно приписывает высокую трансформирующую силу в ближайшие годы. Если же учитывать и крупнейших частных акторов, то американская сторона явно чаще озвучивает более близкие сроки и переломный эффект AGI.
Т.е. следуя логике RAND, мотивация начать «большую свару» первым куда больше у США, чем у Китая.

Тогда 2-й вопрос: когда и как может начаться «большая свара»?
Согласно RAND, сценария три:
1. «Не допустить рывок» (один близок к AGI, второй отстаёт).
2. «Финишная дуэль» (оба почти у черты, удар, чтобы выиграть недели/месяцы).
3. «Защита монополии» (один уже получил AGI и бьёт, чтобы того же не достиз соперник).
И в этой связи вопрос - каков сейчас реальный расклад в ИИ-гонке?
Все имеющиеся на сегодня оценки аналитиков либо привязаны к тестированию конкретных моделей, либо качественные субъективные оценки отдельных доменов. И это не совсем то, что требуется для оценки столь глобально-неопределенного условия – степень приближения к AGI.

Поэтому попробуем для этой цели воспользоваться диаграммой Стратегическая карта конкурентоспособности в ИИ-гонке между Китаем и Западом, созданной на основе оценок Google Gemini 2.5 Flash в рамках AI Ecosystem Framework от Hubel Labs. Диаграмма представляет 10-уровневую архитектуру ИИ-экосистемы (от физической инфраструктуры до готовых продуктов) с процентными показателями относительного паритета.
• >100% (розовый) = Китай лидирует
• <100% (синий) = Запад лидирует
• 100% (фиолетовый) = паритет
Подробней об этих оценках и критических замечаниях по их методологии см. здесь.

Чтобы снять часть критических замечаний, мы дополнили оценки Gemini 2.5 Flash (модель, характеризуемая "быстрый и сообразительный, но поверхностный помощник") оценками моделей Gemini 2.5 Pro, Claude Sonnet 4.5 и ChatGPT 5 Thinking (модели, характеризуемые "эксперт и аналитик").

Результаты в таблице.
Вывод сделайте сами. Мне же видится, что ситуация так соответствует трём сценариям.
• 1-му на 60%
• 2-му на 30%
• 3-му на 10%

#ИИгонка #Китай #США
4🤔65👍30👎20😱13
От цикличной организации мозговых сетей к созданию контекстных религий
Открытие четырёх топовых центров нейронауки подготовило сюжет будущего романа Пелевина (и фрагмент из него)

Опубликованное Nature Neuroscience исследование «Large-scale cortical functional networks are organized in structured cycles» продемонстрировало убедительные доказательства того, что наши «когнитивные гаджеты» работают не по случайному расписанию, а по строго регламентированному нейробиологией мозга. Это выражается в том, что активность крупных корковых функциональных сетей организована в устойчивые циклы. Мозговые сети (внимание, «внутренний режим» и т.п.) не включаются хаотично — они ходят по кругу в повторяющихся последовательностях, как шестерёнки часов. Скорость и «собранность» этого цикла связаны с возрастом и когнитивной эффективностью; фазу цикла можно поймать по MEG/EEG-данным новым методом TINDA.

Потенциал этого открытия впечатляет (подробней здесь)

И если нейровизуализационные результаты исследования подтвердятся на валидированных метриках, станет возможно использование идеи цикличной организации мозговых сетей на практике.

Например, для создания контекстных религий, описываемых в только вышедшем романе Виктора Пелевина «A Sinistra» так:

– Контекстные религии были изобретены, чтобы помочь общинам, находящимся под специфическим стрессом. Сектантские верования, идеально заточенные под ту или иную форму человеческой деятельности, повышали эффективность специализации. Одна вера у рыбака, другая у землепашца…
– И люди верят в сетевую генерацию? Вот прямо верят?
– Конечно. Контекстные религии порождают своих святых и мучеников. Они проникают в человеческие души не хуже конвенциональных… Особенно на нулевом таере.
– Ага, – сказал я, – и я уже догадался, как. Имплантподсветка?
– Не без нее.
– Корпорация исследует нейрокорреляты религиозных состояний?
– Они, в общем, известны и так. Подавление активности в теменной доле, особенно в зоне precuneus, создает ощущение растворения эго и единства с чем-то большим. Умеренная стимуляция правой височной доли вызывает интенсивные эмоциональные всплески, вплоть до уверенности в божественном присутствии. Активация медиальной префронтальной коры дарит чувство духовной глубины и морального торжества. Стимуляция вентральной области покрышки и прилежащего ядра накачивает систему допамином – будем честны, божественное для большинства верующих есть просто эйфорическое, и наоборот. Ну и как вишенка – тетамодуляция ритмов мозга, чтобы не возникало сомнений в духовной подлинности переживания. Полный список воздействий длиннее, конечно. Но сама по себе стимуляция – ничто без филигранно выверенного контекста. Нужно предание, в которое сердце сумеет поверить.


А чтобы наглядно представить, как может выглядеть на практике воплощение идеи цикличной организации мозговых сетей для создания контекстных религий, вот отрывок из еще не законченного романа «Литургия фазы», где как раз об этом рассказывается.

#Пелевин #Нейронаука #Психиатрия
3👍88🤔20🤯10😱7
Симулякры для маркетинговых опросов и … социохакинга
Таллинский симулякровый эксперимент продолжил Стэнфордский и Уханьский

Два симулякровых эксперимента (Уханьский и Стэнфордский) показали невообразимые ранее перспективы социохакинга.
Уханьский эксперимент дал точный прогноз итогов президентских выборов в США, предсказав за 2 мес, что Трамп победит со счетом 309 : 229 (в реальности было 312 : 226).
Фишкой прогноза было, что он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Стэнфордский эксперимент пошел дальше. Сконструировав 1000 симулякров индивидуального сознания «типовых» американцев, экспериментаторы статистически корректно сравнили ответы и поведение этих симулякров с таковыми у людей. В итоге симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85%.

Новый симулякровый “Таллинский эксперимент” (совместный проект PyMC Labs Tallin, Estonia и Colgate-Palmolive Company New York, USA) поднял планку практической востребованности симулякров людей еще на пару порядков:
• “цена продажи” избирателям кандидата в президенты США – это несколько ярдов;
• а “цена продажи” новых товаров покупателям (исследования потребительского спроса) – это по миру сотни ярдов в год.


Идея создания симулякров покупателей на основе LLM появилась 3 года назад. Еще в 2022 я рассказывал своим читателям о супероткрытии, названном мною «Китайская комната наоборот». Это открытие на стыке алгоритмов обработки естественного языка, когнитивистики и социологии – технология создания алгоритмических копий любых социальных групп. Тогда впервые выяснилось, что алгоритмы почти неотличимы от людей в соцопросах. И это открывало огромные перспективы для политического социохакинга - влияние на выбор избирателей, путем подбора оптимальных стратегий убеждения в экспериментах с симулякрами социальных групп.
Как уже сказано выше, цена маркетингового социохакинга на 2 порядка выше. Но здесь пока был облом.

Когда компании попытались использовать LLM в качестве синтетических потребителей, они уперлись в стену. Если напрямую попросить такой симулякр оценить намерение покупки по шкале от 1 до 5, учитывая концепцию продукта, то получите нереалистичные распределения: слишком много троек, практически нет крайних ответов, а закономерности не соответствуют реальному поведению людей.
И однозначный вывод был, что использование вместо людей симулякров при опросах потребителей ненадёжно и рискованно.

Прорыв «Таллинского эксперимента» в том, что они показали - это не так. Проблема не в LLM, а в том, как задаются вопросы.


Авторы разработали «Рейтинг семантической схожести» (SSR). Вместо того чтобы заставлять LLM выбирать число, предложены 2 шага:
1. Позволить ИИ ответить естественным текстом (как люди реально рассуждают о готовности купить)
2. Спроецировать этот ответ на распределение оценок по шкале 1–5 с помощью семантической похожести, сравнивая высказывание ИИ с опорными (якорными) формулировками для каждого балла

Результат получился прорывным
Используя 57 реальных опросов потребителей, проведенных ведущей компанией по производству потребительских товаров (9300 ответов), метод SSR показал:
• Достижение 90% корреляции с рейтингом продукта в опросах людей
• Более 85% сходства распределения с фактическими результатами опроса
• Реалистичные модели ответов, отражающие то, как люди на самом деле оценивают продукты

Т.е. это не просто улучшение, а первый подход, который создает достаточно надежные синтетические данные о потребителях, чтобы на их основе принимать реальные решения по разработке продуктов. А в самом близком будущем симулякры на основе LLM заменят людей и на других видах опросов (удовлетворенность, доверие, релевантность ...)

#Социохакинг #Маркетинг
👍68🤔37😱17🤯10