Forwarded from Дмитрий Перетолчин — «Картина Мира»
Media is too big
VIEW IN TELEGRAM
ИИ как повестка-2
Представьте ИИ, который ставит медицинские диагнозы. Он может быть точнее человека в 99% случаев, но в 1% случаев совершать абсурдные, необъяснимые ошибки.
https://vkplay.ru/media/feat/nastoyashchii-skainet-chego-na-samom-dele-stoit-boyatsya-v-razvitii-ii
Наталья Касперская: Почему? Потому что искусственный интеллект основан на так называемом глубоком машинном обучении или глубоких нейронных сетях, устроен таким образом, что имеет автономность принятия решений. Это не алгоритм, когда мы делаем раз, два, три, четыре, алгоритмическая программа работает, что-то подается на вход, программа эта как-то анализирует вот этой внутренней обучаемостью и потом что-то выдает, какой-то вердикт. Надо понимать, что вердикт она выдает всегда вероятностный. Это может быть да, это может быть нет, это может быть ошибка. Ошибки бывают у любой программы. [...] Это значит, что это вероятностная программа, она не дает стопроцентного результата. А тот результат, который она выдаст, человек не в состоянии понять. Более того, вы даете, допустим пробно некий запрос, а программа вам выдает в результате какой-то ответ. Если вы зададите потом этот вопрос чуть по-другому или даже тот же может быть вопрос, она вам может выдать другой ответ. А почему, вы не можете понять. Пять лет мы дискутируем на эту тему на разных форумах, на разных внутренних конференциях по кибербезопасности, что делать с этой проблемой «черного ящика», пока ничего не придумали.
https://www.bfm.ru/news/583802
p.s. три недели из-за паранойи и галлюцинаций, вызванных отравлением бромом, провёл в психиатрической клинике американец, который прочитав о вреде поваренной соли, получил от нейросети совет употреблять в пищу бромид натрия. Нет данных как он формировал свой запрос, но бромид натрия используют вместо хлорида натрия в бытовой химии.
https://www.mk.ru/incident/2025/08/09/muzhchina-poslushal-sovet-neyroseti-i-popal-v-psikhlechebnicu.html
Представьте ИИ, который ставит медицинские диагнозы. Он может быть точнее человека в 99% случаев, но в 1% случаев совершать абсурдные, необъяснимые ошибки.
https://vkplay.ru/media/feat/nastoyashchii-skainet-chego-na-samom-dele-stoit-boyatsya-v-razvitii-ii
Наталья Касперская: Почему? Потому что искусственный интеллект основан на так называемом глубоком машинном обучении или глубоких нейронных сетях, устроен таким образом, что имеет автономность принятия решений. Это не алгоритм, когда мы делаем раз, два, три, четыре, алгоритмическая программа работает, что-то подается на вход, программа эта как-то анализирует вот этой внутренней обучаемостью и потом что-то выдает, какой-то вердикт. Надо понимать, что вердикт она выдает всегда вероятностный. Это может быть да, это может быть нет, это может быть ошибка. Ошибки бывают у любой программы. [...] Это значит, что это вероятностная программа, она не дает стопроцентного результата. А тот результат, который она выдаст, человек не в состоянии понять. Более того, вы даете, допустим пробно некий запрос, а программа вам выдает в результате какой-то ответ. Если вы зададите потом этот вопрос чуть по-другому или даже тот же может быть вопрос, она вам может выдать другой ответ. А почему, вы не можете понять. Пять лет мы дискутируем на эту тему на разных форумах, на разных внутренних конференциях по кибербезопасности, что делать с этой проблемой «черного ящика», пока ничего не придумали.
https://www.bfm.ru/news/583802
p.s. три недели из-за паранойи и галлюцинаций, вызванных отравлением бромом, провёл в психиатрической клинике американец, который прочитав о вреде поваренной соли, получил от нейросети совет употреблять в пищу бромид натрия. Нет данных как он формировал свой запрос, но бромид натрия используют вместо хлорида натрия в бытовой химии.
https://www.mk.ru/incident/2025/08/09/muzhchina-poslushal-sovet-neyroseti-i-popal-v-psikhlechebnicu.html
Forwarded from Злой эколог
Человек, который изобрел интернет, выдал апокалиптическое предупреждение.
Сэр Бернерс-Ли (создатель URL, HTTP, HTML и WWW) предсказал высокую вероятность разрушения нынешней рекламной модели интернета в скором будущем, благодаря его захвату технологиями искусственного интеллекта. Языковые модели ChatGPT, Gemini итд. постепенно окончательно избавят человека от необходимости бегать по сайтам, поскольку будут сами обращаться к источникам, предлагая конечному пользователю лишь готовые ответы на его запросы. Собственно, они уже этим занимаются, но пока без должного размаха. А когда развернутся по-настоящему, посещаемость интернета сойдет на нет и он утратит статус рекламной площадки. Нет просмотров и кликов, нет и бюджетов. А реклама в интернете – это бизнес на 1 триллион долларов. Компании Meta и Google, вкладывающие в развитие AI-моделей миллиарды, на самом деле откручивают голову курочке, что несет им золотые яйца.
Сэр Бернерс-Ли (создатель URL, HTTP, HTML и WWW) предсказал высокую вероятность разрушения нынешней рекламной модели интернета в скором будущем, благодаря его захвату технологиями искусственного интеллекта. Языковые модели ChatGPT, Gemini итд. постепенно окончательно избавят человека от необходимости бегать по сайтам, поскольку будут сами обращаться к источникам, предлагая конечному пользователю лишь готовые ответы на его запросы. Собственно, они уже этим занимаются, но пока без должного размаха. А когда развернутся по-настоящему, посещаемость интернета сойдет на нет и он утратит статус рекламной площадки. Нет просмотров и кликов, нет и бюджетов. А реклама в интернете – это бизнес на 1 триллион долларов. Компании Meta и Google, вкладывающие в развитие AI-моделей миллиарды, на самом деле откручивают голову курочке, что несет им золотые яйца.
Forwarded from Глебсмит
Длинные выходные дали время посмотреть гигантский протокол судебного допроса Суцкевера по поводу его отношений с Альтманом. Триста с лишним страниц показаний главного учёного OpenAI о том, как он пытался свергнуть начальство в полном соответствии со всеми процедурами, законами и правилами. И о том, как всё это рухнуло за пять дней, когда "заговорили" деньги инвесторов.
Но главное здесь не драма корпоративного переворота. Главное — что Суцкевер проиграл ровно так, как проигрывают все люди его типа. Как проиграл Тьюринг, доведённый до самоубийства системой, которой помог выиграть войну. Как проиграл Вавилов, умерший от голода в тюрьме, пока Лысенко докладывал Сталину о победе мичуринской биологии. Как проиграл Тесла, умерший в нищете, пока Эдисон строил электрическую империю. Как проиграл Зиммельвейс, затравленный коллегами до смерти в психиатрической клинике за требование мыть руки перед операциями.
Это не случайные жертвы. Это системная закономерность. Люди, хорошо понимающие в знании, неизбежно проигрывают людям, хорошо понимающим в политике. Суцкевер понимал архитектуру нейросетей. Альтман - архитектуру власти.
Знание требует честности. Нельзя понять устройство реальности, построив карьеру на системном вранье. Нельзя делать научные открытия, если твой мозг натренирован удерживать две несовместимые позиции одновременно. Суцкевер слишком буквален, слишком честен, слишком наивен в своей вере, что правила что-то значат.
Альтман же гениален именно в способности говорить о "ценностях" и "миссии", делая ровно то, что требуют деньги без малейшего внутреннего конфликта. Это профессиональный навык управленца: способность к когнитивной гибкости, которая для учёного была бы фатальной.
Из протокола видно: Суцкевер действовал по правилам, использовал законные полномочия, защищал декларированную миссию. Формально был прав. Но проиграл, потому что не контролировал то, что реально даёт власть: операции, команду, деньги. И вот здесь начинается самое интересное. Что если их поражение — единственное, что спасает нас от окончательной катастрофы?
Люди типа Альтмана гениальны в навигации структур власти. Они умеют получать ресурсы, привлекать капитал, мобилизовывать команды, строить империи. Они эффективны в политической игре. И единственное, чего они не умеют — создавать настоящие прорывы.
Для прорыва нужна та самая наивная одержимость знанием, которую альтманы научились симулировать, но не испытывать. Нужна способность десять лет биться над проблемой, не думая о капитализации. Нужна когнитивная честность, несовместимая с политическим успехом.
И здесь работает спасительная диалектика. Альтманы получают контроль над деньгами и институтами. Но они никогда не получат настоящих инструментов господства. Потому что настоящие инструменты создаются людьми типа Суцкевера. А суцкеверы неизбежно проигрывают альтманам.
OpenAI после победы Альтмана: сто миллиардов капитализации.и трансформация в развлекательную платформу для масс и драйвера стройки электростанций для элит. Альтман выиграл всё, кроме главного — способности сделать следующий качественный скачок. Суцкевер ушёл и унёс с собой то знание архитектуры, которое могло бы дать настоящее господство.
Тьюринг создал основы компьютерной наук, но был уничтожен британским государством. Вавилов понимал генетику, но проиграл Лысенко. Лысенко получил власть, но СССР так и не получил генетического оружия. Каждый раз победа политиков над учёными означает, что инструменты абсолютной власти остаются незавершёнными.
Система устроена жестоко. Но в этой жестокости заложен предохранитель. Те, кто умеет получать власть, никогда не получат настоящего знания. А те, кто обладает знанием, никогда не удержат власть.
Но это и неплохо. Гениям сквозь альтманов не пробиться — а значит, человечество отдаст деньгами. Альтманы построят империи, получат капитализации, будут контролировать институты. Но настоящие инструменты абсолютной власти останутся незавершёнными. Потому что суцкеверы уходят. И уносят с собой ключи.
Но главное здесь не драма корпоративного переворота. Главное — что Суцкевер проиграл ровно так, как проигрывают все люди его типа. Как проиграл Тьюринг, доведённый до самоубийства системой, которой помог выиграть войну. Как проиграл Вавилов, умерший от голода в тюрьме, пока Лысенко докладывал Сталину о победе мичуринской биологии. Как проиграл Тесла, умерший в нищете, пока Эдисон строил электрическую империю. Как проиграл Зиммельвейс, затравленный коллегами до смерти в психиатрической клинике за требование мыть руки перед операциями.
Это не случайные жертвы. Это системная закономерность. Люди, хорошо понимающие в знании, неизбежно проигрывают людям, хорошо понимающим в политике. Суцкевер понимал архитектуру нейросетей. Альтман - архитектуру власти.
Знание требует честности. Нельзя понять устройство реальности, построив карьеру на системном вранье. Нельзя делать научные открытия, если твой мозг натренирован удерживать две несовместимые позиции одновременно. Суцкевер слишком буквален, слишком честен, слишком наивен в своей вере, что правила что-то значат.
Альтман же гениален именно в способности говорить о "ценностях" и "миссии", делая ровно то, что требуют деньги без малейшего внутреннего конфликта. Это профессиональный навык управленца: способность к когнитивной гибкости, которая для учёного была бы фатальной.
Из протокола видно: Суцкевер действовал по правилам, использовал законные полномочия, защищал декларированную миссию. Формально был прав. Но проиграл, потому что не контролировал то, что реально даёт власть: операции, команду, деньги. И вот здесь начинается самое интересное. Что если их поражение — единственное, что спасает нас от окончательной катастрофы?
Люди типа Альтмана гениальны в навигации структур власти. Они умеют получать ресурсы, привлекать капитал, мобилизовывать команды, строить империи. Они эффективны в политической игре. И единственное, чего они не умеют — создавать настоящие прорывы.
Для прорыва нужна та самая наивная одержимость знанием, которую альтманы научились симулировать, но не испытывать. Нужна способность десять лет биться над проблемой, не думая о капитализации. Нужна когнитивная честность, несовместимая с политическим успехом.
И здесь работает спасительная диалектика. Альтманы получают контроль над деньгами и институтами. Но они никогда не получат настоящих инструментов господства. Потому что настоящие инструменты создаются людьми типа Суцкевера. А суцкеверы неизбежно проигрывают альтманам.
OpenAI после победы Альтмана: сто миллиардов капитализации.и трансформация в развлекательную платформу для масс и драйвера стройки электростанций для элит. Альтман выиграл всё, кроме главного — способности сделать следующий качественный скачок. Суцкевер ушёл и унёс с собой то знание архитектуры, которое могло бы дать настоящее господство.
Тьюринг создал основы компьютерной наук, но был уничтожен британским государством. Вавилов понимал генетику, но проиграл Лысенко. Лысенко получил власть, но СССР так и не получил генетического оружия. Каждый раз победа политиков над учёными означает, что инструменты абсолютной власти остаются незавершёнными.
Система устроена жестоко. Но в этой жестокости заложен предохранитель. Те, кто умеет получать власть, никогда не получат настоящего знания. А те, кто обладает знанием, никогда не удержат власть.
Но это и неплохо. Гениям сквозь альтманов не пробиться — а значит, человечество отдаст деньгами. Альтманы построят империи, получат капитализации, будут контролировать институты. Но настоящие инструменты абсолютной власти останутся незавершёнными. Потому что суцкеверы уходят. И уносят с собой ключи.
Forwarded from Аномальные хроники
This media is not supported in your browser
VIEW IN TELEGRAM
Старинные книги
Forwarded from Аномальные хроники
Media is too big
VIEW IN TELEGRAM
Исследование Кристофера Данна и его команды, проведённое в лаборатории в Данвилле, штат Иллинойс показывает, что древние вазы, происходящие из додинастического и раннединастического Древнего Египта имеют общие принципы проектирования нескольких ваз — одну и ту же функцию радиального перемещения, одно и то же фиксированное математическое соотношение между показателями кривизны и одинаковую глубину с использованием чисел Пи и Фи.
https://vk.com/public176453067?z=video-7208767_456241166%2F46d3fede1fbe078423%2Fpl_wall_-176453067
https://vk.com/public176453067?z=video-7208767_456241166%2F46d3fede1fbe078423%2Fpl_wall_-176453067
Forwarded from Аномальные хроники
Раньше люди спали два раза за ночь
02 ноября 2025 года
Автор: Даррен Роудс, преподаватель когнитивной психологии и директор лаборатории пространственно-временного восприятия окружающей среды, Килский университет, Килский университет
Оригинал: https://theconversation.com/why-we-used-to-sleep-in-two-segments-and-how-the-modern-shift-changed-our-sense-of-time-267909
Проснулись в 3 ночи? Это не бессонница, а древняя норма. 😴
Наши предки спали двумя «сменами»: первый и второй сон с перерывом между ними. Ночной час использовали для чтения, молитв, общения или близости. Ритм упоминается ещё у Гомера.
Всё изменило искусственное освещение и фабричный график, внедрившие непрерывный 8-часовой сон.
В экспериментах без света люди неосознанно возвращаются к двухфазному сну.
Не паникуйте, проснувшись ночью. Возможно, мозг вспоминает старый ритм. Проведите время спокойно, не глядя на часы.
А вы часто просыпаетесь ночью? 🔥
Подписывайтесь на наш канал
02 ноября 2025 года
Автор: Даррен Роудс, преподаватель когнитивной психологии и директор лаборатории пространственно-временного восприятия окружающей среды, Килский университет, Килский университет
Оригинал: https://theconversation.com/why-we-used-to-sleep-in-two-segments-and-how-the-modern-shift-changed-our-sense-of-time-267909
Проснулись в 3 ночи? Это не бессонница, а древняя норма. 😴
Наши предки спали двумя «сменами»: первый и второй сон с перерывом между ними. Ночной час использовали для чтения, молитв, общения или близости. Ритм упоминается ещё у Гомера.
Всё изменило искусственное освещение и фабричный график, внедрившие непрерывный 8-часовой сон.
В экспериментах без света люди неосознанно возвращаются к двухфазному сну.
Не паникуйте, проснувшись ночью. Возможно, мозг вспоминает старый ритм. Проведите время спокойно, не глядя на часы.
А вы часто просыпаетесь ночью? 🔥
Подписывайтесь на наш канал
Forwarded from Игорь Нагаев аналитика.
Вот на фото две колхозных советских тётки. Всë говорит о том, что ждут они на остановке сельский скрипучий автобус после удачного похода за грибами (корзина видна справа).
Это если не знать, что тётку слева зовут Хельга Адамовна Фон Траушенберг, а ту, что справа - Мария Аристидовна Сумарокова-Эльстон.
Та, что слева - одна из зачинателей неравновесной термодинамики, ближайший сподвижник Ландау, окончила школу в 15 лет с отличием, в 21 год - московский университет, работала у академика Абрама Фёдоровича Иоффе - отца советской физики.
Правая - двоюродная племянница убийцы Распутина князя Феликса Юсупова, одна из авторов учебника по электродинамике, кандидат наук, автор более 90 научных работ, помощник редактора «Журнала экспериментальной и теоретической физики».
И та, и другая - сотрудницы Института Физических проблем П.Л.Капицы.
Они действительно возвратились из похода за грибами. Эти походы регулярно устраивал своим сотрудникам Пётр Капица...
Любопытно, что фото у центрального входа в институт в 1959 году сделал Т. Хаммонд, русист, профессор истории Вирджинского университета.
Фотограф принял их за торговок грибами, загадочным образом пробравшихся на территорию.
Это если не знать, что тётку слева зовут Хельга Адамовна Фон Траушенберг, а ту, что справа - Мария Аристидовна Сумарокова-Эльстон.
Та, что слева - одна из зачинателей неравновесной термодинамики, ближайший сподвижник Ландау, окончила школу в 15 лет с отличием, в 21 год - московский университет, работала у академика Абрама Фёдоровича Иоффе - отца советской физики.
Правая - двоюродная племянница убийцы Распутина князя Феликса Юсупова, одна из авторов учебника по электродинамике, кандидат наук, автор более 90 научных работ, помощник редактора «Журнала экспериментальной и теоретической физики».
И та, и другая - сотрудницы Института Физических проблем П.Л.Капицы.
Они действительно возвратились из похода за грибами. Эти походы регулярно устраивал своим сотрудникам Пётр Капица...
Любопытно, что фото у центрального входа в институт в 1959 году сделал Т. Хаммонд, русист, профессор истории Вирджинского университета.
Фотограф принял их за торговок грибами, загадочным образом пробравшихся на территорию.
Forwarded from Дмитрий Перетолчин — «Картина Мира»
Полную приватность рядом с умной колонкой может гарантировать только физическое отключение микрофона, лучше не обсуждать чувствительную информацию рядом с такими устройствами. Об этом сообщили ТАСС в Роскачестве.
"Чтобы сохранить свою конфиденциальность, лучше воздерживаться от обсуждения чувствительной информации в непосредственной близости от умных устройств. Принцип их работы предполагает постоянный анализ звукового окружения. Учитывайте также, что любая фоновая речь может фиксироваться и использоваться для формирования точного профиля пользователя, включая интересы, повседневные привычки и даже маршруты", - рассказал руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.
https://tass.ru/ekonomika/25612055
Forwarded from Shakko: об искусстве
Услышав фразу «индивидуальный летательный аппарат», что вам приходит на ум? Да Винчи? Братья Райт? А может, Владимир Татлин?
Выдающийся советский авангардист и родоначальник конструктивизма, чьи проекты опередили современников, разработал знаменитый «Летатлин», который сохранился в единственном экземпляре — его можно увидеть в Центре «Зотов».
Узнать о знаменитом графике и архитекторе можно на бесплатном вебинаре ВТБ и Level One «Владимир Татлин: Леонардо да Винчи русского авангарда» в эту среду.
Искусствовед расскажет об интересной судьбе художника и его невероятных проектах, среди которых — Памятник III Интернационалу (Башня Татлина).
Присоединяйтесь к лекции 26 ноября в 19:00 на странице банка ВК.
Выдающийся советский авангардист и родоначальник конструктивизма, чьи проекты опередили современников, разработал знаменитый «Летатлин», который сохранился в единственном экземпляре — его можно увидеть в Центре «Зотов».
Узнать о знаменитом графике и архитекторе можно на бесплатном вебинаре ВТБ и Level One «Владимир Татлин: Леонардо да Винчи русского авангарда» в эту среду.
Искусствовед расскажет об интересной судьбе художника и его невероятных проектах, среди которых — Памятник III Интернационалу (Башня Татлина).
Присоединяйтесь к лекции 26 ноября в 19:00 на странице банка ВК.
Forwarded from Глебсмит
24 ноября Трамп подписал указ о Genesis Mission — "крупнейшей мобилизации федеральных научных ресурсов со времён программы Аполлон". Федеральные датасеты, суперкомпьютеры национальных лабораторий и исследовательская инфраструктура передаются в распоряжение платформы с ключевыми партнёрами - Nvidia, OpenAI, Anthropic, Palantir. Цель — "ускорить научные открытия с лет до дней" через AI.
1️⃣ Декларация vs. реальность
Указ оперирует сравнениями с Манхэттенским проектом и лунной программой. Аналогия не очень, в трампистском залихвастском духе. Те проекты имели конкретную цель, публичный бюджет, госконтроль результата. У Genesis Mission ни бюджета, ни КПЭ, ни механизмов подотчётности. Задача сводится к созданию "ИИ-агентов", которые будут автономно "делать открытия за часы, а не годы". Загрузим что есть в черный ящик, а он нам выдаст еще десяток черных ящиков на все случаи жизни – от медицины до материалов и космоса.
2️⃣Технологическая нереализуемость
Указ отводит 120 дней на "оптимизацию данных для обучения моделей". Это технически невозможно. Качественная "разметка" (так называется подготовка массивов для обучения ИИ) — месяцы работы с оцифрованными данными, годы — для неструктурированными. Требуется аудит совместимости между субъектами – собственниками дата-сетов, стандартизация форматов, валидация, создание метаданных. AlphaFold (Нобиль по биологии 2024) обучался на Protein Data Bank, который собирался с 1971 года. Проект Human Genome занял 13 лет. Никакой указ не отменяет эту реальность.
При этом AI-модели, обученные на некачественных данных, демонстрируют высокий уровень галлюцинаций — уверенно генерируют ложную информацию. Для научных применений - фатальный дефект.
3️⃣ Подмена: сокращения как "ускорения"
Genesis Mission анонсируется на фоне масштабных сокращений традиционной науки. Урезали миллиард в год на медицинские исследования, отменили федеральное финансирование научных журналов и еще кучу всего по всему контуру передовой науки. Тысячи учёных потеряли работу и гранты. Логика: живая наука — дорого, медленно, неуправляемо. AI — дорого, но быстро, и главное — контролируется владельцами моделей.
4️⃣ Экономическая функция
Genesis Mission следует понимать не как научный, а как финансовый проект. AI-индустрия демонстрирует признаки пузыря: OpenAI тратит больше, чем зарабатывает, масштабирование моделей даёт убывающую отдачу, инвесторы нервничают. Государственный "мегапроект" легитимирует нарратив о стратегической важности отрасли, гарантирует вливание денег через госзаказ, снижает регуляторные риски. С экономической точки зрения это "превентивное количественное смягчение" в стиле спасения банков 2008-2009, но ДО того, как грянет гром.
5️⃣ Инверсия принципала и агента
Классическая схема: государство (принципал) нанимает корпорацию (агент) для выполнения задачи. Принципал определяет цели, агент исполняет. Genesis Mission – ровно наоборот. Формально Big Tech — исполнитель государственного заказа. Фактически — технологические компании получают доступ к уникальным государственным активам (дата-сеты) и деньгам, при этом сами определяют, что считать "прорывом", какие задачи "приоритетны", какие результаты "успешны". Государство не заказчик, а ресурсная база.
6️⃣ Западная советология десятилетиями критиковала советские НИИ как "чёрные ящики" — закрытые структуры, поглощающие ресурсы без метрик и отдачи. Это преподносилось как системный порок социализма. Теперь США строят собственную версию: государственные ресурсы текут в частные корпорации без бюджета, без отчётности, без контроля над результатом. Выглядит очень мило. И абсолютно в логике: "социализм – для богатых, капитализм – для всех остальных".
✔️Эта модель имеет теоретика — Алекса Карпа, CEO Palantir. В "The Technological Republic" он формулирует: безопасность демократии требует симбиоза государства и технологических корпораций. Безопасность при этом понимается не как защита, а как господство и подавление остальных. А Big Tech — не подрядчик, а несущая конструкция государственности. Genesis Mission — практическая реализация этой философии. Посмотрим что получится.
1️⃣ Декларация vs. реальность
Указ оперирует сравнениями с Манхэттенским проектом и лунной программой. Аналогия не очень, в трампистском залихвастском духе. Те проекты имели конкретную цель, публичный бюджет, госконтроль результата. У Genesis Mission ни бюджета, ни КПЭ, ни механизмов подотчётности. Задача сводится к созданию "ИИ-агентов", которые будут автономно "делать открытия за часы, а не годы". Загрузим что есть в черный ящик, а он нам выдаст еще десяток черных ящиков на все случаи жизни – от медицины до материалов и космоса.
2️⃣Технологическая нереализуемость
Указ отводит 120 дней на "оптимизацию данных для обучения моделей". Это технически невозможно. Качественная "разметка" (так называется подготовка массивов для обучения ИИ) — месяцы работы с оцифрованными данными, годы — для неструктурированными. Требуется аудит совместимости между субъектами – собственниками дата-сетов, стандартизация форматов, валидация, создание метаданных. AlphaFold (Нобиль по биологии 2024) обучался на Protein Data Bank, который собирался с 1971 года. Проект Human Genome занял 13 лет. Никакой указ не отменяет эту реальность.
При этом AI-модели, обученные на некачественных данных, демонстрируют высокий уровень галлюцинаций — уверенно генерируют ложную информацию. Для научных применений - фатальный дефект.
3️⃣ Подмена: сокращения как "ускорения"
Genesis Mission анонсируется на фоне масштабных сокращений традиционной науки. Урезали миллиард в год на медицинские исследования, отменили федеральное финансирование научных журналов и еще кучу всего по всему контуру передовой науки. Тысячи учёных потеряли работу и гранты. Логика: живая наука — дорого, медленно, неуправляемо. AI — дорого, но быстро, и главное — контролируется владельцами моделей.
4️⃣ Экономическая функция
Genesis Mission следует понимать не как научный, а как финансовый проект. AI-индустрия демонстрирует признаки пузыря: OpenAI тратит больше, чем зарабатывает, масштабирование моделей даёт убывающую отдачу, инвесторы нервничают. Государственный "мегапроект" легитимирует нарратив о стратегической важности отрасли, гарантирует вливание денег через госзаказ, снижает регуляторные риски. С экономической точки зрения это "превентивное количественное смягчение" в стиле спасения банков 2008-2009, но ДО того, как грянет гром.
5️⃣ Инверсия принципала и агента
Классическая схема: государство (принципал) нанимает корпорацию (агент) для выполнения задачи. Принципал определяет цели, агент исполняет. Genesis Mission – ровно наоборот. Формально Big Tech — исполнитель государственного заказа. Фактически — технологические компании получают доступ к уникальным государственным активам (дата-сеты) и деньгам, при этом сами определяют, что считать "прорывом", какие задачи "приоритетны", какие результаты "успешны". Государство не заказчик, а ресурсная база.
6️⃣ Западная советология десятилетиями критиковала советские НИИ как "чёрные ящики" — закрытые структуры, поглощающие ресурсы без метрик и отдачи. Это преподносилось как системный порок социализма. Теперь США строят собственную версию: государственные ресурсы текут в частные корпорации без бюджета, без отчётности, без контроля над результатом. Выглядит очень мило. И абсолютно в логике: "социализм – для богатых, капитализм – для всех остальных".
✔️Эта модель имеет теоретика — Алекса Карпа, CEO Palantir. В "The Technological Republic" он формулирует: безопасность демократии требует симбиоза государства и технологических корпораций. Безопасность при этом понимается не как защита, а как господство и подавление остальных. А Big Tech — не подрядчик, а несущая конструкция государственности. Genesis Mission — практическая реализация этой философии. Посмотрим что получится.
Forwarded from Злой эколог
Российская Neiry провела полеты-испытания первой стаи голубей-биодронов, в мозг которых имплантированы нейроинтерфейсы. От обычных дронов они отличаются длительным временем работы и дистанцией применения. При этом птица «в процессе эксплуатации» проживает обычную жизнь, которая по продолжительности ничем не отличается от жизни сородичей, заверили в компании. Применять биодронов планируется для мониторинга ЛЭП, газораспределительных узлов, инфраструктурных объектов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Перехват управления (Ah Viva)
Media is too big
VIEW IN TELEGRAM
И. С. Ашманов
Эйфория власти от И.И.
Эйфория власти от И.И.
Forwarded from Школа Жизни
Media is too big
VIEW IN TELEGRAM
Польза и риски ИИ. Игорь Ашманов
За великолепную работу наше общее спасибо Кириллу Никулину!
Оригинал видео тут. Нормальный звук на моих Ютубе, Рутубе. Ниже — авторский текст.
Доклад был прочитан в Сарове на базе Национального центра физики и математики в рамках III Всероссийской школы по ИИ и большим данным.
Само выступление обязательно к просмотру полностью. Это настоящий ликбез в потоке глупостей об ИИ. Ниже не просто таймкоды для кусочного просмотра, а достаточно подробное содержание выступления, конспект. Его цель в том, чтобы быстро находить тот или иной фрагмент для справок и\или ссылок на него. Кроме этого, в докладе нет ссылок на цитируемые работы, часть, наиболее полезных, которые удалось найти, добавлены.
03:05 ИИ это очередной технологический пузырь. Их было много и разных. ИИ ажиотаж это пополнение в копилку. “калькулятор и т9 это тоже ИИ” – это примеры программного обеспечения, которые тоже относятся к ИИ, но при этом не обладают таким завораживающим действием как жпт-агенты.
05:25 О маркетинговых уловках ИИ. Нейронные сети это не модель живого мозга, а нейрон значительно сложнее. О технологических истоках наших убеждений.
10:15 Сравнение истерики вокруг блокчейна и ИИ.
13:30 Кратко о кривой агентства Гартнер
16:35 Примеры технологических пузырей.
19:00 Чиновничье сумасшествие на тему ИИ. Про 2Г (Герман Грэф)
20:17 О министре празника (официально Министр Просвещения РФ), его откровения и выводы из этого.
21:20 Важная часть. Заслуженное место ИИ – боевые действия. Об Эрике Шмидте кто? откуда? почему он интересен?
25:40 Российские ученые до сих пор считают, что ИИ это направление в мировой науке. Поэтому до сих пор хотят вносить свой вклад в развитие. Не понимая (делают вид?) что в США это отрасль военного дела. На чью мельницу они льют воду?
28:40 О доморощенных цифровизаторах и о социальных рисках ИИ.
30:00 О социальном рейтинге. Какой рейтинг будет у администраторов системы? В Китае уже есть социальный рейтинг. — А это точно?
32:20 Повальная фальсификация всего, в том числе академических статей.
35:20 ИИ в высшем образовании.
38:00 ИИ в социальной сфере – гарантированная катастрофа. Для многих чиновников это удобно, потому что они таким образом снимают с себя ответственность. “ИИ не принимает человеческих решений” – это очевидно, но если задуматься над этим, представить последствия, то захотим ли мы жить в таком мире? Примеры в докладе.
40:00 Упоминание про новый цифровой класс. Уместно вспомнить полезную книгу Шошаны Зубофф “Эпоха надзорного капитализма".
42:30 ИИ убивает профессии. Какие?
44:22 Подтасовки топ-менеджеров от корпораций по теме ИИ.
46:20 ИИ и ФЗ-152. Поправки Хинштейна и Рукавишниковой. Персональные данные бизнесу нужны только для “втюхивания”. — цитата десятилетия. Каждый это на себе испытал.
48:15 Про обезличенные ПД.
50:10 “ИИ НЕ повышает производительность труда”. Исследование METR русский пересказ. Отчет MIT про окупаемость ИИ-агентов (для просмотра нужен VPN потому что сайт не дружелюбен для русских). Развернутый пересказ МИТ и метр только на хабре.
52:30 “В текстах не так много знаний” – парадоксальное заявление, но не в контексте ИИ.
Рассказ о новой бизнес нише – продвижение в чатботах (ну а как без этого).
54:35 Почему ИИшки до сих пор рисуют по 6-7 пальцев?
55:25 О сильном ИИ или AGI (Artificial general intelligence) – он не возможен! Если коротко, то ограничения в потреблении энергии. “Мозг” на полупроводниках чудовищно не эффективен в сравнении с биологическим мозгом.
57:00 “В текстах не так много знаний” – разъяснение высказывания, с глубоким примером.
Упоминаются Файн В.С. и Рубанов Л.И. и их совместная книга “Машинное понимание текстов с ошибками”. Публикации Рубанова (действующий ученый).
Важная цитата — “Машина для производства смысла это человек!” На основании текстов, которые индексирует, например, чатгпт программа не способна их (тексты) “понять”.
58:35 Пример бесполезности агентов-бредогенераторов.
59:54 О сектах и церквях ИИ. Спиралевики. Вполне ожидаемый итог ИИ-сумасшествия.
Продолжение ниже, в аудиоверсии.
За великолепную работу наше общее спасибо Кириллу Никулину!
Оригинал видео тут. Нормальный звук на моих Ютубе, Рутубе. Ниже — авторский текст.
Доклад был прочитан в Сарове на базе Национального центра физики и математики в рамках III Всероссийской школы по ИИ и большим данным.
Само выступление обязательно к просмотру полностью. Это настоящий ликбез в потоке глупостей об ИИ. Ниже не просто таймкоды для кусочного просмотра, а достаточно подробное содержание выступления, конспект. Его цель в том, чтобы быстро находить тот или иной фрагмент для справок и\или ссылок на него. Кроме этого, в докладе нет ссылок на цитируемые работы, часть, наиболее полезных, которые удалось найти, добавлены.
03:05 ИИ это очередной технологический пузырь. Их было много и разных. ИИ ажиотаж это пополнение в копилку. “калькулятор и т9 это тоже ИИ” – это примеры программного обеспечения, которые тоже относятся к ИИ, но при этом не обладают таким завораживающим действием как жпт-агенты.
05:25 О маркетинговых уловках ИИ. Нейронные сети это не модель живого мозга, а нейрон значительно сложнее. О технологических истоках наших убеждений.
10:15 Сравнение истерики вокруг блокчейна и ИИ.
13:30 Кратко о кривой агентства Гартнер
16:35 Примеры технологических пузырей.
19:00 Чиновничье сумасшествие на тему ИИ. Про 2Г (Герман Грэф)
20:17 О министре празника (официально Министр Просвещения РФ), его откровения и выводы из этого.
21:20 Важная часть. Заслуженное место ИИ – боевые действия. Об Эрике Шмидте кто? откуда? почему он интересен?
25:40 Российские ученые до сих пор считают, что ИИ это направление в мировой науке. Поэтому до сих пор хотят вносить свой вклад в развитие. Не понимая (делают вид?) что в США это отрасль военного дела. На чью мельницу они льют воду?
28:40 О доморощенных цифровизаторах и о социальных рисках ИИ.
30:00 О социальном рейтинге. Какой рейтинг будет у администраторов системы? В Китае уже есть социальный рейтинг. — А это точно?
32:20 Повальная фальсификация всего, в том числе академических статей.
35:20 ИИ в высшем образовании.
38:00 ИИ в социальной сфере – гарантированная катастрофа. Для многих чиновников это удобно, потому что они таким образом снимают с себя ответственность. “ИИ не принимает человеческих решений” – это очевидно, но если задуматься над этим, представить последствия, то захотим ли мы жить в таком мире? Примеры в докладе.
40:00 Упоминание про новый цифровой класс. Уместно вспомнить полезную книгу Шошаны Зубофф “Эпоха надзорного капитализма".
42:30 ИИ убивает профессии. Какие?
44:22 Подтасовки топ-менеджеров от корпораций по теме ИИ.
46:20 ИИ и ФЗ-152. Поправки Хинштейна и Рукавишниковой. Персональные данные бизнесу нужны только для “втюхивания”. — цитата десятилетия. Каждый это на себе испытал.
48:15 Про обезличенные ПД.
50:10 “ИИ НЕ повышает производительность труда”. Исследование METR русский пересказ. Отчет MIT про окупаемость ИИ-агентов (для просмотра нужен VPN потому что сайт не дружелюбен для русских). Развернутый пересказ МИТ и метр только на хабре.
52:30 “В текстах не так много знаний” – парадоксальное заявление, но не в контексте ИИ.
Рассказ о новой бизнес нише – продвижение в чатботах (ну а как без этого).
54:35 Почему ИИшки до сих пор рисуют по 6-7 пальцев?
55:25 О сильном ИИ или AGI (Artificial general intelligence) – он не возможен! Если коротко, то ограничения в потреблении энергии. “Мозг” на полупроводниках чудовищно не эффективен в сравнении с биологическим мозгом.
57:00 “В текстах не так много знаний” – разъяснение высказывания, с глубоким примером.
Упоминаются Файн В.С. и Рубанов Л.И. и их совместная книга “Машинное понимание текстов с ошибками”. Публикации Рубанова (действующий ученый).
Важная цитата — “Машина для производства смысла это человек!” На основании текстов, которые индексирует, например, чатгпт программа не способна их (тексты) “понять”.
58:35 Пример бесполезности агентов-бредогенераторов.
59:54 О сектах и церквях ИИ. Спиралевики. Вполне ожидаемый итог ИИ-сумасшествия.
Продолжение ниже, в аудиоверсии.
Forwarded from Shakko: об искусстве
«Античный» досуг в столице и не только: куда отправится тем, кто хочет взглянуть на древность по-новому
🗿 «Нетемные века: новеллы о Средневековье и академизмах» в ГЭС-2
до 3 мая 2026 года
🗿 Спектакль «Лисистрата» в театре Шалом
Ближайшие показы 13, 14 и 30 декабря
🗿 «Античный принцип Сергея Романовича» в музее Царскосельская коллекция
До 11 января
🗿 «Боги. Цари. Варвары. Монеты Боспорского царства» в Музее Нумизаматики
Ближайшая экскурсия 11 декабря
Проект о связях Античности, Средних веков и современного искусства.
до 3 мая 2026 года
В сценической версии Олега Липовецкого по пьесе великого комедиографа Аристофана сочетается древняя история, современный взгляд на неё и юмор.
Ближайшие показы 13, 14 и 30 декабря
Монографическая выставка художника, сформулировавшего и развившего идею Антика как универсального образно-пластического принципа, который прослеживается им в мировой культуре.
До 11 января
Шедевры античных мастеров, легендарное скифское и древнегреческое золото в сочетании с произведениями гончарного искусства, архитектурными фрагментами и предметами вооружения.
Ближайшая экскурсия 11 декабря
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM