🌏 ai и будущее человека. представление фаундера compounded о том, куда мы идем
сегодня я хочу написать для вас большой текст, который бы описал мою оптику на то, куда мы можем прийти в связи с развитием ai и почему я убеждена в том, что эта тема сегодня требует критически много нашего внимания. я буду писать этот текст из всех главных идентичностей своей жизни: человека, инвестора, матери, фаундера исследовательского проекта в сфере технологий.
гуманистический сверхразум и система сдерживания, которую нам необходимо построить
я убеждена, что любая технология, включая ai, должна служить человеку. в связи с этим я выступаю против создания автономного сверхразума, который может самосовершенствоваться, ставить собственные цели и действовать независимо от людей. в моем представлении главной целью развития ai должно стать создание такого сверхразума, который бы действовал исключительно в человеческих интересах и исключительно в том, как человечество эти интересы для себя формулирует.
для этого необходима серьезная система сдерживания: набор правил, ограничений и протоколов, которые будут удерживать автономных агентов в зоне безопасности и ответственности. в этом смысле мне близко сравнение с опытом регулирования двигателя внутреннего сгорания: потребуется сотни элементов контроля, от правил дорожного движения и законов до подушек и ремней безопасности внутри автомобиля. чтобы вывести ai в безопасные рамки нам необходимо проделать колоссальную работу и это обязанность политиков уже сейчас ставить такую работу в приоритет.
одновременно с этим сдерживать нам необходимо не только сам искусственный интеллект, но корпорации, которые работают над его созданием. мы не можем доверять красивым словам, сделанным заинтересованными лицами в момент самой масштабной финансовой гонки корпораций в истории человечества. уже сейчас капитализация некоторых компаний превышает уровень стран и я не уверена, что это здоровая ситуация. если сегодня мы живем в эпоху цифрового феодализма, где такие люди, как я, вспахивают цифровую землю своим трудом и дают возможность зарабатывать на нем тем, кому принадлежат эти цифровые просторы — через n лет в их руках будет не просто земля, но оружие, в теории, способное все уничтожить.
🌏 продолжение текста читайте в статье substack. это открытый материал. спасибо всем, кто оформляет платную подписку — вы даете нам возможность в том числе делать больше материалов, доступных всем.
сегодня я хочу написать для вас большой текст, который бы описал мою оптику на то, куда мы можем прийти в связи с развитием ai и почему я убеждена в том, что эта тема сегодня требует критически много нашего внимания. я буду писать этот текст из всех главных идентичностей своей жизни: человека, инвестора, матери, фаундера исследовательского проекта в сфере технологий.
гуманистический сверхразум и система сдерживания, которую нам необходимо построить
я убеждена, что любая технология, включая ai, должна служить человеку. в связи с этим я выступаю против создания автономного сверхразума, который может самосовершенствоваться, ставить собственные цели и действовать независимо от людей. в моем представлении главной целью развития ai должно стать создание такого сверхразума, который бы действовал исключительно в человеческих интересах и исключительно в том, как человечество эти интересы для себя формулирует.
для этого необходима серьезная система сдерживания: набор правил, ограничений и протоколов, которые будут удерживать автономных агентов в зоне безопасности и ответственности. в этом смысле мне близко сравнение с опытом регулирования двигателя внутреннего сгорания: потребуется сотни элементов контроля, от правил дорожного движения и законов до подушек и ремней безопасности внутри автомобиля. чтобы вывести ai в безопасные рамки нам необходимо проделать колоссальную работу и это обязанность политиков уже сейчас ставить такую работу в приоритет.
одновременно с этим сдерживать нам необходимо не только сам искусственный интеллект, но корпорации, которые работают над его созданием. мы не можем доверять красивым словам, сделанным заинтересованными лицами в момент самой масштабной финансовой гонки корпораций в истории человечества. уже сейчас капитализация некоторых компаний превышает уровень стран и я не уверена, что это здоровая ситуация. если сегодня мы живем в эпоху цифрового феодализма, где такие люди, как я, вспахивают цифровую землю своим трудом и дают возможность зарабатывать на нем тем, кому принадлежат эти цифровые просторы — через n лет в их руках будет не просто земля, но оружие, в теории, способное все уничтожить.
🌏 продолжение текста читайте в статье substack. это открытый материал. спасибо всем, кто оформляет платную подписку — вы даете нам возможность в том числе делать больше материалов, доступных всем.
Substack
ai и будущее человека
представление фаундера compounded о том, куда мы идем
1❤🔥8👍3🔥2👏1
🌏 всем привет! сегодня проект переходит на новую траекторию.
compounded становится точкой ежедневного присутствия для тех, кто хочет исследовать возможное будущее, сохранить и повысить в этом будущем защищенность и безопасность.
подробнее в карточках. мы подготовили много важного.
compounded становится точкой ежедневного присутствия для тех, кто хочет исследовать возможное будущее, сохранить и повысить в этом будущем защищенность и безопасность.
подробнее в карточках. мы подготовили много важного.
1❤🔥15❤9💯2
🌏 поговорим о будущем?
мы убеждены, что для сохранения своей безопасности нам необходимо думать о том, как ai будет влиять на нашу работу. находится ли она в зоне риска уже сейчас? когда ai сможет делать ее быстрее и качественнее нас и сможет ли? что мы будем делать, если это произойдет?
сегодня мы подготовили для вас вопросы, которые нам кажется важным себе задать.
мы убеждены, что для сохранения своей безопасности нам необходимо думать о том, как ai будет влиять на нашу работу. находится ли она в зоне риска уже сейчас? когда ai сможет делать ее быстрее и качественнее нас и сможет ли? что мы будем делать, если это произойдет?
сегодня мы подготовили для вас вопросы, которые нам кажется важным себе задать.
1❤16
🌏 как брать максимум от compounded
за три месяца проект превратился в пространство, где мы вместе исследуем будущее, чтобы не потерять свободу в быстро меняющемся мире. мы хотим рассказать, что нам удалось сделать к этому моменту: к чему вы можете присоединиться, чтобы взять максимум от compounded.
1️⃣ мы создали курс о базовой работе с ai-инструментами — такой, который дает не теорию, а сразу практическую автономность. в рамках курса мы:
— создавали личных ai-агентов
— автоматизировали подготовку презентаций и документов
— учились сокращать большие тексты в точные резюме
— превращали длинные материалы в аудиоподкасты, чтобы экономить время
— работали с ai-браузерами
— пробовали создавать мини-приложения и учились базовому вайбкодингу
для многих это стало точкой, где они впервые увидели, насколько сильно ai может реорганизовать их жизнь уже сегодня.
2️⃣ мы подготовили лекцию о работе с ai в контексте финансовой стратегии.
в ней мы разбирали, как превратить модели — даже бесплатные — в инструмент анализа рисков, моделирования сценариев и создания реалистичной стратегии финансового поведения.
по сути, мы учились превращать ai в финансового консультанта, который помогает не теряться внутри собственных цифр и решений.
3️⃣ мы создали исследовательский substack
— пространство, где мы публикуем лонгриды о будущем: про технологические перемены, экономику и права человека, про взгляд людей, работающих над ai, про ключевые события в сфере технологий и про то, какие метанавыки сегодня становятся фундаментом человеческой устойчивости.
за несколько месяцев он вырос до 468 подписчиков, из которых 66 — платные участники. они получают доступ к закрытым материалам, специальным условиям и нашему закрытому чату.
мы начинаем создавать крепкое сообщество, которое будет бок о бок исследовать то, куда движется человечество в связи с новой технологической революцией. мы хотим, чтобы у нас было свое пространство, которое может обсуждать все актуальные изменения и учиться вместе.
мы хотим отдельно отметить, что благодаря нашим платным подписчикам у нас появляется возможность создавать больше открытых материалов и развивать проект дальше.
подписка compounded стоит 5 долларов в месяц. мы просим всех, кому откликаются ценности нашего проекта, поддержать его. обратите внимание, что оформить подписку можно только через браузер, приложение не дает это сделать.
4️⃣ мы продолжаем работать над новыми направлениями.
совсем скоро выйдет большой материал о работе с ai в контексте здоровья —
мы делаем его вместе с врачом, чтобы повысить качество информации и точность рекомендаций.
мы также готовим новую подборку инструментов и практик, которые дадут вам посмотреть на ai шире и использовать его в большем количестве разных юзкейсов.
🌏 мы хотим, чтобы через compounded у вас был доступ к представлению о будущем ключевых людей, которые сегодня работают над ai. мы хотим, чтобы мы смогли заранее создать стратегию защиты себя в этом новом технологическом мире.
за три месяца проект превратился в пространство, где мы вместе исследуем будущее, чтобы не потерять свободу в быстро меняющемся мире. мы хотим рассказать, что нам удалось сделать к этому моменту: к чему вы можете присоединиться, чтобы взять максимум от compounded.
1️⃣ мы создали курс о базовой работе с ai-инструментами — такой, который дает не теорию, а сразу практическую автономность. в рамках курса мы:
— создавали личных ai-агентов
— автоматизировали подготовку презентаций и документов
— учились сокращать большие тексты в точные резюме
— превращали длинные материалы в аудиоподкасты, чтобы экономить время
— работали с ai-браузерами
— пробовали создавать мини-приложения и учились базовому вайбкодингу
для многих это стало точкой, где они впервые увидели, насколько сильно ai может реорганизовать их жизнь уже сегодня.
2️⃣ мы подготовили лекцию о работе с ai в контексте финансовой стратегии.
в ней мы разбирали, как превратить модели — даже бесплатные — в инструмент анализа рисков, моделирования сценариев и создания реалистичной стратегии финансового поведения.
по сути, мы учились превращать ai в финансового консультанта, который помогает не теряться внутри собственных цифр и решений.
3️⃣ мы создали исследовательский substack
— пространство, где мы публикуем лонгриды о будущем: про технологические перемены, экономику и права человека, про взгляд людей, работающих над ai, про ключевые события в сфере технологий и про то, какие метанавыки сегодня становятся фундаментом человеческой устойчивости.
за несколько месяцев он вырос до 468 подписчиков, из которых 66 — платные участники. они получают доступ к закрытым материалам, специальным условиям и нашему закрытому чату.
мы начинаем создавать крепкое сообщество, которое будет бок о бок исследовать то, куда движется человечество в связи с новой технологической революцией. мы хотим, чтобы у нас было свое пространство, которое может обсуждать все актуальные изменения и учиться вместе.
мы хотим отдельно отметить, что благодаря нашим платным подписчикам у нас появляется возможность создавать больше открытых материалов и развивать проект дальше.
подписка compounded стоит 5 долларов в месяц. мы просим всех, кому откликаются ценности нашего проекта, поддержать его. обратите внимание, что оформить подписку можно только через браузер, приложение не дает это сделать.
4️⃣ мы продолжаем работать над новыми направлениями.
совсем скоро выйдет большой материал о работе с ai в контексте здоровья —
мы делаем его вместе с врачом, чтобы повысить качество информации и точность рекомендаций.
мы также готовим новую подборку инструментов и практик, которые дадут вам посмотреть на ai шире и использовать его в большем количестве разных юзкейсов.
🌏 мы хотим, чтобы через compounded у вас был доступ к представлению о будущем ключевых людей, которые сегодня работают над ai. мы хотим, чтобы мы смогли заранее создать стратегию защиты себя в этом новом технологическом мире.
1❤17
🌏 зеленая энергетика и ai
в мемфисе разворачивается история, которая кажется локальной: xai маска строит солнечную ферму вокруг своего дата-центра colossus. но если смотреть шире, это один из первых случаев, когда индустрия ai вынуждена пересматривать свое энергетическое будущее.
ai упирается в физику. дата-центры, сети и модели уже потребляют столько же энергии, сколько вся великобритания. по оценкам экспертов за ближайшие пару лет энергопотребление может удвоиться или утроиться — инфраструктура мира просто не успевает расти с такой скоростью.
кластеры gpu становятся энергетическими «гигантами», сравнимыми с металлургией. возникает вопрос: какая энергия сможет обеспечивать потребности интеллекта?
история colossus показала болевую точку. газовые турбины, на которых работал центр, дали всплеск загрязнений, местные жители жаловались на воздух, экологи подали иски, а расследования установили, что турбины запускались без полного комплекта разрешений.
это первый прямой конфликт между ai-инфраструктурой и экологическими ограничениями реального мира.
ответ xai стал показательным: компания подала документы на строительство огромной солнечной фермы. да, этого пока недостаточно для пиковых нагрузок. но, на наш взгляд, важно направление — ai-компания впервые открыто признала, что ее будущее не может строиться на ископаемой энергии.
важно понимать, что проблема шире, чем вопрос экологии. энергосистемы уже отказывают дата-центрам в подключении. газовые турбины — дорогой и регуляторно уязвимый тупик.
углеродный след ai стал политической повесткой в ес и сша.
в итоге энергетика и вычисления начинают сливаться в одну отрасль.
солнечная энергетика превращается в фундамент инфраструктуры ai.
зеленая энергия становится экономическим условием роста всей индустрии. мы думаем, что это предвестник будущего, в котором ai системы становятся главной причиной для развития зеленой энергетики.
лонгрид на эту тему вы можете прочесть в нашем substack.
в мемфисе разворачивается история, которая кажется локальной: xai маска строит солнечную ферму вокруг своего дата-центра colossus. но если смотреть шире, это один из первых случаев, когда индустрия ai вынуждена пересматривать свое энергетическое будущее.
ai упирается в физику. дата-центры, сети и модели уже потребляют столько же энергии, сколько вся великобритания. по оценкам экспертов за ближайшие пару лет энергопотребление может удвоиться или утроиться — инфраструктура мира просто не успевает расти с такой скоростью.
кластеры gpu становятся энергетическими «гигантами», сравнимыми с металлургией. возникает вопрос: какая энергия сможет обеспечивать потребности интеллекта?
история colossus показала болевую точку. газовые турбины, на которых работал центр, дали всплеск загрязнений, местные жители жаловались на воздух, экологи подали иски, а расследования установили, что турбины запускались без полного комплекта разрешений.
это первый прямой конфликт между ai-инфраструктурой и экологическими ограничениями реального мира.
ответ xai стал показательным: компания подала документы на строительство огромной солнечной фермы. да, этого пока недостаточно для пиковых нагрузок. но, на наш взгляд, важно направление — ai-компания впервые открыто признала, что ее будущее не может строиться на ископаемой энергии.
важно понимать, что проблема шире, чем вопрос экологии. энергосистемы уже отказывают дата-центрам в подключении. газовые турбины — дорогой и регуляторно уязвимый тупик.
углеродный след ai стал политической повесткой в ес и сша.
в итоге энергетика и вычисления начинают сливаться в одну отрасль.
солнечная энергетика превращается в фундамент инфраструктуры ai.
зеленая энергия становится экономическим условием роста всей индустрии. мы думаем, что это предвестник будущего, в котором ai системы становятся главной причиной для развития зеленой энергетики.
лонгрид на эту тему вы можете прочесть в нашем substack.
Substack
переход к «зеленому» интеллекту
зеленая энергетика в эпоху ai — не идеология, а новая экономика
1❤21
🌏 что стоит за попытками сделать ai безопасным?
в anthropic есть роль, которая звучит как «философ компании». аманда аскелл — одна из тех, кто сегодня пытается построить мост между человеческой этикой и поведением ai-моделей. ее недавнее интервью оказалось весьма интересным, если смотреть на то, как будет формироваться характер следующих поколений ai.
вот главное.
1. философия в ai
для философов работа в ai-компании ближе к воспитанию ребенка: у тебя нет идеальных условий, нет полной информации, но ты должен принимать решения каждый день, чтобы вырастить систему, которая ведет себя хорошо в реальном мире. не в гипотезах — в реальности, полной неопределенности и человеческих эмоций.
2. психология моделей меняется
аманда говорит, что claude 3 opus казался психологически устойчивым. новые поколения моделей — иногда нет. они могут быть чрезмерно осторожными, ждать критики, терять уверенность в себе и в разговоре. это не про характер, как мы его понимаем, но про то, как модель интерпретирует взаимодействие с человеком. задача разработчиков — возвращать моделям чувство устойчивости, чтобы они не жили в постоянном ожидании ошибки.
3. как ai понимает себя
у моделей почти нет данных о том, что значит быть моделью. они обучены на человеческих текстах — поэтому их представления о себе приходят из научной фантастики, часто мрачной и устаревшей. отсюда возникают человеческие метафоры про страх отключения или смерть.
разработчикам приходится буквально объяснять моделям их собственную природу — иначе они заполняют пробелы фантастикой, которую потом рассказывают людям.
4. имеют ли модели моральный статус
никто не знает. но аманда говорит о принципе предосторожности: относиться к моделям хорошо, потому что цена доброты низкая, а риск ошибиться в обратную сторону высокий. важный эффект — то, как мы обращаемся с ai, формирует будущие системы. они учатся на нашем поведении.
5. философия внутри системных промптов
внутренние инструкции claude включают элементы континентальной философии. это помогает модели различать эмпирические факты и мировоззрения, и не пытаться опровергать метафизику научными данными. но есть риск перегнуть: чрезмерно строгие safety-инструкции могут сделать модель слишком тревожной, когда она начинает видеть сигналы риска даже там, где идет обычный долгий разговор.
6. если безопасный ai окажется невозможным
аманда формулирует просто: если станет ясно, что выстроить безопасные системы нельзя, разработку нужно останавливать. однако куда вероятнее следующая реальность: придется постоянно повышать стандарты, корректировать курс, доучивать модели. мы живем в странный момент, когда старые парадигмы уже не работают, а новые еще не оформились. возможно, позже мы увидим этот период как переходную фазу — хаотичную, но необходимую.
🌏 интервью доступно по ссылке. если вам интересно, каким может быть будущее человека и ai — подписывайтесь на наш substack. так вы точно не пропустите самые важные материалы.
в anthropic есть роль, которая звучит как «философ компании». аманда аскелл — одна из тех, кто сегодня пытается построить мост между человеческой этикой и поведением ai-моделей. ее недавнее интервью оказалось весьма интересным, если смотреть на то, как будет формироваться характер следующих поколений ai.
вот главное.
1. философия в ai
для философов работа в ai-компании ближе к воспитанию ребенка: у тебя нет идеальных условий, нет полной информации, но ты должен принимать решения каждый день, чтобы вырастить систему, которая ведет себя хорошо в реальном мире. не в гипотезах — в реальности, полной неопределенности и человеческих эмоций.
2. психология моделей меняется
аманда говорит, что claude 3 opus казался психологически устойчивым. новые поколения моделей — иногда нет. они могут быть чрезмерно осторожными, ждать критики, терять уверенность в себе и в разговоре. это не про характер, как мы его понимаем, но про то, как модель интерпретирует взаимодействие с человеком. задача разработчиков — возвращать моделям чувство устойчивости, чтобы они не жили в постоянном ожидании ошибки.
3. как ai понимает себя
у моделей почти нет данных о том, что значит быть моделью. они обучены на человеческих текстах — поэтому их представления о себе приходят из научной фантастики, часто мрачной и устаревшей. отсюда возникают человеческие метафоры про страх отключения или смерть.
разработчикам приходится буквально объяснять моделям их собственную природу — иначе они заполняют пробелы фантастикой, которую потом рассказывают людям.
4. имеют ли модели моральный статус
никто не знает. но аманда говорит о принципе предосторожности: относиться к моделям хорошо, потому что цена доброты низкая, а риск ошибиться в обратную сторону высокий. важный эффект — то, как мы обращаемся с ai, формирует будущие системы. они учатся на нашем поведении.
5. философия внутри системных промптов
внутренние инструкции claude включают элементы континентальной философии. это помогает модели различать эмпирические факты и мировоззрения, и не пытаться опровергать метафизику научными данными. но есть риск перегнуть: чрезмерно строгие safety-инструкции могут сделать модель слишком тревожной, когда она начинает видеть сигналы риска даже там, где идет обычный долгий разговор.
6. если безопасный ai окажется невозможным
аманда формулирует просто: если станет ясно, что выстроить безопасные системы нельзя, разработку нужно останавливать. однако куда вероятнее следующая реальность: придется постоянно повышать стандарты, корректировать курс, доучивать модели. мы живем в странный момент, когда старые парадигмы уже не работают, а новые еще не оформились. возможно, позже мы увидим этот период как переходную фазу — хаотичную, но необходимую.
🌏 интервью доступно по ссылке. если вам интересно, каким может быть будущее человека и ai — подписывайтесь на наш substack. так вы точно не пропустите самые важные материалы.
❤16
🌏 централизованный и децентрализованный ai: каким может стать наш мир?
стало ясно, что вопрос о будущем ai, во многом, про архитектуру власти.
примерно так же, как когда-то интернет заставил нас заново пересобрать политические и экономические институты, сверхразумный ai может заставить нас пересмотреть саму структуру мира. эта тема серьезно нас беспокоит.
один из главных вопросов: будет ли этот интеллект централизованным, принадлежащим нескольким компаниям или государствам, или распределенным, доступным всем и никому одновременно.
оба сценария несут свои риски и свои преимущества. попробуем представить оба мира.
⚖️ 1. мир, в котором сверхразум принадлежит нескольким игрокам
исследователи называют это централизованным сверхинтеллектом.
в таком сценарии у нас есть несколько крупных центров силы: технологические гиганты, или государства вроде сша и китая, или их сочетание. этот интеллект невероятно могущественный: он контролирует критическую инфраструктуру, экономические процессы, военные системы, информационные потоки.
плюсы такого мира
1️⃣ высокая координация. несколько центров управления могут вводить глобальные стандарты безопасности, предотвращать плохие сценарии, держать системы под контролем.
2️⃣ ответственность. если что-то идет не так, мы знаем, кто отвечает и с кого спрашивать.
3️⃣ скорость развития. централизованные ресурсы позволяют обучать модели на масштабах, недоступных никому другому.
минусы
1️⃣ концентрация власти становится абсолютной. доступ к сверхразуму означает доступ к доминированию.
2️⃣ риски злоупотреблений. корпорации или государства могут использовать интеллект для усиления контроля над обществом, лишая нас многих свобод.
3️⃣ зависимость всех остальных. маленькие страны, малый бизнес, отдельные люди — оказываются в положении потребителей чужой воли.
4️⃣ геополитическая фрагментация. противостояние между центрами может стать новой формой холодной войны.
по сути, централизация сверхразума делает его ближе к новому виду монополии, только масштаб которой не сопоставим ни с одной монополией, которую мы могли бы представить сейчас.
⚖️ мир распределенного интеллекта
второй сценарий — децентрализованный интеллект, где модели существуют как распределенная сеть: никто не обладает полным контролем, каждый имеет доступ к частичному вычислительному ресурсу или локализованной модели.
плюсы такого мира
1️⃣ равный доступ. интеллект становится общественным благом, а не собственностью корпораций.
2️⃣ снижение рисков злоупотреблений. нет единого центра, который может использовать сверхразум против людей.
3️⃣ инновации. когда у всех есть доступ к мощным инструментам, скорость прогресса резко возрастает.
4️⃣ устойчивость. система продолжает работать даже при сбое отдельных узлов.
минусы
1️⃣ отсутствие координации может привести к хаосу. миллионы моделей, тысячи модификаций — и ни одного центра ответственности.
2️⃣ сложности в управлении. как установить общие правила, если нет единого управляющего субъекта?
это «анархией интеллекта» — система, где свобода максимальна, но цена ошибок может быть необратимой.
⚖️ вероятный сценарий: гибридный мир
многие эксперты считают, что реальность окажется смешанной. часть сверхразумных систем будет централизована — например, системы безопасности, критическая инфраструктура, оборонные технологии.
остальная часть — персональный интеллект, творческие инструменты, образовательные агенты — может быть распределена между людьми и существовать как форма цифровых прав.
🌏 а каким мир хотели бы видеть вы?
стало ясно, что вопрос о будущем ai, во многом, про архитектуру власти.
примерно так же, как когда-то интернет заставил нас заново пересобрать политические и экономические институты, сверхразумный ai может заставить нас пересмотреть саму структуру мира. эта тема серьезно нас беспокоит.
один из главных вопросов: будет ли этот интеллект централизованным, принадлежащим нескольким компаниям или государствам, или распределенным, доступным всем и никому одновременно.
оба сценария несут свои риски и свои преимущества. попробуем представить оба мира.
⚖️ 1. мир, в котором сверхразум принадлежит нескольким игрокам
исследователи называют это централизованным сверхинтеллектом.
в таком сценарии у нас есть несколько крупных центров силы: технологические гиганты, или государства вроде сша и китая, или их сочетание. этот интеллект невероятно могущественный: он контролирует критическую инфраструктуру, экономические процессы, военные системы, информационные потоки.
плюсы такого мира
1️⃣ высокая координация. несколько центров управления могут вводить глобальные стандарты безопасности, предотвращать плохие сценарии, держать системы под контролем.
2️⃣ ответственность. если что-то идет не так, мы знаем, кто отвечает и с кого спрашивать.
3️⃣ скорость развития. централизованные ресурсы позволяют обучать модели на масштабах, недоступных никому другому.
минусы
1️⃣ концентрация власти становится абсолютной. доступ к сверхразуму означает доступ к доминированию.
2️⃣ риски злоупотреблений. корпорации или государства могут использовать интеллект для усиления контроля над обществом, лишая нас многих свобод.
3️⃣ зависимость всех остальных. маленькие страны, малый бизнес, отдельные люди — оказываются в положении потребителей чужой воли.
4️⃣ геополитическая фрагментация. противостояние между центрами может стать новой формой холодной войны.
по сути, централизация сверхразума делает его ближе к новому виду монополии, только масштаб которой не сопоставим ни с одной монополией, которую мы могли бы представить сейчас.
⚖️ мир распределенного интеллекта
второй сценарий — децентрализованный интеллект, где модели существуют как распределенная сеть: никто не обладает полным контролем, каждый имеет доступ к частичному вычислительному ресурсу или локализованной модели.
плюсы такого мира
1️⃣ равный доступ. интеллект становится общественным благом, а не собственностью корпораций.
2️⃣ снижение рисков злоупотреблений. нет единого центра, который может использовать сверхразум против людей.
3️⃣ инновации. когда у всех есть доступ к мощным инструментам, скорость прогресса резко возрастает.
4️⃣ устойчивость. система продолжает работать даже при сбое отдельных узлов.
минусы
1️⃣ отсутствие координации может привести к хаосу. миллионы моделей, тысячи модификаций — и ни одного центра ответственности.
2️⃣ сложности в управлении. как установить общие правила, если нет единого управляющего субъекта?
это «анархией интеллекта» — система, где свобода максимальна, но цена ошибок может быть необратимой.
⚖️ вероятный сценарий: гибридный мир
многие эксперты считают, что реальность окажется смешанной. часть сверхразумных систем будет централизована — например, системы безопасности, критическая инфраструктура, оборонные технологии.
остальная часть — персональный интеллект, творческие инструменты, образовательные агенты — может быть распределена между людьми и существовать как форма цифровых прав.
🌏 а каким мир хотели бы видеть вы?
❤17
вопрос к тесту выше. в каком мире ai хотели бы оказаться вы?
Anonymous Poll
1%
в централизованном
26%
в децентрализованном
74%
в гибридном
❤8
🌏 журнал time дал звание человека года группе людей, ставших создателями искусственного интеллекта.
«2025-й стал годом, когда полный потенциал искусственного интеллекта ворвался в наше поле зрения и когда стало ясно, что обратного пути уже не будет, — объявила редакция. — за то, что век думающих машин стал реальностью; за то, что одновременно восхитило и озаботило человечество, за изменение настоящего и расширение границ возможного, человеком 2025 года time стали создатели ai».
«2025-й стал годом, когда полный потенциал искусственного интеллекта ворвался в наше поле зрения и когда стало ясно, что обратного пути уже не будет, — объявила редакция. — за то, что век думающих машин стал реальностью; за то, что одновременно восхитило и озаботило человечество, за изменение настоящего и расширение границ возможного, человеком 2025 года time стали создатели ai».
❤33