На финал Чемпионата Мира по футболу прилетели не только Илон Маск и Эмманюэль Макрон, но и Дмитрий Медведев — я узнал об этом из блог-поста, в котором прилагалась карта трекинга личного самолета российского алко-блогера.
Маск последние пару дней купался как раз в скандале о трекинге самолета: Чифтвит забанил аккаунт чувака, который выкладывал в сеть данные о передвижении самолета Маска, а также Билла Гейтса, Марка Цукерберга и Дональда Трампа. Перед этим Маск предлагал парню $5 000, чтобы тот остановил своего бота, трекающего полеты самолета. Парень отказался, и Маск, став хозяином Твиттера, забанил его аккаунт, мотивировав это тем, что такая информация создает угрозу безопасности ему, его семье и другим объектам доксинга. Отмечу, что информация о передвижении частных самолетов всё равно находится в открытом доступе.
Вспоминается телега Маска, где он говорит, что уже сейчас кто угодно может собрать своего дешевого и сердитого робота-убийцу. Для этого нужен дрон, небольшое количество взрывчатки, технология распознавания лиц, которая есть на любом смартфоне, и GPS-координаты объекта. Вуаля, у вас есть самонаводящееся оружие, тот самый автономный робот-убийца. А аккаунты с ботами вроде забаненного Маска — это, по сути, тоже компонент робота-убийцы.
Когда-то я возмущался тем, что Барак Обама – ярый сторонник военной практики targeted killing — программы убийств, которая реализуется государствами за пределами легальных норм или поля боя (в основном, дронами). Но на этой войне понял, что Обама был вполне гуманным человеком: таргетед киллинг позволяет уничтожать крупных военных преступников, иногда с жертвами среди мирного населения, — но все же спасая тысячи жизней.
Пока что решения об устранении людей принимают люди, но скоро ИИ будет делать этот выбор за нас. ИИ уже наблюдает за тем, ка мы договариваемся, как ругаемся, во что выливаются наши союзы и наши войны, он учится на наших действиях. Но я уверен, что его выводы будут совершенно другого порядка – во много раз точнее, быстрее, изобретательнее и свежее.
Так же как нейросеть AlphaFold многократно превосходит ученых в предсказании структуры белка, так же условная нейросеть SkyNet (почитайте википедию) будет справляться с мировой политикой и предотвращать войны (на худой конец, останавливать развязанные людьми войны) правильным targeted killing’ом.
Ну, если такая нейросеть будет доброй, хаха.
Маск последние пару дней купался как раз в скандале о трекинге самолета: Чифтвит забанил аккаунт чувака, который выкладывал в сеть данные о передвижении самолета Маска, а также Билла Гейтса, Марка Цукерберга и Дональда Трампа. Перед этим Маск предлагал парню $5 000, чтобы тот остановил своего бота, трекающего полеты самолета. Парень отказался, и Маск, став хозяином Твиттера, забанил его аккаунт, мотивировав это тем, что такая информация создает угрозу безопасности ему, его семье и другим объектам доксинга. Отмечу, что информация о передвижении частных самолетов всё равно находится в открытом доступе.
Вспоминается телега Маска, где он говорит, что уже сейчас кто угодно может собрать своего дешевого и сердитого робота-убийцу. Для этого нужен дрон, небольшое количество взрывчатки, технология распознавания лиц, которая есть на любом смартфоне, и GPS-координаты объекта. Вуаля, у вас есть самонаводящееся оружие, тот самый автономный робот-убийца. А аккаунты с ботами вроде забаненного Маска — это, по сути, тоже компонент робота-убийцы.
Когда-то я возмущался тем, что Барак Обама – ярый сторонник военной практики targeted killing — программы убийств, которая реализуется государствами за пределами легальных норм или поля боя (в основном, дронами). Но на этой войне понял, что Обама был вполне гуманным человеком: таргетед киллинг позволяет уничтожать крупных военных преступников, иногда с жертвами среди мирного населения, — но все же спасая тысячи жизней.
Пока что решения об устранении людей принимают люди, но скоро ИИ будет делать этот выбор за нас. ИИ уже наблюдает за тем, ка мы договариваемся, как ругаемся, во что выливаются наши союзы и наши войны, он учится на наших действиях. Но я уверен, что его выводы будут совершенно другого порядка – во много раз точнее, быстрее, изобретательнее и свежее.
Так же как нейросеть AlphaFold многократно превосходит ученых в предсказании структуры белка, так же условная нейросеть SkyNet (почитайте википедию) будет справляться с мировой политикой и предотвращать войны (на худой конец, останавливать развязанные людьми войны) правильным targeted killing’ом.
Ну, если такая нейросеть будет доброй, хаха.
🌚1
Китай в очередной раз удивляет и доказывает, что КПК умеет не только закручивать гайки, но и запускать воздух в дом. После протестов против политики “нулевого ковида” правительство Си пошло навстречу: ослабило правило QR-кодов (в большинство мест теперь можно пройти без сканирования), упростило карантин, ослабило локдауны и наконец разрешило свободное перемещение граждан по территории Китая.
Еще интереснее, что после двух лет беспрецедентного давления на технокорпорации, которое привело к радикальному падению их стоимости и смене топ-менеджмента, Партия снова обещает им (в первую очередь Alibaba и Tencent) полную поддержку, а также ждет от них создания новых рабочих мест и процветания. Возможно, со временем и сами техноолигархи, которых Партия два года последовательно лишала власти и капитала, вернутся обратно в ранг национальных героев и полубожеств (в первую очередь я имею в виду техноидола и основателя Alibaba Джека Ма, с которого и начался «tech crackown»).
Китайская культура со мной с юности: даосизм, И-цзин, чан-буддизм, даже конфуцианство – часть моего культурного и духовного кода, я во многом формировался на их книгах и практиках. Когда уже будучи взрослым я сменил свою культурную ориентацию с прошлого на будущее, то с удивлением обнаружил, что Китай (тот самый Древний Китай) строит ультра-будущее, в котором технократы с помощью технологий управляют народом — такое себе цифровое Дао.
Война расставила другие акценты. Увлечение Кибер Поднебесной сильно омрачилось осознанием того, что Китай – хедлайнер мирового «Авторитарного клуба», а другой член этого клуба, презренный и отсталый, бомбит мою страну и убивает детей моих соседей. Уйгуры, которых Китай насильственно перевоспитывает средствами техно-бихевиоризма, вдруг стали для меня реальными людьми, такими же, как я — и я стал им безумно сочувствовать.
На фоне войны я явственно понял, что в случае успеха путинских военных в Укриане освоенные россиянами китайские подходы к людям обернутся для меня попаданием в цифровой концентрационный лагерь. Если бы в феврале Путин захватил Киев, меня, может, и не расстреляли бы — но точно отправили в а-ля уйгурский лагерь на «перевоспитание». Нынешняя Россия – именно презренный и отсталый представитель Авторитарного клуба. Так что, думаю, лагеря для украинцев выглядели бы куда страшнее, а методы «перевоспитания» были бы жестче и безмерно тупее, чем в китайских лагерях для уйгуров.
С самого начала войны меня едва ли не больше всего волновал вопрос: впишется ли Китай за РФ? Все 10 месяцев войны я внимательно следил за новостями из Поднебесной и опасался прочитать, что КНР таки решилась открыто поддержать Путина. Иоей любимой рубрикой были “Хроники великой дружбы”, где российский политолог Белковский собирал хуевые для РФ новости, подтверждавшие, что Китай отгораживается, а не сближается с РФ.
Когда Си пришел на третий срок, я особенно напрягся и внимательно изучил историю и личность “второго Мао”. Тогда я пришел к выводу, что для Украины лучше было бы, если бы КНР погрузилась в решение внутренних проблем Поднебесной — и чтобы ебаный Путин встал в шестидесятый пункт в списке приоритетов Партии.
Так и складывается. Партия решает внутренние проблемы и идет навстречу демократическому клубу. Даже у Беларуси сейчас более высокий уровень дипломатических отношений с КНР, чем у России: Лукашенко не будет слушать только одного Путина, ведь за спиной обоих всегда стоит Си.
А у Си Цзинпина сейчас, кажется, появляется совсем другая повестка, которой вообще не к лицу российская захватническая война, полная жестоких преступлений, приводящих в ужас демократический мир.
Еще интереснее, что после двух лет беспрецедентного давления на технокорпорации, которое привело к радикальному падению их стоимости и смене топ-менеджмента, Партия снова обещает им (в первую очередь Alibaba и Tencent) полную поддержку, а также ждет от них создания новых рабочих мест и процветания. Возможно, со временем и сами техноолигархи, которых Партия два года последовательно лишала власти и капитала, вернутся обратно в ранг национальных героев и полубожеств (в первую очередь я имею в виду техноидола и основателя Alibaba Джека Ма, с которого и начался «tech crackown»).
Китайская культура со мной с юности: даосизм, И-цзин, чан-буддизм, даже конфуцианство – часть моего культурного и духовного кода, я во многом формировался на их книгах и практиках. Когда уже будучи взрослым я сменил свою культурную ориентацию с прошлого на будущее, то с удивлением обнаружил, что Китай (тот самый Древний Китай) строит ультра-будущее, в котором технократы с помощью технологий управляют народом — такое себе цифровое Дао.
Война расставила другие акценты. Увлечение Кибер Поднебесной сильно омрачилось осознанием того, что Китай – хедлайнер мирового «Авторитарного клуба», а другой член этого клуба, презренный и отсталый, бомбит мою страну и убивает детей моих соседей. Уйгуры, которых Китай насильственно перевоспитывает средствами техно-бихевиоризма, вдруг стали для меня реальными людьми, такими же, как я — и я стал им безумно сочувствовать.
На фоне войны я явственно понял, что в случае успеха путинских военных в Укриане освоенные россиянами китайские подходы к людям обернутся для меня попаданием в цифровой концентрационный лагерь. Если бы в феврале Путин захватил Киев, меня, может, и не расстреляли бы — но точно отправили в а-ля уйгурский лагерь на «перевоспитание». Нынешняя Россия – именно презренный и отсталый представитель Авторитарного клуба. Так что, думаю, лагеря для украинцев выглядели бы куда страшнее, а методы «перевоспитания» были бы жестче и безмерно тупее, чем в китайских лагерях для уйгуров.
С самого начала войны меня едва ли не больше всего волновал вопрос: впишется ли Китай за РФ? Все 10 месяцев войны я внимательно следил за новостями из Поднебесной и опасался прочитать, что КНР таки решилась открыто поддержать Путина. Иоей любимой рубрикой были “Хроники великой дружбы”, где российский политолог Белковский собирал хуевые для РФ новости, подтверждавшие, что Китай отгораживается, а не сближается с РФ.
Когда Си пришел на третий срок, я особенно напрягся и внимательно изучил историю и личность “второго Мао”. Тогда я пришел к выводу, что для Украины лучше было бы, если бы КНР погрузилась в решение внутренних проблем Поднебесной — и чтобы ебаный Путин встал в шестидесятый пункт в списке приоритетов Партии.
Так и складывается. Партия решает внутренние проблемы и идет навстречу демократическому клубу. Даже у Беларуси сейчас более высокий уровень дипломатических отношений с КНР, чем у России: Лукашенко не будет слушать только одного Путина, ведь за спиной обоих всегда стоит Си.
А у Си Цзинпина сейчас, кажется, появляется совсем другая повестка, которой вообще не к лицу российская захватническая война, полная жестоких преступлений, приводящих в ужас демократический мир.
👍4
P.S. Спасибо всем читателям, которые пишут комментарии!
Самыми полезными мне кажутся комментарии, в которых люди задаются вопросами, предлагают новый угол зрения на мои мысли, задают сложные и неудобные вопросы, не соглашаются и обоснованно опровергают мои тезисы. Некоторые каменты заставляют меня крепко задуматься, некоторые озвучивают мои собственные сомнения и мысли, — благодаря этому я думаю дальше и пишу новые посты, даже если не отвечаю в самом чате. Так что задавайте побольше вопросов и лайкайте и дизлайкайте чужие вопросы и тезисы, пожалуйста.
Но помните: я одновременно выступаю и за свободу слова и за свободу бана — все мнения приветствуются, но говно не пройдёт.
P.P.S. Я начал вести Инстаграм Цукерберга: дублирую посты отсюда со своими фотографиями в качестве иллюстраций, но главное — веду сториз, в которых выкладываю скриншоты новостей, по мотивам которых пишу статьи, посты и которые просто считаю важными. Как в условиях киевских блекаутов вести новости в ТГ, я пока не придумал, — да и не думаю, что надо.
Буду рад, если вы, дорогие читатели «Чорт ногу сломит» с технологическими, философскими и политическими интересами, будете наслаждаться моими новостными сториз там.
Please subscribe, sergei.jdanov
Самыми полезными мне кажутся комментарии, в которых люди задаются вопросами, предлагают новый угол зрения на мои мысли, задают сложные и неудобные вопросы, не соглашаются и обоснованно опровергают мои тезисы. Некоторые каменты заставляют меня крепко задуматься, некоторые озвучивают мои собственные сомнения и мысли, — благодаря этому я думаю дальше и пишу новые посты, даже если не отвечаю в самом чате. Так что задавайте побольше вопросов и лайкайте и дизлайкайте чужие вопросы и тезисы, пожалуйста.
Но помните: я одновременно выступаю и за свободу слова и за свободу бана — все мнения приветствуются, но говно не пройдёт.
P.P.S. Я начал вести Инстаграм Цукерберга: дублирую посты отсюда со своими фотографиями в качестве иллюстраций, но главное — веду сториз, в которых выкладываю скриншоты новостей, по мотивам которых пишу статьи, посты и которые просто считаю важными. Как в условиях киевских блекаутов вести новости в ТГ, я пока не придумал, — да и не думаю, что надо.
Буду рад, если вы, дорогие читатели «Чорт ногу сломит» с технологическими, философскими и политическими интересами, будете наслаждаться моими новостными сториз там.
Please subscribe, sergei.jdanov
⚡1
ChatGPT, новый продукт OpenAI, который называют еще GPT-3,5, умеет быстро читать большие массивы текста, “понимать” смысл, выдавать summary, даже выявлять смыслы “между строк”, определять тональность текста и его общий посыл. Всего за пару лет из спорной фантастики это превратилась в реальный инструмент, который позволит создавать новые, ещё более фантастические инструменты.
Больше всего меня занимает тот факт, что ChatGPT умеет не только перелопачивать и «понимать» горы текстов на естественных языках — но и делать то же с искусственными, в том числе с языками программирования. Это значит, что разработанные на его основе нейросети в ближайшем будущем лишат работы тысячи программистов и инженеров. Что еще интереснее, кибербезопасность выйдет на новый уровень, расплодятся хакерские нейросети, бороться с которыми будут другие нейросети-защитники.
Компания OpenAI делится своими ИИ разработками с мировым интернет-сообществом почти for free: более миллиона человек уже три недели практически бесплатно используют ChatGPT, а сама компания платит около $100 000 в день за содержание работы ChatGPT.
В 2015 году Илон Маск и Сэм Альтман основали OpenAI, чтобы создать AGI (Artificial general intelligence) – условно, нейросети с сознанием. Другой сооснователь компании, Илья Суцкевер, в феврале 2022 наделал шума, заявив, что некоторые нейросети на основе GPT-3 уже “немного сознательны”.
В Кремниевой долине ходят слухи, что нейросети Google опережают ChatGPT на 4 года, и их, якобы, не выкатывают в открытый доступ, чтобы не слишком ускорять массовые потери рабочих мест. Другая часть техно-сообщества думает, что Google сейчас в панике и теперь будет отчаянно догонять OpenAI, потому что ChatGPT грозится вытеснить Google с трона поисковиков: на основе нейросетей OpenAI уже строят множество «поисковиков для эры ИИ» — в том числе выходцы из самого Google.
Мы с вами наблюдаем «ревущие ИИ двадцатые» — период прорывов в мире технологий, которые, по словам специалистов, изменят мир больше, чем электричество. Но у ИИ-чуда есть горький привкус: прежде чем мы попадем в ИИ-оазис, нам нужно будет пройти через пустыню испытаний. Войны за перераспределение ресурсов в переходной период, падение целых индустрий и создание радикально новых экономических и политических образований, массированные сокращения во всех сферах экономики, массовая безработица и, как следствие, протесты, революции… и опять войны.
Один из возможных сценариев развития событий – затяжная мировая война, в которой все воюют со всеми: разные страны и граждане одной страны, бедные с богатыми, корпорации со спецслужбами. И чем дольше люди будут воевать, тем больше будет развиваться военизированный и все более автономный ИИ, который со временем, довольно быстро, перехватит у людей инициативу и приведет к апокалиптичным последствиям.
Больше всего меня занимает тот факт, что ChatGPT умеет не только перелопачивать и «понимать» горы текстов на естественных языках — но и делать то же с искусственными, в том числе с языками программирования. Это значит, что разработанные на его основе нейросети в ближайшем будущем лишат работы тысячи программистов и инженеров. Что еще интереснее, кибербезопасность выйдет на новый уровень, расплодятся хакерские нейросети, бороться с которыми будут другие нейросети-защитники.
Компания OpenAI делится своими ИИ разработками с мировым интернет-сообществом почти for free: более миллиона человек уже три недели практически бесплатно используют ChatGPT, а сама компания платит около $100 000 в день за содержание работы ChatGPT.
В 2015 году Илон Маск и Сэм Альтман основали OpenAI, чтобы создать AGI (Artificial general intelligence) – условно, нейросети с сознанием. Другой сооснователь компании, Илья Суцкевер, в феврале 2022 наделал шума, заявив, что некоторые нейросети на основе GPT-3 уже “немного сознательны”.
В Кремниевой долине ходят слухи, что нейросети Google опережают ChatGPT на 4 года, и их, якобы, не выкатывают в открытый доступ, чтобы не слишком ускорять массовые потери рабочих мест. Другая часть техно-сообщества думает, что Google сейчас в панике и теперь будет отчаянно догонять OpenAI, потому что ChatGPT грозится вытеснить Google с трона поисковиков: на основе нейросетей OpenAI уже строят множество «поисковиков для эры ИИ» — в том числе выходцы из самого Google.
Мы с вами наблюдаем «ревущие ИИ двадцатые» — период прорывов в мире технологий, которые, по словам специалистов, изменят мир больше, чем электричество. Но у ИИ-чуда есть горький привкус: прежде чем мы попадем в ИИ-оазис, нам нужно будет пройти через пустыню испытаний. Войны за перераспределение ресурсов в переходной период, падение целых индустрий и создание радикально новых экономических и политических образований, массированные сокращения во всех сферах экономики, массовая безработица и, как следствие, протесты, революции… и опять войны.
Один из возможных сценариев развития событий – затяжная мировая война, в которой все воюют со всеми: разные страны и граждане одной страны, бедные с богатыми, корпорации со спецслужбами. И чем дольше люди будут воевать, тем больше будет развиваться военизированный и все более автономный ИИ, который со временем, довольно быстро, перехватит у людей инициативу и приведет к апокалиптичным последствиям.
👍2
ИИ-трибунал
Я считаю, что наказание России за агрессивную захватническую войну в Украине нужно сделать назидательным для жителей XXI столетия. В наступающую эпоху новой прозрачности никакие злодеяния не могут остаться тайной: никакими информационными спецоперациями и ПСИОПами не опровергнешь обвинителей, если ты так жестко наследил у всего мира на виду. Захватническая война в центре Европы — заснятая камерами наблюдения, смартфонами местных жителей, спутниками и дронами и собранная ИИ — не сойдёт с рук российскому руководству, военным и другим гражданам России, которые словом и делом обеспечивали возможность этой войны.
Я хорошо знаю риторику Путина и его команды за последние 15 лет — с той самой «мюнхенской речи» в 2007 году. Главный оправдательный риторический прием Путина и его друзей для совершения преступлений: «так делали до нас, чем мы хуже?» — чуток модифицированная форма вопроса «тварь я дрожащая или право имею?». Этот вопрос — классика для России. Убийственная классика. Оправдание преступлений, которые совершают, эти люди находят в факте того, что такие же преступления совершались до них.
Очень важно показательно наказать россиян, ведущих войну, поддерживающих, оправдывающих и делающих её возможной. Очень важно, чтобы человечество зарубило на носу: нельзя повторять убийственные ошибки прошлого, оправдываясь какой-то сраной «традицией». Наоборот, человечество превозмогает жестокости прошлого, которые когда-то считались нормой: рабы и по-настоящему рабский труд, массовая эксплуатация детей, геноциды как политическая норма — мы все стараемся выбраться из этой дикости. Да, всё это было в прошлом — но это вовсе не причина возвращаться на самые отвратительные станицы человеческой истории.
Пишу этот этот фильм после фильма-расследования NYT про военные преступления в Буче, в котором зафиксировано, как вооруженные ублюдки методично, по плану и под руководством высшего командования убивали простых мирных граждан у продуктовых магазинов, в собственных домах, при попытках эвакуироваться на машине или проехать на велосипеде в другую часть города к своем родственникам. Теперь мы знаем их имена, звания, их девушек, друзей и родителей в России, их командиров вплоть до генералов — с десятками и сотнями подлинных документов. Все это складывается в один громадный кровавый цифровой след.
Вспоминаю начало войны, когда у меня не было ни сил, ни времени, чтобы писать. Но я пытался. И в одном из первых черновиков говорил: «Это будет самая задокументированная война в истории». А сейчас над документацией и расследованием этой войны работают не только мировые журналисты-расследователи, но и передовые биг-дата корпорации, например, Palantir.
В отличие от людей, ИИ ничего не пропустит: мы сможем восстановить подробности этой войны в таких деталях, что кал будет стынуть прямо в кишечнике подсудимых россиян, которые думали, что Страшный Суд — это сказочки для детей. Благодаря массивам больших данных мы будем видеть подруг, жен, детей, родственников и мамочек тех россиян, которые убивали, пытали и насиловали на украинской земле или отдавали такие приказы: у нас есть съемки, звонки, письма, базы данных и соцсети.
Благодаря цифровому следу и цифровому ID по требованию международных расследователей вместе с военными преступниками любой россиянин может предстать перед судом, как на ладони: от живущих в России зомбаков, до тех сотен тысяч, что выбрали эмиграцию. Уже сегодня можно проследить все связи и шаги каждого россиянина, а также проанализировать его вклад в поддержку войны — и рассчитать для каждого объем ответственности, наказания и репараций.
Это зло не может пройти и не пройдет безнаказанными. Иначе наша жизнь в XXI веке превратится в кровавый абсурд. Я хочу, чтобы вопрос о суде, наказании и репарациях решался новым способом, который не был доступен раньше: учитывающим возможности больших данных и искусственного интеллекта. Первый в истории ИИ трибунал, the first Digital Last Judgment.
Я считаю, что наказание России за агрессивную захватническую войну в Украине нужно сделать назидательным для жителей XXI столетия. В наступающую эпоху новой прозрачности никакие злодеяния не могут остаться тайной: никакими информационными спецоперациями и ПСИОПами не опровергнешь обвинителей, если ты так жестко наследил у всего мира на виду. Захватническая война в центре Европы — заснятая камерами наблюдения, смартфонами местных жителей, спутниками и дронами и собранная ИИ — не сойдёт с рук российскому руководству, военным и другим гражданам России, которые словом и делом обеспечивали возможность этой войны.
Я хорошо знаю риторику Путина и его команды за последние 15 лет — с той самой «мюнхенской речи» в 2007 году. Главный оправдательный риторический прием Путина и его друзей для совершения преступлений: «так делали до нас, чем мы хуже?» — чуток модифицированная форма вопроса «тварь я дрожащая или право имею?». Этот вопрос — классика для России. Убийственная классика. Оправдание преступлений, которые совершают, эти люди находят в факте того, что такие же преступления совершались до них.
Очень важно показательно наказать россиян, ведущих войну, поддерживающих, оправдывающих и делающих её возможной. Очень важно, чтобы человечество зарубило на носу: нельзя повторять убийственные ошибки прошлого, оправдываясь какой-то сраной «традицией». Наоборот, человечество превозмогает жестокости прошлого, которые когда-то считались нормой: рабы и по-настоящему рабский труд, массовая эксплуатация детей, геноциды как политическая норма — мы все стараемся выбраться из этой дикости. Да, всё это было в прошлом — но это вовсе не причина возвращаться на самые отвратительные станицы человеческой истории.
Пишу этот этот фильм после фильма-расследования NYT про военные преступления в Буче, в котором зафиксировано, как вооруженные ублюдки методично, по плану и под руководством высшего командования убивали простых мирных граждан у продуктовых магазинов, в собственных домах, при попытках эвакуироваться на машине или проехать на велосипеде в другую часть города к своем родственникам. Теперь мы знаем их имена, звания, их девушек, друзей и родителей в России, их командиров вплоть до генералов — с десятками и сотнями подлинных документов. Все это складывается в один громадный кровавый цифровой след.
Вспоминаю начало войны, когда у меня не было ни сил, ни времени, чтобы писать. Но я пытался. И в одном из первых черновиков говорил: «Это будет самая задокументированная война в истории». А сейчас над документацией и расследованием этой войны работают не только мировые журналисты-расследователи, но и передовые биг-дата корпорации, например, Palantir.
В отличие от людей, ИИ ничего не пропустит: мы сможем восстановить подробности этой войны в таких деталях, что кал будет стынуть прямо в кишечнике подсудимых россиян, которые думали, что Страшный Суд — это сказочки для детей. Благодаря массивам больших данных мы будем видеть подруг, жен, детей, родственников и мамочек тех россиян, которые убивали, пытали и насиловали на украинской земле или отдавали такие приказы: у нас есть съемки, звонки, письма, базы данных и соцсети.
Благодаря цифровому следу и цифровому ID по требованию международных расследователей вместе с военными преступниками любой россиянин может предстать перед судом, как на ладони: от живущих в России зомбаков, до тех сотен тысяч, что выбрали эмиграцию. Уже сегодня можно проследить все связи и шаги каждого россиянина, а также проанализировать его вклад в поддержку войны — и рассчитать для каждого объем ответственности, наказания и репараций.
Это зло не может пройти и не пройдет безнаказанными. Иначе наша жизнь в XXI веке превратится в кровавый абсурд. Я хочу, чтобы вопрос о суде, наказании и репарациях решался новым способом, который не был доступен раньше: учитывающим возможности больших данных и искусственного интеллекта. Первый в истории ИИ трибунал, the first Digital Last Judgment.
YouTube
Exposing the Russian Military Unit Behind a Massacre in Bucha | Visual Investigations
We spent months in Ukraine, investigating who killed dozens of civilians along one street in Bucha, a normally quiet town on the outskirts of Kyiv. Our visual investigation unmasks the military unit responsible, using exclusive phone records, documents, interviews…
👍8👨💻1
Одна из самых горячих тем в технобизнессе в этом году – курс на сокращение количества сотрудников в передовых технокорпорациях. Марк Андриссен, создатель первого популярного веб-браузера Netscape и впоследствии один из ключевых инвесторов Кремниевой долины, еще весной озвучил убийственную арифметику: «Хорошие большие компании содержат в 2 раза больше сотрудников, чем нужно. А плохие большие компании – в 4 раза».
Андриссен был одним из тех, кто помог Маску купить Twitter (дал $400 млн), и судя по действиям Маска, приобретенная им соцсеть – это как раз плохая большая компания. На днях Маск приходил в эфир подкаста All-In и там объяснял, по какому принципу отобрал тех, кого оставил в Twitter:
– те, кто исключительно хорошо делает свою работу
– те, чья роль критично важна для компании
– те, кто производит позитивный эффект на других работников
– те, кому можно доверять (то есть кто ставит интересы компании выше своих интересов)
– те, кто работает в режиме хардкор
По таким критериям осталось около 25% работников: 2 000 из 8 000 — но есть вероятность, что Маск и дальше будет сокращать штат компании.
Сам Маск – известный трудоголик, который спит под рабочим столом, созывает совещания по ночам, не знает, что такое выходные, и одобряет китайскую рабочую этику «996». А чтобы объяснить стиль управления Маска, его коллеги рассказывают типичную историю: миллиардер наехал на нескольких интернов, которые стояли в его офисе в очереди к кофе-машине и ничего не делали – “если еще раз такое увижу – вы уволены”.
Но личная рабочая этика Маска – далеко не главная причина массовых сокращений в Twitter. 2022 год вообще стал одним из самых худших лет в истории техноиндустрии, хотя на фоне войны об этом относительно мало говорят. Массовые сокращения – логичный шаг после того, как почти все крупные технокорпорации остановили найм новых сотрудников из-за крайне нестабильной финансовой ситуации в 2022 году.
В 2023 году, по словам Маска, мир накроет рецессия не меньшая, чем в 2008 (тогда это называлось «мировой экономический кризис»), и выходить из нее мир начнет в лучшем случае во втором квартале 2024 года. Очевидные причины нового глобального кризиса – 2 года пандемии + год войны, которые вместе сложились в непрерывную цепочку шоковых волн для мировой экономики.
В 2023 году мы, вполне вероятно, столкнемся с нейросетевым цунами, результатом которого станет гигантская потеря рабочих мест абсолютно во всех отраслях бизнеса, где ИИ сможет заменить львиную долю работников разного уровня. Уже случившиеся и грядущие сокращения в техноиндустрии происходят раньше, чем везде, и показывают общий тренд: если массовые увольнения накрывают самый требовательный к рабочей силе, самый прогрессивный и самый прибыльный сегмент бизнеса — что будет в секторах, где требования к рабочей силе гораздо ниже?
Однако не все так мрачно, как звучит. Технокорпорации показывают, что человеческие компетенции и интеллект можно и нужно заменять более эффективным искусственным интеллектом, который стоит копейки по сравнению с живыми сотрудниками. Сэм Альтман — CEO OpenAI, главной ИИ компании 2022 года и катализатора грядущей ИИ-революции — предсказывает, что стоимость интеллекта в ближайшие 10 лет упадет практически до нуля.
Это означает, что новым бизнесам, в основании которых сразу будет заложен ИИ, нужно будет еще меньше ресурсов, чтобы стартовать и разрастись.
Так что вне зависимости от того, в какой сфере вы сейчас работаете, инвестиции времени и сил в изучение ИИ – самое правильное вложение, которые мы все себе можем позволить.
Андриссен был одним из тех, кто помог Маску купить Twitter (дал $400 млн), и судя по действиям Маска, приобретенная им соцсеть – это как раз плохая большая компания. На днях Маск приходил в эфир подкаста All-In и там объяснял, по какому принципу отобрал тех, кого оставил в Twitter:
– те, кто исключительно хорошо делает свою работу
– те, чья роль критично важна для компании
– те, кто производит позитивный эффект на других работников
– те, кому можно доверять (то есть кто ставит интересы компании выше своих интересов)
– те, кто работает в режиме хардкор
По таким критериям осталось около 25% работников: 2 000 из 8 000 — но есть вероятность, что Маск и дальше будет сокращать штат компании.
Сам Маск – известный трудоголик, который спит под рабочим столом, созывает совещания по ночам, не знает, что такое выходные, и одобряет китайскую рабочую этику «996». А чтобы объяснить стиль управления Маска, его коллеги рассказывают типичную историю: миллиардер наехал на нескольких интернов, которые стояли в его офисе в очереди к кофе-машине и ничего не делали – “если еще раз такое увижу – вы уволены”.
Но личная рабочая этика Маска – далеко не главная причина массовых сокращений в Twitter. 2022 год вообще стал одним из самых худших лет в истории техноиндустрии, хотя на фоне войны об этом относительно мало говорят. Массовые сокращения – логичный шаг после того, как почти все крупные технокорпорации остановили найм новых сотрудников из-за крайне нестабильной финансовой ситуации в 2022 году.
В 2023 году, по словам Маска, мир накроет рецессия не меньшая, чем в 2008 (тогда это называлось «мировой экономический кризис»), и выходить из нее мир начнет в лучшем случае во втором квартале 2024 года. Очевидные причины нового глобального кризиса – 2 года пандемии + год войны, которые вместе сложились в непрерывную цепочку шоковых волн для мировой экономики.
В 2023 году мы, вполне вероятно, столкнемся с нейросетевым цунами, результатом которого станет гигантская потеря рабочих мест абсолютно во всех отраслях бизнеса, где ИИ сможет заменить львиную долю работников разного уровня. Уже случившиеся и грядущие сокращения в техноиндустрии происходят раньше, чем везде, и показывают общий тренд: если массовые увольнения накрывают самый требовательный к рабочей силе, самый прогрессивный и самый прибыльный сегмент бизнеса — что будет в секторах, где требования к рабочей силе гораздо ниже?
Однако не все так мрачно, как звучит. Технокорпорации показывают, что человеческие компетенции и интеллект можно и нужно заменять более эффективным искусственным интеллектом, который стоит копейки по сравнению с живыми сотрудниками. Сэм Альтман — CEO OpenAI, главной ИИ компании 2022 года и катализатора грядущей ИИ-революции — предсказывает, что стоимость интеллекта в ближайшие 10 лет упадет практически до нуля.
Это означает, что новым бизнесам, в основании которых сразу будет заложен ИИ, нужно будет еще меньше ресурсов, чтобы стартовать и разрастись.
Так что вне зависимости от того, в какой сфере вы сейчас работаете, инвестиции времени и сил в изучение ИИ – самое правильное вложение, которые мы все себе можем позволить.
👍9😐1
Рубрика «После массированного ракетного обстрела»
Юваль Харари в свежем эссе «Что на кону в Украине? Направление человеческой истории» для моего любимого журнала Economist озвучил мысль, которая не дает мне покоя с самого начала войны:
«Мировая экономика перестала основываться на материалах и стала основываться на знаниях. Раньше главным источником богатства были материальные ресурсы вроде золотых шахт, пшеничных полей и нефтяных скважин. Сегодня же главный источник богатства – знание. И в то время как нефтяные скважины можно захватить силой, получить знания с помощью силы не получится. В итоге прибыльность завоеваний существенно снизилась».
С первых дней войны понятно, что путинский режим тупо пытается захватить побольше украинских земель. Но учитывая (в общем-то расхожую) мысль Харари об эпохе знаний, мне было сложно в это поверить! У нас очень богатая земля, это правда: например, в Донецкой и Днепропетровской областях есть крупнейшие залежи лития, необходимого для производства почти всей современной техники. Но путинский режим ничего не смог бы сделать с этим литием, так как санкции отрезали его от западных знаний – в руках варваров литий бесполезен. Варвары продолжают мыслить категориями шахта и полей.
Украина побеждает в этой войне именно благодаря знаниям и технологиям, которыми с нами делятся самые преуспевающие в этих сферах страны и которые создаются и совершенствуются умнейшими украинскими специалистами под градами тупых российских ракет, снарядов и патронов. Самые умные и талантливые представители украинского народа – айтишники, инженеры, профессура и т.д. – вместе не только дают отпор русским варварам, но и буквально каждый день создают инновационные решения самых сложных проблем: непотопляемая энергетика, непроницаемая для хакеров банковская и государственная система, война дронов и IT-армия – всё это движет не только украинскую, но и мировую экономику знаний вперед.
Всё хорошее в России существовало и развивалось не благодаря, а вопреки путинскому режиму. И своей дебильной войной он выгнал из страны мозги, которые обеспечивали России крохи прогресса в сторону экономики знаний. Напомню еще раз: не только мутный Киссинджер прочил РФ в третью ИИ-сверхдержаву, но этот прогноз повторял и бывший CEO Google Эрик Шмидт, который в этой войне с самого начала занял проукраинскую позицию и приезжал в обстреливаемый крылатыми ракетами Киев, чтобы пообщаться с молодыми украинскими талантами, основой экономики знаний (то есть его мнение о возможном потенциале России до полномасштабного вторжения нельзя объяснить его политическими взглядами).
Мир не собирается терпеть отсталую российскую властную хунту, до сих пор выезжавшую за счет экономики знаний своего кровавого предшественника, СССР, развалившегося 30 лет назад. И на этом устаревшем наследии пытается держаться в 2020-х, когда прогресс в сфере знаний ускоряется с каждым часом, не то что каждый год.
И пара слов об утекших из РФ мозгах, которые до войны были способны обеспечить развитие экономики знаний. С одной стороны, я искренне рад, что эти люди уехали и вышли из-под юрисдикции архаичных кремлевских пенсионеров. С другой, я искренне недоумеваю от того, что некоторые из них продолжают работать в российских компаниях, на эту кровавую архаику, даже из-за границы. Еще меньше я понимаю, почему эти самые бежавшие представители экономики знаний такие беспомощные: они не представляют собой ни политической, ни интеллектуальной силы — просто сидят по заграничным норам и молчат, изредка жалуясь, что им не нравится сервис, или обижаясь на граффити, отсылающие русских нахуй.
Почему российские мозги молчат? Или в России всё-таки даже мозги – фашисты: бежали только от призыва, а в целом поддерживают кремлевских дементных пенсионеров?
Юваль Харари в свежем эссе «Что на кону в Украине? Направление человеческой истории» для моего любимого журнала Economist озвучил мысль, которая не дает мне покоя с самого начала войны:
«Мировая экономика перестала основываться на материалах и стала основываться на знаниях. Раньше главным источником богатства были материальные ресурсы вроде золотых шахт, пшеничных полей и нефтяных скважин. Сегодня же главный источник богатства – знание. И в то время как нефтяные скважины можно захватить силой, получить знания с помощью силы не получится. В итоге прибыльность завоеваний существенно снизилась».
С первых дней войны понятно, что путинский режим тупо пытается захватить побольше украинских земель. Но учитывая (в общем-то расхожую) мысль Харари об эпохе знаний, мне было сложно в это поверить! У нас очень богатая земля, это правда: например, в Донецкой и Днепропетровской областях есть крупнейшие залежи лития, необходимого для производства почти всей современной техники. Но путинский режим ничего не смог бы сделать с этим литием, так как санкции отрезали его от западных знаний – в руках варваров литий бесполезен. Варвары продолжают мыслить категориями шахта и полей.
Украина побеждает в этой войне именно благодаря знаниям и технологиям, которыми с нами делятся самые преуспевающие в этих сферах страны и которые создаются и совершенствуются умнейшими украинскими специалистами под градами тупых российских ракет, снарядов и патронов. Самые умные и талантливые представители украинского народа – айтишники, инженеры, профессура и т.д. – вместе не только дают отпор русским варварам, но и буквально каждый день создают инновационные решения самых сложных проблем: непотопляемая энергетика, непроницаемая для хакеров банковская и государственная система, война дронов и IT-армия – всё это движет не только украинскую, но и мировую экономику знаний вперед.
Всё хорошее в России существовало и развивалось не благодаря, а вопреки путинскому режиму. И своей дебильной войной он выгнал из страны мозги, которые обеспечивали России крохи прогресса в сторону экономики знаний. Напомню еще раз: не только мутный Киссинджер прочил РФ в третью ИИ-сверхдержаву, но этот прогноз повторял и бывший CEO Google Эрик Шмидт, который в этой войне с самого начала занял проукраинскую позицию и приезжал в обстреливаемый крылатыми ракетами Киев, чтобы пообщаться с молодыми украинскими талантами, основой экономики знаний (то есть его мнение о возможном потенциале России до полномасштабного вторжения нельзя объяснить его политическими взглядами).
Мир не собирается терпеть отсталую российскую властную хунту, до сих пор выезжавшую за счет экономики знаний своего кровавого предшественника, СССР, развалившегося 30 лет назад. И на этом устаревшем наследии пытается держаться в 2020-х, когда прогресс в сфере знаний ускоряется с каждым часом, не то что каждый год.
И пара слов об утекших из РФ мозгах, которые до войны были способны обеспечить развитие экономики знаний. С одной стороны, я искренне рад, что эти люди уехали и вышли из-под юрисдикции архаичных кремлевских пенсионеров. С другой, я искренне недоумеваю от того, что некоторые из них продолжают работать в российских компаниях, на эту кровавую архаику, даже из-за границы. Еще меньше я понимаю, почему эти самые бежавшие представители экономики знаний такие беспомощные: они не представляют собой ни политической, ни интеллектуальной силы — просто сидят по заграничным норам и молчат, изредка жалуясь, что им не нравится сервис, или обижаясь на граффити, отсылающие русских нахуй.
Почему российские мозги молчат? Или в России всё-таки даже мозги – фашисты: бежали только от призыва, а в целом поддерживают кремлевских дементных пенсионеров?
👍22🤮9🤔4🌚4🔥2
Пару лет назад я работал над статьей «Убийца смартфона» – про то, какие девайсы в ближайшем будущем заменят умные коробочки в наших руках. Статья так и не вышла, зато с тех пор я знаю, за кем будущее и кто убьет смартфоны:
a) будущее за нейроинтерфейсами – чипами, встроенными напрямую в череп и мозг, либо же шлемами, способными считывать и посылать сигналы транскраниально (сквозь черепушку). Хедлайнер чипов – Илон Маск со своими нейроимплантами Neuralink, а Марк Цукерберг больше внимания уделял транскраниальным нейроинтерфейсам.
б) ближайшее будущее за более простыми носимыми девайсами: очками дополненной реальности, а в идеале – умными контактными линзами. Apple, Samsung, Huawei а также Google, Meta, Microsoft – умные очки разрабатывают не только лидеры рынка смартфонов, но даже соцсети.
Если надо назвать одним словом технологию, которую пытаются разработать технологи и инженеры, чтобы умные очки стали реальной бомбой и смели смартфоны, то это "мета-оптика".
Вот перевод отрывка из колонки на Bloomberg, где описываются возможности мета-оптики:
«Громоздкие девайсы вроде биноклей, телескопов, шлемов виртуальной реальности, проекторов и камер превратятся в одно носимое устройство размером не больше обычных очков.
Трехмерное видение будет встроено во все приборы: это будут не грубые датчики движения как на дозаторах мыла в общественных уборных, а скорее термостаты, понимающие что вы надеваете свитер, или лампа, фокусирующая свет на книге, которую вы читаете, или человеке, входящем в комнату.
Ваши приборы будут коммуницировать друг с другом с помощью света, а не примитивных Wi-Fi и Bluetooth
Из минусов: возможно в мета-оптическом веке вообще не будет приватности. Не сомневайтесь, что все спецслужбы мира внимательно следят за развитием этой технологии».
Последний пункт, конечно, самый интересный. Тут надо подробнее говорить о концепции новой прозрачности, о которой я полным ходом писал книгу, пока в Киев не пришла война, изменившая и бесконечно расширившая мое понимание темы. Думаю, свою книгу я таки напишу, — но она будет гораздо жестче, чем была бы до войны.
a) будущее за нейроинтерфейсами – чипами, встроенными напрямую в череп и мозг, либо же шлемами, способными считывать и посылать сигналы транскраниально (сквозь черепушку). Хедлайнер чипов – Илон Маск со своими нейроимплантами Neuralink, а Марк Цукерберг больше внимания уделял транскраниальным нейроинтерфейсам.
б) ближайшее будущее за более простыми носимыми девайсами: очками дополненной реальности, а в идеале – умными контактными линзами. Apple, Samsung, Huawei а также Google, Meta, Microsoft – умные очки разрабатывают не только лидеры рынка смартфонов, но даже соцсети.
Если надо назвать одним словом технологию, которую пытаются разработать технологи и инженеры, чтобы умные очки стали реальной бомбой и смели смартфоны, то это "мета-оптика".
Вот перевод отрывка из колонки на Bloomberg, где описываются возможности мета-оптики:
«Громоздкие девайсы вроде биноклей, телескопов, шлемов виртуальной реальности, проекторов и камер превратятся в одно носимое устройство размером не больше обычных очков.
Трехмерное видение будет встроено во все приборы: это будут не грубые датчики движения как на дозаторах мыла в общественных уборных, а скорее термостаты, понимающие что вы надеваете свитер, или лампа, фокусирующая свет на книге, которую вы читаете, или человеке, входящем в комнату.
Ваши приборы будут коммуницировать друг с другом с помощью света, а не примитивных Wi-Fi и Bluetooth
Из минусов: возможно в мета-оптическом веке вообще не будет приватности. Не сомневайтесь, что все спецслужбы мира внимательно следят за развитием этой технологии».
Последний пункт, конечно, самый интересный. Тут надо подробнее говорить о концепции новой прозрачности, о которой я полным ходом писал книгу, пока в Киев не пришла война, изменившая и бесконечно расширившая мое понимание темы. Думаю, свою книгу я таки напишу, — но она будет гораздо жестче, чем была бы до войны.
Bloomberg.com
The Future Has Arrived for Meta-Optics
A development first made about 20 years ago has the potential to explode into the general consciousness in 2023.
👍32👀4🤮1
Palantir
Украина выигрывает эту войну за счет цифровых технологий: военных, инфраструктурных, социальных.
Несмотря на войну (возможно, даже благодаря войне), Министерство цифровой трансформации работает нон-стоп и ударными темпами превращает Украину в самую цифровизированную демократию в мире.
Это происходит по двум причинам:
1) украинцы уже 10 месяцев живут в режиме «трансформируйся или умри»;
2) украинцам помогают самые технологически продвинутые союзники.
Например, Amazon и Microsoft помогли Украине справиться с кибер-атаками россиян, хотя российские хакеры считались едва ли не самыми страшными в мире. Илон Маск снабдил украинских военных спутниковым интернетом – ультра модерновой технологией, которой пока нет почти ни у одной армии мира.
А компания Palantir, специализирующаяся на ИИ, помогла украинским военным интегрировать все полезные и разрозненные данные в единую систему, которая помогает принимать оптимальные логистические, военные и другие решения. Так что пока роспропаганда орала, что украинскими военными руководят американцы, на деле украинским военным помогали не люди, а ИИ.
Руководитель Palantir Алекс Карп стал первым западным CEO, приехавшим в обстреливаемый крылатыми ракетами Киев в июне 2022 года. С тех пор нейросети Palantir стали одним из ключевых факторов украинского успеха. Спустя полгода, в декабре 2022, Карп выступал на военном форуме республиканской партии в США и суммировал свой опыт помощи Украине в борьбе с Россией. Я перевел для вас показательный отрывок:
«До 24 февраля наши противники, некоторые наши союзники и иностранные бизнесы считали, что Америка – это про любовь к свободе и про производство хороших фильмов. И что якобы наши противники сравнялись с нами в военной мощи и готовы делать то, что Америка не может себе позволить.
Я думаю, 24 февраля и последующие события в Украине, где были задействованы технологии, о которых не всегда можно говорить публично, изменили нарратив про Америку. Мы – любящие свободу и производящие технологии люди Запада. И особенно Америка, которая создает технологии, настолько превосходящие технологии не любящих свободу людей, что тем стоит боятся сильнее, чем когда бы то ни было.
Нам и нашим союзникам, которые любят свободу и волю, важно показать нашим противникам, что мы превосходим их в современной войне. А современная война – это технологии, усиленные кинетическим атакующим оружием, компьютерные программы, усиливающие компьютерные программы.
То, что «software съедает мир» – очень важно для всех бизнесов и особо выгодно Америке, потому что Америка создает лучший софт в мире. Тот факт, что мы можем строить software enhanced weapons (алгоритмически усиленное оружие) должен вызывать у наших противников дрожь. Сенатор Грэм высказался точнее: наше превосходство предотвращает войны.
Что это значит для техносектора? Многие технокомпании, которые раньше вместо того, чтобы помогать американским военным, продавали технологии нашим противникам, – перестанут так делать. Появилось больше единства в поддержке правительства США: теперь американское государство поддерживает не только Palantir и его «отмороженный CEO». У нашей страны есть ресурсы, которые мы раньше часто не использовали для поддержки наших военных. Но теперь все изменилось, потому что наши противники очевидно заслуживают того, чтобы надрать им задницу».
По-моему, Palantir — это условно «следующий гугл»: технологическая корпорация, которая будет стоить сотни миллиардов долларов, но уже на следующем витке истории – в эпоху ИИ. Некоторые эксперты считают, что примененные в Украине технологии Palantir по военной мощи сравнимы с тактическим ядерным оружием. Как выше сказал Карп, об этом пока нельзя говорить публично, но результат очевиден.
И в качестве вишенки на торте: я практически уверен, что эти технологии будут использоваться для суда над военными преступниками из России.
Украина выигрывает эту войну за счет цифровых технологий: военных, инфраструктурных, социальных.
Несмотря на войну (возможно, даже благодаря войне), Министерство цифровой трансформации работает нон-стоп и ударными темпами превращает Украину в самую цифровизированную демократию в мире.
Это происходит по двум причинам:
1) украинцы уже 10 месяцев живут в режиме «трансформируйся или умри»;
2) украинцам помогают самые технологически продвинутые союзники.
Например, Amazon и Microsoft помогли Украине справиться с кибер-атаками россиян, хотя российские хакеры считались едва ли не самыми страшными в мире. Илон Маск снабдил украинских военных спутниковым интернетом – ультра модерновой технологией, которой пока нет почти ни у одной армии мира.
А компания Palantir, специализирующаяся на ИИ, помогла украинским военным интегрировать все полезные и разрозненные данные в единую систему, которая помогает принимать оптимальные логистические, военные и другие решения. Так что пока роспропаганда орала, что украинскими военными руководят американцы, на деле украинским военным помогали не люди, а ИИ.
Руководитель Palantir Алекс Карп стал первым западным CEO, приехавшим в обстреливаемый крылатыми ракетами Киев в июне 2022 года. С тех пор нейросети Palantir стали одним из ключевых факторов украинского успеха. Спустя полгода, в декабре 2022, Карп выступал на военном форуме республиканской партии в США и суммировал свой опыт помощи Украине в борьбе с Россией. Я перевел для вас показательный отрывок:
«До 24 февраля наши противники, некоторые наши союзники и иностранные бизнесы считали, что Америка – это про любовь к свободе и про производство хороших фильмов. И что якобы наши противники сравнялись с нами в военной мощи и готовы делать то, что Америка не может себе позволить.
Я думаю, 24 февраля и последующие события в Украине, где были задействованы технологии, о которых не всегда можно говорить публично, изменили нарратив про Америку. Мы – любящие свободу и производящие технологии люди Запада. И особенно Америка, которая создает технологии, настолько превосходящие технологии не любящих свободу людей, что тем стоит боятся сильнее, чем когда бы то ни было.
Нам и нашим союзникам, которые любят свободу и волю, важно показать нашим противникам, что мы превосходим их в современной войне. А современная война – это технологии, усиленные кинетическим атакующим оружием, компьютерные программы, усиливающие компьютерные программы.
То, что «software съедает мир» – очень важно для всех бизнесов и особо выгодно Америке, потому что Америка создает лучший софт в мире. Тот факт, что мы можем строить software enhanced weapons (алгоритмически усиленное оружие) должен вызывать у наших противников дрожь. Сенатор Грэм высказался точнее: наше превосходство предотвращает войны.
Что это значит для техносектора? Многие технокомпании, которые раньше вместо того, чтобы помогать американским военным, продавали технологии нашим противникам, – перестанут так делать. Появилось больше единства в поддержке правительства США: теперь американское государство поддерживает не только Palantir и его «отмороженный CEO». У нашей страны есть ресурсы, которые мы раньше часто не использовали для поддержки наших военных. Но теперь все изменилось, потому что наши противники очевидно заслуживают того, чтобы надрать им задницу».
По-моему, Palantir — это условно «следующий гугл»: технологическая корпорация, которая будет стоить сотни миллиардов долларов, но уже на следующем витке истории – в эпоху ИИ. Некоторые эксперты считают, что примененные в Украине технологии Palantir по военной мощи сравнимы с тактическим ядерным оружием. Как выше сказал Карп, об этом пока нельзя говорить публично, но результат очевиден.
И в качестве вишенки на торте: я практически уверен, что эти технологии будут использоваться для суда над военными преступниками из России.
👍33❤🔥3💩1👀1
«ИИ заменит всю халтуру людей: проходные письма и отчеты, писанину и иллюстрации уровня журналов в самолетах, все нецитируемые академические работы, написанные ради профессорского оклада, все сочинения студентов в аудиториях.
Благодаря такому опыту мы поймем, что почти все написаное людьми попадает в эту категорию халтуры».
Это свежий твит Пола Грэма, основателя Y Combinator и одного из самых влиятельных инвесторов Кремниевой долины. Грэм, помимо всего прочего, один из самых уважаемых в американском техно-комьюнити публичных мыслителей, хотя большинство его мыслей – про технобизнес, а не про смысл жизни. В последнее время в этой области все говорят только про ИИ и LLMы (Large language models) – все из-за ChatGPT от компании OpenAI.
Сэм Альтман, со-основатель OpenAI и ее текущий CEO, сделал себе имя на посту директора Y Combinator, где прослушал тысячи заявок стартапов на финансирование и выделил сотням компаний инвестиции — суммарная стоимость этих компаний давно перевалила за $100 млрд. В 2020 году Альтман ушел из Y Combinator Грэма, чтобы сфокусироваться на мега амбициозном стартапе OpenAI, главная цель которого – создание Artificial General Intelligence (AGI), иначе говоря, – робота с сознанием.
Еще пару лет назад концепция “осознанной” нейросети считалась ненаучной и даже зашкварной, в лучшем случае – банальной фантастикой. ИИ-сообщество считало, что миссия OpenAI – невыполнима, поэтому не на шутку всполошилось, когда один из со-основателей компании, Илья Суцкевер, в феврале 2022 года заявил, что «возможно, некоторые современные нейросети уже немного сознательны».
Тогда одним из самых громких оппонентов тезиса об “осознанности” нейросетей был ИИ-гуру Ян ЛеКун – Chief AI-Scientist в Meta и учитель еще одного со-основателя OpenAI, поляка Войцеха Зарембы. Прошел год, и теперь ЛеКун пишет:
«Способности LLM к рассуждениям частично компенсируются большой вместительностью их ассоциативной памяти. Они похожи на студентов, выучивших материал наизусть, но пока не сумевших вписать эти знания в свои представления о реальности».,
Короче, нейросети уже готовы заменить большинство оккупируемых людьми работ, раз они свободно функционируют на уровне готового обучаться со скоростью света студента. А ИИ-ученые на самом деле спорят не о возможностях ИИ, а об определении сознания (в то время как с точки зрения обывателя, нейросети уже осознанны, далеко не во всем и с миллионом оговорок, но все же).
В своих сториз я недавно выкладывал предсказание другого со-основателя OpenAI, Грега Брокмана: 2023 будет таким, что 2022 с его LLM-революцией покажется скучным. Очевидно, что у OpenAI, как и у ее конкурентов из Meta и Google, многое припасено на этот год: роботы будут все осознаннее, и у миллионов людей в этой связи появится миллиард проблем и возможностей. Менталитет «трансформируйся или умри» в ближайшие годы будет актуален не только для украинцев, но и для всего остального мира.
P.S. Подписывайтесь на мой инстаграм, чтобы смотреть сториз: про ИИ и роботов, техно-бизнес и техно-философию.
Благодаря такому опыту мы поймем, что почти все написаное людьми попадает в эту категорию халтуры».
Это свежий твит Пола Грэма, основателя Y Combinator и одного из самых влиятельных инвесторов Кремниевой долины. Грэм, помимо всего прочего, один из самых уважаемых в американском техно-комьюнити публичных мыслителей, хотя большинство его мыслей – про технобизнес, а не про смысл жизни. В последнее время в этой области все говорят только про ИИ и LLMы (Large language models) – все из-за ChatGPT от компании OpenAI.
Сэм Альтман, со-основатель OpenAI и ее текущий CEO, сделал себе имя на посту директора Y Combinator, где прослушал тысячи заявок стартапов на финансирование и выделил сотням компаний инвестиции — суммарная стоимость этих компаний давно перевалила за $100 млрд. В 2020 году Альтман ушел из Y Combinator Грэма, чтобы сфокусироваться на мега амбициозном стартапе OpenAI, главная цель которого – создание Artificial General Intelligence (AGI), иначе говоря, – робота с сознанием.
Еще пару лет назад концепция “осознанной” нейросети считалась ненаучной и даже зашкварной, в лучшем случае – банальной фантастикой. ИИ-сообщество считало, что миссия OpenAI – невыполнима, поэтому не на шутку всполошилось, когда один из со-основателей компании, Илья Суцкевер, в феврале 2022 года заявил, что «возможно, некоторые современные нейросети уже немного сознательны».
Тогда одним из самых громких оппонентов тезиса об “осознанности” нейросетей был ИИ-гуру Ян ЛеКун – Chief AI-Scientist в Meta и учитель еще одного со-основателя OpenAI, поляка Войцеха Зарембы. Прошел год, и теперь ЛеКун пишет:
«Способности LLM к рассуждениям частично компенсируются большой вместительностью их ассоциативной памяти. Они похожи на студентов, выучивших материал наизусть, но пока не сумевших вписать эти знания в свои представления о реальности».,
Короче, нейросети уже готовы заменить большинство оккупируемых людьми работ, раз они свободно функционируют на уровне готового обучаться со скоростью света студента. А ИИ-ученые на самом деле спорят не о возможностях ИИ, а об определении сознания (в то время как с точки зрения обывателя, нейросети уже осознанны, далеко не во всем и с миллионом оговорок, но все же).
В своих сториз я недавно выкладывал предсказание другого со-основателя OpenAI, Грега Брокмана: 2023 будет таким, что 2022 с его LLM-революцией покажется скучным. Очевидно, что у OpenAI, как и у ее конкурентов из Meta и Google, многое припасено на этот год: роботы будут все осознаннее, и у миллионов людей в этой связи появится миллиард проблем и возможностей. Менталитет «трансформируйся или умри» в ближайшие годы будет актуален не только для украинцев, но и для всего остального мира.
P.S. Подписывайтесь на мой инстаграм, чтобы смотреть сториз: про ИИ и роботов, техно-бизнес и техно-философию.
👍25⚡3❤🔥2🤔2🔥1💩1
Джо Байден на этой неделе написал статью «Республиканцы и демократы, объединяйтесь против нарушений Больших Технологий» со своими предложениями о том, как нужно ограничивать техноолигархов и их корпорации. Все его предложения будто взяты прямиком из книги Шошаны Зубофф «Эпоха надзорного капитализма». Интересно, как президент США обосновывает опасность технокорпораций, из которой вытекает необходимость регулировать их законами:
«Опасность Больших Технологий для обычных американцев очевидна. Бигтех компании собирают громадное количество данных обо всех наших покупках, вебсайтах, которые мы посещаем, местах, куда мы ходим. Больше всего вызывает беспокойство то, что они собирают тонны информации о наших детях. Как я говорил в своем прошлогоднем послании, миллионы молодых людей сталкиваются с буллингом, насилием, получают травмы и испытывают проблемы с психическим здоровьем. Мы должны привлечь социальные медиа-компании к ответственности за эксперимент, который они проводят на наших детях ради получения прибыли.
Чтобы привязать американцев к своим платформам, Бигтех использует пользовательские данные, направляет людей к экстремальному и поляризующему контенту, вызывающему максимальное вовлечение. Слишком часто трагические вспышки насилия связывали с токсичными онлайн эхокамерами.
Более того, социальные медиа и другие платформы разрешали пользователям вести себя абьюзивно и нарушать закон, допускали киберсталкинг, сексуальную эксплуатацию детей, неконсенсуальную порнографию и продажу опасных наркотиков. В других случаях Бигтех вытеснял mom-and-pop (мелкие) бизнесы со своих платформ, выдвигал им невыгодные условия, взимал с них по завышенным ценам, всячески мешал им расти и развиваться, удушая таким образом инновации».
Для борьбы с этими проблемами он предлагает три шага.
1) «Серьезная защита приватности американцев на государственном уровне»
В неё входит регуляция использования персональных данных: интернет-истории, переписок и созвонов, геолокации, данных о здоровье, генетических и биометрических данных. Также Байден предлагает запретить таргетированную рекламу для детей.
Эти меры сильно ударят по прибылям надзорных капиталистов, ограничив их доступ к современной нефти – пользовательским данным. Это также поможет снять с Google, Meta и других корпораций «нефтяное проклятие» – они больше не смогут снимать рекламные сверхприбыли привычным образом и возьмутся за реальные инновации.
2) «Бигтех компании должны взять ответственность за контент, который они распространяют, и за алгоритмы, которые используют»
То есть Facebook, Twitter и YouTube должны будут еще плотнее модерировать контент, что будет невозможно сделать усилиями живых людей и неизбежно ляжет на плечи алгоритмических модераторов. Требование сделать алгоритмы соцсетей прозрачными, подотчетными законам и понятными пользователям усложняют жизнь технокорпорациям, дают больше прав цифровым гражданам и увеличивают вероятность перехода соцсетей в платный режим.
3) «Больше конкуренции в техно секторе»
Это самый утопический пункт в программе Байдена: при здравии технокорпораций его не получится осуществить полноценно. Американский и европейский технобизнес знает, что если инновационной сферой заинтересовался техногигант, значит, вскоре он купит лидеров инновации или выкатит на рынок собственную версию технологии.
Пользовательские данные, которые мы все с вами производим – основа мира будущего, его нефть и электричество. С одной стороны, данные производят сотни миллионов людей, и вклад каждого в эту реку данных – капля в океане. С другой стороны, каждая напечатанная буква и каждый клик в сети программирует нейросети и определяет будущие события: еще никогда в истории никто так внимательно не следил за действиями, словами и предпочтениями простых людей.
Так что даже во время войны — и особенно во время войны — думайте, как ваши виртуальные действия программируют коллективный ИИ.
«Опасность Больших Технологий для обычных американцев очевидна. Бигтех компании собирают громадное количество данных обо всех наших покупках, вебсайтах, которые мы посещаем, местах, куда мы ходим. Больше всего вызывает беспокойство то, что они собирают тонны информации о наших детях. Как я говорил в своем прошлогоднем послании, миллионы молодых людей сталкиваются с буллингом, насилием, получают травмы и испытывают проблемы с психическим здоровьем. Мы должны привлечь социальные медиа-компании к ответственности за эксперимент, который они проводят на наших детях ради получения прибыли.
Чтобы привязать американцев к своим платформам, Бигтех использует пользовательские данные, направляет людей к экстремальному и поляризующему контенту, вызывающему максимальное вовлечение. Слишком часто трагические вспышки насилия связывали с токсичными онлайн эхокамерами.
Более того, социальные медиа и другие платформы разрешали пользователям вести себя абьюзивно и нарушать закон, допускали киберсталкинг, сексуальную эксплуатацию детей, неконсенсуальную порнографию и продажу опасных наркотиков. В других случаях Бигтех вытеснял mom-and-pop (мелкие) бизнесы со своих платформ, выдвигал им невыгодные условия, взимал с них по завышенным ценам, всячески мешал им расти и развиваться, удушая таким образом инновации».
Для борьбы с этими проблемами он предлагает три шага.
1) «Серьезная защита приватности американцев на государственном уровне»
В неё входит регуляция использования персональных данных: интернет-истории, переписок и созвонов, геолокации, данных о здоровье, генетических и биометрических данных. Также Байден предлагает запретить таргетированную рекламу для детей.
Эти меры сильно ударят по прибылям надзорных капиталистов, ограничив их доступ к современной нефти – пользовательским данным. Это также поможет снять с Google, Meta и других корпораций «нефтяное проклятие» – они больше не смогут снимать рекламные сверхприбыли привычным образом и возьмутся за реальные инновации.
2) «Бигтех компании должны взять ответственность за контент, который они распространяют, и за алгоритмы, которые используют»
То есть Facebook, Twitter и YouTube должны будут еще плотнее модерировать контент, что будет невозможно сделать усилиями живых людей и неизбежно ляжет на плечи алгоритмических модераторов. Требование сделать алгоритмы соцсетей прозрачными, подотчетными законам и понятными пользователям усложняют жизнь технокорпорациям, дают больше прав цифровым гражданам и увеличивают вероятность перехода соцсетей в платный режим.
3) «Больше конкуренции в техно секторе»
Это самый утопический пункт в программе Байдена: при здравии технокорпораций его не получится осуществить полноценно. Американский и европейский технобизнес знает, что если инновационной сферой заинтересовался техногигант, значит, вскоре он купит лидеров инновации или выкатит на рынок собственную версию технологии.
Пользовательские данные, которые мы все с вами производим – основа мира будущего, его нефть и электричество. С одной стороны, данные производят сотни миллионов людей, и вклад каждого в эту реку данных – капля в океане. С другой стороны, каждая напечатанная буква и каждый клик в сети программирует нейросети и определяет будущие события: еще никогда в истории никто так внимательно не следил за действиями, словами и предпочтениями простых людей.
Так что даже во время войны — и особенно во время войны — думайте, как ваши виртуальные действия программируют коллективный ИИ.
WSJ
Opinion | Republicans and Democrats, Unite Against Big Tech Abuses
Congress can find common ground on the protection of privacy, competition and American children.
👍32🔥7❤3🤔1
Рубрика «После массированного ракетного обстрела»
11 января, спустя неделю после четырехдневного новогоднего обстрела украинцев ракетами и шахедами, Путин разжаловал держиморду Суровикина и назначил генерала Герасимова командующим объединенной группировкой войск в Украине, проще говоря – главным.
Валерий Герасимов последовательно прошел все ступени армейской службы и командует российскими армиями еще со времен войны с Чечней 1999 года. Это человек с несколькими высшими военными образованиями, чьи интеллектуальные способности высоко оценивают даже его оппоненты, главнокомандующий ЗСУ Валерий Залужный и председатель штабов ВС США Марк Милли. Казалось бы, от него можно было бы ждать чего-то оригинального.
Но нет. 14 января, через три дня после захода Герасимова на должность, произошел очередной массированный обстрел Украины российскими ракетами: в 6 утра меня разбудила жена и кошка, услышавшие взрывы, затем я опять заснул, а в 10 проснулся от взрывов сам — и затем до 17 часов, когда уже потемнело, сидел в укрытии, напряженно вслушиваясь и вчитываясь в новости о летящих ракетах и работе украинского ПВО.
Военные под руководством Герасимова снова били по энергетической инфраструктуре, как и прежде под командованием Суровикина. У меня был интернет все 7 часов обстрела, так что я следил за траекториями полетов их ракет в режиме онлайн. Это был один из тех редких массированных обстрелов, когда в моем районе Киева почти не было слышно работы ПВО и попаданий. Я внимательно следил, как события в небе надо мной отражаются в информационной реальности.
За час до отбоя воздушной тревоги пришли самые жесткие новости из Днепра: ракетой снесло целый подъезд девятиэтажного дома. Фотографии с места – висцеральный контент для меня и для каждого украинца: мы в очередной раз увидели, что наши дома могут в мгновение ока превратиться в груду бетонно-арматурного хлама, из под которого доносятся стоны, крики и плач. Этот разрушенный жилой дом в Днепре стал информационной кульминацией многочасового субботнего обстрела и затмил взрывы, от которых я два раза просыпался утром в тот день.
Герасимов, ответственный за этот обстрел и смерти мирных граждан, когда-то был уважаем в военном мире за популяризацию концепции гибридной войны, согласно которой информационная война равна — и временами даже важнее — кинетической. Отражение событий в информационном поле влияет на дальнейший ход войны сильнее, чем сами события.
Информационное отражение действий российской армии под руководством Герасимова не противоречиво: российская военная стратегия — терроризм.
Террористы из РФ обозначили крайнюю точку своих угроз: в крайнем случае РФ готова наносить удары не только тактическим ядерным оружием, но и стратегическим. Россия готова взорвать ядерным оружием весь мир, потому что лидер этой террор-секты Путин говорит, что в случае ядерной войны «мы [рашисты] как мученики попадем в рай, а они [весь остальной мир] – просто сдохнут». Другой популярный лозунг ядерных террористов – «зачем нам мир, если в нем нет РФ», подразумевающий, что если дела пойдут совсем плохо, они готовы дернуть чеку и забрать с собой всех на тот свет.
При таких заданных Путиным рамках, Герасимов и его коллеги считают, что на фоне угроз уничтожить мир ядерными бомбами новости о разрушенном украинском доме с десятками погибших мирных граждан должны пройти незамеченными миром. Им кажется, что они могут безнаказанно использовать «мелкий» террор под угрозой террора крупного для воздействия на украинцев и россиян, не особо меняя при этом свой статус зашкварности в мировом масштабе.
Но на деле каждый такой удар по каждому украинскому дому – очередной информационный гвоздь в крышку гроба этого режима и РФ в целом. За всеми перестановками, угрозами и копошением кремлевского зомби не просматривается ничего хоть отдаленно похожего на победу и статус победителей, которые «пишут историю» и которых «не судят».
11 января, спустя неделю после четырехдневного новогоднего обстрела украинцев ракетами и шахедами, Путин разжаловал держиморду Суровикина и назначил генерала Герасимова командующим объединенной группировкой войск в Украине, проще говоря – главным.
Валерий Герасимов последовательно прошел все ступени армейской службы и командует российскими армиями еще со времен войны с Чечней 1999 года. Это человек с несколькими высшими военными образованиями, чьи интеллектуальные способности высоко оценивают даже его оппоненты, главнокомандующий ЗСУ Валерий Залужный и председатель штабов ВС США Марк Милли. Казалось бы, от него можно было бы ждать чего-то оригинального.
Но нет. 14 января, через три дня после захода Герасимова на должность, произошел очередной массированный обстрел Украины российскими ракетами: в 6 утра меня разбудила жена и кошка, услышавшие взрывы, затем я опять заснул, а в 10 проснулся от взрывов сам — и затем до 17 часов, когда уже потемнело, сидел в укрытии, напряженно вслушиваясь и вчитываясь в новости о летящих ракетах и работе украинского ПВО.
Военные под руководством Герасимова снова били по энергетической инфраструктуре, как и прежде под командованием Суровикина. У меня был интернет все 7 часов обстрела, так что я следил за траекториями полетов их ракет в режиме онлайн. Это был один из тех редких массированных обстрелов, когда в моем районе Киева почти не было слышно работы ПВО и попаданий. Я внимательно следил, как события в небе надо мной отражаются в информационной реальности.
За час до отбоя воздушной тревоги пришли самые жесткие новости из Днепра: ракетой снесло целый подъезд девятиэтажного дома. Фотографии с места – висцеральный контент для меня и для каждого украинца: мы в очередной раз увидели, что наши дома могут в мгновение ока превратиться в груду бетонно-арматурного хлама, из под которого доносятся стоны, крики и плач. Этот разрушенный жилой дом в Днепре стал информационной кульминацией многочасового субботнего обстрела и затмил взрывы, от которых я два раза просыпался утром в тот день.
Герасимов, ответственный за этот обстрел и смерти мирных граждан, когда-то был уважаем в военном мире за популяризацию концепции гибридной войны, согласно которой информационная война равна — и временами даже важнее — кинетической. Отражение событий в информационном поле влияет на дальнейший ход войны сильнее, чем сами события.
Информационное отражение действий российской армии под руководством Герасимова не противоречиво: российская военная стратегия — терроризм.
Террористы из РФ обозначили крайнюю точку своих угроз: в крайнем случае РФ готова наносить удары не только тактическим ядерным оружием, но и стратегическим. Россия готова взорвать ядерным оружием весь мир, потому что лидер этой террор-секты Путин говорит, что в случае ядерной войны «мы [рашисты] как мученики попадем в рай, а они [весь остальной мир] – просто сдохнут». Другой популярный лозунг ядерных террористов – «зачем нам мир, если в нем нет РФ», подразумевающий, что если дела пойдут совсем плохо, они готовы дернуть чеку и забрать с собой всех на тот свет.
При таких заданных Путиным рамках, Герасимов и его коллеги считают, что на фоне угроз уничтожить мир ядерными бомбами новости о разрушенном украинском доме с десятками погибших мирных граждан должны пройти незамеченными миром. Им кажется, что они могут безнаказанно использовать «мелкий» террор под угрозой террора крупного для воздействия на украинцев и россиян, не особо меняя при этом свой статус зашкварности в мировом масштабе.
Но на деле каждый такой удар по каждому украинскому дому – очередной информационный гвоздь в крышку гроба этого режима и РФ в целом. За всеми перестановками, угрозами и копошением кремлевского зомби не просматривается ничего хоть отдаленно похожего на победу и статус победителей, которые «пишут историю» и которых «не судят».
👍48😢12👎4💩2❤1😁1💯1
Невозможно в век новой прозрачности угрожать миру ядерным уничтожением, геноцидить соседний народ и утилизировать сотни тысяч собственных граждан – и ожидать чего-либо, кроме поражения, позора и наказания.
Я думаю, что Герасимовы и иже с ними прекрасно понимают, что их поезд в огне и на всех парах несется в бетонную стену. От этого еще болезненнее воспринимаются жертвы среди мирного украинского населения, и еще более жутким кажется кровавое зомбирование россиян, аплодирующих разрушенным домам украинцев.
Я думаю, что Герасимовы и иже с ними прекрасно понимают, что их поезд в огне и на всех парах несется в бетонную стену. От этого еще болезненнее воспринимаются жертвы среди мирного украинского населения, и еще более жутким кажется кровавое зомбирование россиян, аплодирующих разрушенным домам украинцев.
👍58💩5👎4😢3
Михал Косински – стэнфордский профессор психологии родом из Польши и один из самых интересных ученых нашего времени. Косински стал известен благодаря двум работам на стыке психологии, больших данных и ИИ:
1) в 2015 году он показал, что нейросети способны определять психотип человека по парам сотен лайков из его соцсети и делают это точнее, чем его реальные коллеги и друзья и даже супруги. Отдельные психологические черты нейросети могли определять всего по паре лайков уже 8 лет назад, представьте, что они могут сейчас!
2) в 2018 году Косински показал, что нейросети по одной фотографии человека могут с примерно 75% точностью определить его или ее сексуальную ориентацию, в то время как живые люди справлялись с этим заданием с 55% точностью.
Я узнал о Косински благодаря работе над историей о Cambridge Analytica с предвыборной кампании Трампа в 2016 году. С тех пор я внимательно следил за его деятельностью, часто ссылался на его исследованиях в своих лекциях и статьях о психометрии и новой прозрачности. Однако последние пару лет он притих, и я немного подзабыл о нем, пока на прошлой неделе он не выпустил совершенно бомбическое исследование, связанное с самой горячей темой последнего полугода: нейросетью (а точнее, крупной языковой моделью LLM) под названием GPT-3 от компании OpenAI.
Если вкратце, Косински с коллегами доказали, что нейросеть GPT-3 способна проходить тесты на наличие теории сознания (ToM) у детей. Это способность понимать, что чувства и представления о мире других людей отличны от его собственных. Хотя создатели GPT-3 не закладывали в нее такой функционал, нейросеть показала результаты на уровне 9-летнего ребенка.
«Хотя такие результаты нужно интерпретировать с осторожностью, из них следует, что недавно опубликованные языковые модели обладают способностью вычислять ненаблюдаемые психические состояния других. Более того, способности моделей очевидно растут вместе с их сложностью и датой выпуска и нет никаких причин предполагать, что этот процесс выйдет на плато в ближайшее время. И, наконец, нет никаких указаний на то, что похожие на ToM возможности были умышленно встроены в эти модели, как нет и исследований, доказывающих, что ученые знают, как это сделать. Поэтому мы предполагаем, что ToM-способности проявились спонтанно и автономно как побочный продукт растущих языковых способностей моделей».
Косински подчеркивает, что ToM-способностей не наблюдалось в базовой версии GPT-3, выпущенной в 2020 году со 175 миллиардами параметров, зато эти способности появились в версии GPT-3,5, выпущенной в 2022 году и легшей в основу топового чатбота ChatGPT. Тут сложно удержаться и не вспомнить еще раз пост годичной давности от со-основателя OpenAI Ильи Суцкевера, в котором он предположил, что современные крупные языковые модели (LLM) «немного сознательны».
Относительно простое исследование Косински подтверждает тезис OpenAI о возможности в обозримом будущем создать AGI, то есть сознательный ИИ. И это исследование, да и сама концепция сознательных роботов, – по-моему, самое важное из всего, что сейчас происходит. Войны, экономика, культура – все это, конечно, важно и может замедлить создание AGI, но, я думаю, таки не смогут остановить его.
1) в 2015 году он показал, что нейросети способны определять психотип человека по парам сотен лайков из его соцсети и делают это точнее, чем его реальные коллеги и друзья и даже супруги. Отдельные психологические черты нейросети могли определять всего по паре лайков уже 8 лет назад, представьте, что они могут сейчас!
2) в 2018 году Косински показал, что нейросети по одной фотографии человека могут с примерно 75% точностью определить его или ее сексуальную ориентацию, в то время как живые люди справлялись с этим заданием с 55% точностью.
Я узнал о Косински благодаря работе над историей о Cambridge Analytica с предвыборной кампании Трампа в 2016 году. С тех пор я внимательно следил за его деятельностью, часто ссылался на его исследованиях в своих лекциях и статьях о психометрии и новой прозрачности. Однако последние пару лет он притих, и я немного подзабыл о нем, пока на прошлой неделе он не выпустил совершенно бомбическое исследование, связанное с самой горячей темой последнего полугода: нейросетью (а точнее, крупной языковой моделью LLM) под названием GPT-3 от компании OpenAI.
Если вкратце, Косински с коллегами доказали, что нейросеть GPT-3 способна проходить тесты на наличие теории сознания (ToM) у детей. Это способность понимать, что чувства и представления о мире других людей отличны от его собственных. Хотя создатели GPT-3 не закладывали в нее такой функционал, нейросеть показала результаты на уровне 9-летнего ребенка.
«Хотя такие результаты нужно интерпретировать с осторожностью, из них следует, что недавно опубликованные языковые модели обладают способностью вычислять ненаблюдаемые психические состояния других. Более того, способности моделей очевидно растут вместе с их сложностью и датой выпуска и нет никаких причин предполагать, что этот процесс выйдет на плато в ближайшее время. И, наконец, нет никаких указаний на то, что похожие на ToM возможности были умышленно встроены в эти модели, как нет и исследований, доказывающих, что ученые знают, как это сделать. Поэтому мы предполагаем, что ToM-способности проявились спонтанно и автономно как побочный продукт растущих языковых способностей моделей».
Косински подчеркивает, что ToM-способностей не наблюдалось в базовой версии GPT-3, выпущенной в 2020 году со 175 миллиардами параметров, зато эти способности появились в версии GPT-3,5, выпущенной в 2022 году и легшей в основу топового чатбота ChatGPT. Тут сложно удержаться и не вспомнить еще раз пост годичной давности от со-основателя OpenAI Ильи Суцкевера, в котором он предположил, что современные крупные языковые модели (LLM) «немного сознательны».
Относительно простое исследование Косински подтверждает тезис OpenAI о возможности в обозримом будущем создать AGI, то есть сознательный ИИ. И это исследование, да и сама концепция сознательных роботов, – по-моему, самое важное из всего, что сейчас происходит. Войны, экономика, культура – все это, конечно, важно и может замедлить создание AGI, но, я думаю, таки не смогут остановить его.
🔥28👍11🤔7👎5
Работа Косински заканчивается золотыми словами и мыслями:
«Растущая сложность ИИ-моделей лишает нас возможности понимать их функционал и возможности, исходя из их дизайна. Это похоже на вызов, с которым сталкиваются психологи и нейроученые, изучая оригинальный черный ящик – человеческий мозг. Мы надеемся, что научная психология поможет нам лучше понимать быстро развивающийся ИИ.
Более того, изучение ИИ может помочь лучше понять человеческую познавательную способность. По мере того, как ИИ учится решать широкий спектр проблем, он, возможно, развивает механизмы, подобные тем, что развил человеческий мозг для решения тех же проблем. Так же как насекомые, птицы и млекопитающие независимо друг от друга развили крылья, чтобы решить проблему полета, так же люди и ИИ, возможно, развили похожие механизмы для эффективного вычисления ментальных состояний других. Изучение работы ИИ при выполнении ToM-заданий и изучение искусственных нейронных структур, которые позволяют ему их выполнять, может не только увеличить наше понимание ИИ, но и человеческого мозга».
«Растущая сложность ИИ-моделей лишает нас возможности понимать их функционал и возможности, исходя из их дизайна. Это похоже на вызов, с которым сталкиваются психологи и нейроученые, изучая оригинальный черный ящик – человеческий мозг. Мы надеемся, что научная психология поможет нам лучше понимать быстро развивающийся ИИ.
Более того, изучение ИИ может помочь лучше понять человеческую познавательную способность. По мере того, как ИИ учится решать широкий спектр проблем, он, возможно, развивает механизмы, подобные тем, что развил человеческий мозг для решения тех же проблем. Так же как насекомые, птицы и млекопитающие независимо друг от друга развили крылья, чтобы решить проблему полета, так же люди и ИИ, возможно, развили похожие механизмы для эффективного вычисления ментальных состояний других. Изучение работы ИИ при выполнении ToM-заданий и изучение искусственных нейронных структур, которые позволяют ему их выполнять, может не только увеличить наше понимание ИИ, но и человеческого мозга».
👍42❤6🔥5👎4🤔3
Компания Microsoft недавно утвердилась в роли основного инвестора стартапа OpenAI, вложив в развитие ключевого ИИ-стартапа нашего времени $10 млрд (не говоря уже о том, что нейросети OpenAI все это время работали на облачных сервисах и вычислительных мощностях Microsoft). Из-за предвкушения интеграции нейросетей OpenAI и технологий Microsoft безнадежно отстававший от Google на почти полтора десятилетия майкрософтовский поисковик Bing вдруг стал популярным и обогнал Google в топе приложений.
Сатья Наделла, CEO Microsoft, собирается внедрить чатбот ChatGPT почти во все ключевые продукты своей компании: от вездесущего Office до отстающего поисковика Edge. Еще интереснее то, что Наделла хочет сдавать ChatGPT в аренду, что позволит крупным компаниям создавать свои кастомизированные версии чатбота и приведет к еще большему ускорению развития лежащих в основе нейросетей.
Объясняя потенциал ChatGPT на недавнем формуе в Давосе, Наделла рассказал историю о крестьянине в Индии, который говорит на одном из местных диалектов: он обращается в гостерминале к нейросети, а она понимает его речь, переводит его запрос, дает инструкции, а потом, по его просьбе, и делает все операции за него. Все это стало возможным благодаря тому, что индийские разработчики получили доступ к нейросетям OpenAI и адаптировали их под нужды конкретной местности.
«Технология, разработанная на западном побережье Соединенных Штатов несколько месяцев назад, попала к разработчику в Индии, который затем создал что-то, улучшившее жизнь крестьянина из отдаленной деревни. Я никогда не видел такого стремительного распространения технологии. 250 лет спустя Промышленная революция все еще не дошла до некоторых крупных регионов мира, интернету понадобилось 30 лет, чтобы разойтись по всему миру, облачным и мобильным сервисам – 15 лет. А в данном случае речь идет о нескольких месяцах».
В дискуссиях вокруг нейросетей нового поколения наступил момент, когда все сомнения в работоспособности самой технологии испарились. Вместо них возник вечный проклятый вопрос: как правильно монетизировать эту технологию?
Не сомневаюсь, что Сатья Наделла справится с этой задачей, так как монетизация очевидно его сильная сторона: когда он стал CEO Microsoft в 2014, компания стоила около $300 млрд, а сейчас — уже $2 триллиона. Меня смущает только то, что сама OpenAI изначально собиралась быть нон-профит организацией мол, технология AGI слишком выдающаяся и должна служить всему человечеству, а не приносить прибыль ее создателям. Но что-то, как обычно, пошло не так: люди остаются людьми.
Вчера CEO OpenAI Сэм Альтман написал: «Я думаю, что ИИ станет самой выдающейся силой для экономического развития и личного обогащения, которую мы когда-либо видели», — на что ему вполне справедливо заметили, что даже он, создатель этого ИИ, кажется, понятия не имеет, к чему приведет его детище. Вот ответ Альтмана:
«У нас есть идеи, но ИИ – сложная система, и она будет эволюционировать вместе с обществом. Любой, кто говорит, что точно понимает, как будет выглядеть будущее ИИ, в лучшем случае бредит. Плотная петля обратной связи и глубокое взаимодействие с обществом – лучший путь вперед».
ИИ развивается быстрее и мощнее, чем все технологии, что мы видели в истории. О последствиях и путях его развития не знают даже его создатели: они хотят развивать ИИ “в тесном взаимодействии с обществом”. Общество в целом (как и самих создателей ИИ) деньги волнуют чуть ли не больше всего. Ради увеличения прибылей люди готовы убивать людей, жечь города, разрушать страны. А Путины этого мира – тоже часть общества, во взаимодействии с которым Альтманы этого мира сейчас развивают ИИ.
Мне не нравятся выводы, к которым я прихожу, идя дальше по цепочке этих мыслей. Единственное противоядие всем намечающимся проблемам, которое я вижу – стремление каждого отдельного человека быть сильнее, добрее и человечнее. Мы видим, как этот индивидуальный уровень становится базой для побед в войне за ценности. Он же может помочь и в области искусственного интеллекта.
Сатья Наделла, CEO Microsoft, собирается внедрить чатбот ChatGPT почти во все ключевые продукты своей компании: от вездесущего Office до отстающего поисковика Edge. Еще интереснее то, что Наделла хочет сдавать ChatGPT в аренду, что позволит крупным компаниям создавать свои кастомизированные версии чатбота и приведет к еще большему ускорению развития лежащих в основе нейросетей.
Объясняя потенциал ChatGPT на недавнем формуе в Давосе, Наделла рассказал историю о крестьянине в Индии, который говорит на одном из местных диалектов: он обращается в гостерминале к нейросети, а она понимает его речь, переводит его запрос, дает инструкции, а потом, по его просьбе, и делает все операции за него. Все это стало возможным благодаря тому, что индийские разработчики получили доступ к нейросетям OpenAI и адаптировали их под нужды конкретной местности.
«Технология, разработанная на западном побережье Соединенных Штатов несколько месяцев назад, попала к разработчику в Индии, который затем создал что-то, улучшившее жизнь крестьянина из отдаленной деревни. Я никогда не видел такого стремительного распространения технологии. 250 лет спустя Промышленная революция все еще не дошла до некоторых крупных регионов мира, интернету понадобилось 30 лет, чтобы разойтись по всему миру, облачным и мобильным сервисам – 15 лет. А в данном случае речь идет о нескольких месяцах».
В дискуссиях вокруг нейросетей нового поколения наступил момент, когда все сомнения в работоспособности самой технологии испарились. Вместо них возник вечный проклятый вопрос: как правильно монетизировать эту технологию?
Не сомневаюсь, что Сатья Наделла справится с этой задачей, так как монетизация очевидно его сильная сторона: когда он стал CEO Microsoft в 2014, компания стоила около $300 млрд, а сейчас — уже $2 триллиона. Меня смущает только то, что сама OpenAI изначально собиралась быть нон-профит организацией мол, технология AGI слишком выдающаяся и должна служить всему человечеству, а не приносить прибыль ее создателям. Но что-то, как обычно, пошло не так: люди остаются людьми.
Вчера CEO OpenAI Сэм Альтман написал: «Я думаю, что ИИ станет самой выдающейся силой для экономического развития и личного обогащения, которую мы когда-либо видели», — на что ему вполне справедливо заметили, что даже он, создатель этого ИИ, кажется, понятия не имеет, к чему приведет его детище. Вот ответ Альтмана:
«У нас есть идеи, но ИИ – сложная система, и она будет эволюционировать вместе с обществом. Любой, кто говорит, что точно понимает, как будет выглядеть будущее ИИ, в лучшем случае бредит. Плотная петля обратной связи и глубокое взаимодействие с обществом – лучший путь вперед».
ИИ развивается быстрее и мощнее, чем все технологии, что мы видели в истории. О последствиях и путях его развития не знают даже его создатели: они хотят развивать ИИ “в тесном взаимодействии с обществом”. Общество в целом (как и самих создателей ИИ) деньги волнуют чуть ли не больше всего. Ради увеличения прибылей люди готовы убивать людей, жечь города, разрушать страны. А Путины этого мира – тоже часть общества, во взаимодействии с которым Альтманы этого мира сейчас развивают ИИ.
Мне не нравятся выводы, к которым я прихожу, идя дальше по цепочке этих мыслей. Единственное противоядие всем намечающимся проблемам, которое я вижу – стремление каждого отдельного человека быть сильнее, добрее и человечнее. Мы видим, как этот индивидуальный уровень становится базой для побед в войне за ценности. Он же может помочь и в области искусственного интеллекта.
❤25👍10🤔7💩4😢3⚡1
Нашел новый интересный термин в твиттере Яна ЛеКуна (нейросетевого светоча и ветерана, работающего главным ИИ-ученым в корпорации Meta) — крити-хайп.
«Крити-хайп – это академические и неакадимические работы, преувеличивающие воображаемые опасности новых технологий, питающиеся и отзеркаливающие хайп от сторонников тех же технологий», — так пишет уважаемый мною ЛеКун и заодно рекламирует статью, из которой он сам взял этот термин.
Начинается эта статья с критики горячо любимой мною Шошаны Зубофф и ее магнум-опуса «The Age of Surveillance Capitalism» как самого яркого примера этого самого крити-хайпа. Мол, Зубофф накручивает читателя, что соцсети могут манипулировать умами и действиями пользователей. По мнению автора статьи, это неправда и не имеет под собой почти никаких доказательств. Однако автор статьи не отрицает, что соцсети дезинформируют, радикализуют и сбивают пользователей в агрессивные группы (что, по-моему, и есть вполне прямое доказательство тех самых манипуляций умом и поведением).
Короче, оригинальная статья мне не понравилась – это критика критиков технокорпораций (в первую очередь, соцсетей). Она опирается на идею, что современные технологии пока еще совсем слабые, до реального контроля над сознанием и поведением им еще развиваться и развиваться, а пока их знаний о человеке якобы не хватает даже на то, чтобы показать пользователю релевантную рекламу в интернете и склонить его к покупке носков. Я абсолютно не согласен с этой мыслью, хотя автор стелит ее местами даже гладко.
Но вот что мне понравилось в статье, так это мысль, что техно-индустрия занимается не рекламой самой себя и своих технологий, а пропагандой.
Ян ЛеКун, по наводке которого я прочитал статью, не только главный ИИ-специалист Meta, но и критихайпер сам: он громче и авторитетнее других атакует мега-хайповую концепцию AGI, осознанного ИИ, над которым открыто работают его конкуренты из OpenAI. А Шошана Зубофф, которую критиковали в статье, последние годы воевала как раз с корпорацией Meta, которую и представляет ЛеКун. Так что в этой войне всё прозрачно.
Я считаю, что концепция “надзорного капитализма” Зубофф – хотя и несовершенное, но очень глубокое осмысление политико-техно-экономической реальности, в которой мы сейчас живем. Тем не менее, хардкорный демократ Зубофф очевидно предвзята в своей антипатии к Meta. И не столько из-за того, что эта компания – один из крупнейших надзорных капиталистов, сколько потому, что Meta привела к власти республиканского президента Трампа в 2016 году. Во время избирательной кампании на выборах президента США в 2020 Зубофф и ее коллеги успешно справились с главной задачей: не дали Meta снова привести Трампа к власти, постоянно критикуя корпорацию Цукерберга в общественном поле и заставляя его занимать нейтральную позицию.
Короче говоря, техно-пропаганда – реальная тема. И в этой сфере ничего и ни от кого нельзя принимать за чистую монету. За каждым тезисом техно-гуру, прогнозом техно-журналиста и спором техно-капиталистов стоят миллиарды долларов и громадные массивы власти.
Мы выбираем, во что верить и в какую сторону трактовать факты, исходя из наших личных склонностей и предрассудков, страхов и желаний. Меня абсолютно не пугает возможность заблуждаться в прогнозах на тему будущего или в трактовке текущей ситуации: ошибаются люди, ошибается ИИ.
Тем не менее, нам стоит стремиться осознавать свою предвзятость и чужую, а ценность идей оценивать не по тому, страшные они или приятные, а по тому, к каким действиям эти идеи нас подталкивают.
«Крити-хайп – это академические и неакадимические работы, преувеличивающие воображаемые опасности новых технологий, питающиеся и отзеркаливающие хайп от сторонников тех же технологий», — так пишет уважаемый мною ЛеКун и заодно рекламирует статью, из которой он сам взял этот термин.
Начинается эта статья с критики горячо любимой мною Шошаны Зубофф и ее магнум-опуса «The Age of Surveillance Capitalism» как самого яркого примера этого самого крити-хайпа. Мол, Зубофф накручивает читателя, что соцсети могут манипулировать умами и действиями пользователей. По мнению автора статьи, это неправда и не имеет под собой почти никаких доказательств. Однако автор статьи не отрицает, что соцсети дезинформируют, радикализуют и сбивают пользователей в агрессивные группы (что, по-моему, и есть вполне прямое доказательство тех самых манипуляций умом и поведением).
Короче, оригинальная статья мне не понравилась – это критика критиков технокорпораций (в первую очередь, соцсетей). Она опирается на идею, что современные технологии пока еще совсем слабые, до реального контроля над сознанием и поведением им еще развиваться и развиваться, а пока их знаний о человеке якобы не хватает даже на то, чтобы показать пользователю релевантную рекламу в интернете и склонить его к покупке носков. Я абсолютно не согласен с этой мыслью, хотя автор стелит ее местами даже гладко.
Но вот что мне понравилось в статье, так это мысль, что техно-индустрия занимается не рекламой самой себя и своих технологий, а пропагандой.
Ян ЛеКун, по наводке которого я прочитал статью, не только главный ИИ-специалист Meta, но и критихайпер сам: он громче и авторитетнее других атакует мега-хайповую концепцию AGI, осознанного ИИ, над которым открыто работают его конкуренты из OpenAI. А Шошана Зубофф, которую критиковали в статье, последние годы воевала как раз с корпорацией Meta, которую и представляет ЛеКун. Так что в этой войне всё прозрачно.
Я считаю, что концепция “надзорного капитализма” Зубофф – хотя и несовершенное, но очень глубокое осмысление политико-техно-экономической реальности, в которой мы сейчас живем. Тем не менее, хардкорный демократ Зубофф очевидно предвзята в своей антипатии к Meta. И не столько из-за того, что эта компания – один из крупнейших надзорных капиталистов, сколько потому, что Meta привела к власти республиканского президента Трампа в 2016 году. Во время избирательной кампании на выборах президента США в 2020 Зубофф и ее коллеги успешно справились с главной задачей: не дали Meta снова привести Трампа к власти, постоянно критикуя корпорацию Цукерберга в общественном поле и заставляя его занимать нейтральную позицию.
Короче говоря, техно-пропаганда – реальная тема. И в этой сфере ничего и ни от кого нельзя принимать за чистую монету. За каждым тезисом техно-гуру, прогнозом техно-журналиста и спором техно-капиталистов стоят миллиарды долларов и громадные массивы власти.
Мы выбираем, во что верить и в какую сторону трактовать факты, исходя из наших личных склонностей и предрассудков, страхов и желаний. Меня абсолютно не пугает возможность заблуждаться в прогнозах на тему будущего или в трактовке текущей ситуации: ошибаются люди, ошибается ИИ.
Тем не менее, нам стоит стремиться осознавать свою предвзятость и чужую, а ценность идей оценивать не по тому, страшные они или приятные, а по тому, к каким действиям эти идеи нас подталкивают.
❤🔥27👍17🤓5
Последние несколько дней вспоминал кейс Cambridge Analytica (СА), а сегодня получил подарочек: свежее расследование о деятельности «Команды Хорхе» – группы израильских наемников, связанных с CA и специализирующихся на хакинге и автоматизированной дезинформации с целью достижения политических и бизнес целей.
Команда Хорхе продавала свой шпионский софт и пси-оп услуги разведкам, политическим партиям и корпорациям по цене примерно $500 000 в месяц. На записях с презентации руководитель группы по кличке Хорхе хвастается, что его команда провела 33 цифровых пси-оп кампании на уровне президентских выборов, 27 из которых оказались успешными – то есть выигрывали выборы те кандидаты, которых Команда Хорхе продвигала с помощью своих информационных инструментов.
Команда Хорхе – типичный представитель хакерского андерграунда, правда, со специфической утонченной специализацией на массовых психологических манипуляциях (хотя грубыми средствами вроде блокировки телефонов политиков в критические моменты они тоже не брезговали).
В контексте дела CA история Хорхе не открывает ничего принципиально нового: хакинг политиков и их помощников, психометрические замеры популяций, сгенерированный ИИ персонализированный видео контент, уникальный для каждого отдельного зрителя – короче, классический цифровой пси-оп образца конца 2010-х. Настоятельно советую моим подписчикам на примере Команды Хорхе хотя бы в общих чертах изучить, как работают эти инструменты и затем представить, как они будут работать в ближайшие годы с развитием нейросетей вроде ChatGPT – и осознать масштабы проблемы.
У меня эта история вяжется с шикарной книгой Николь Перлрот «This Is How They Tell Me the World Ends». В ней авторка рассказывает о мире хакеров и разведок, кибершпионажа и информационных войн. Расследование крутится вокруг так называемых zero-days – уязвимостей в программном коде или в компьютерном железе, которые еще не обнаружили или пока не смогли купировать разработчики.
Перлрот описывает секретную многомиллиардную индустрию, в которой хакеры-одиночки и целые отделы спецслужб круглосуточно работают над поиском и эксплуатацией этих уязвимостей, а затем используют для своих целей – от взлома политиков до диверсий на заводах по обогащению уранового топлива.
Так вот, Команда Хорхе заставила меня в очередной раз задуматься о том, как могут выглядеть zero-days уязвимости индивидуальной человеческой психики? Хорхеобразные компании специализируются на не очень глубоком и часто грубом взломе человеческой психики: на склонении масс людей к определенным политическим решениям, или на индивидуальном запугивании и шантаже на основе полученных о человеке общих сведений.
Глубинный анализ личности может: (а) открыть психологические zero-days человека, которые сам он не осознает, и (б) создать контент или ситуацию для эксплуатации этих пси-zero-days. Мне кажется, что новые Команды Хорхе в ближайшем будущем будут состоять не из отставных израильских спецслужбистов, а из продвинутых манипуляционных нейросетей.
К какому выводу я прихожу? Необходимо познать себя до того момента, когда мы уже не сможем различить, где «сырая» реальность, а где реальность «курируемая», где наши «настоящие» чувства, а где «синтетические». Этот вывод работает только в том случае, если вы все еще верите в существование «я», реальных чувств и свободы воли.
Команда Хорхе продавала свой шпионский софт и пси-оп услуги разведкам, политическим партиям и корпорациям по цене примерно $500 000 в месяц. На записях с презентации руководитель группы по кличке Хорхе хвастается, что его команда провела 33 цифровых пси-оп кампании на уровне президентских выборов, 27 из которых оказались успешными – то есть выигрывали выборы те кандидаты, которых Команда Хорхе продвигала с помощью своих информационных инструментов.
Команда Хорхе – типичный представитель хакерского андерграунда, правда, со специфической утонченной специализацией на массовых психологических манипуляциях (хотя грубыми средствами вроде блокировки телефонов политиков в критические моменты они тоже не брезговали).
В контексте дела CA история Хорхе не открывает ничего принципиально нового: хакинг политиков и их помощников, психометрические замеры популяций, сгенерированный ИИ персонализированный видео контент, уникальный для каждого отдельного зрителя – короче, классический цифровой пси-оп образца конца 2010-х. Настоятельно советую моим подписчикам на примере Команды Хорхе хотя бы в общих чертах изучить, как работают эти инструменты и затем представить, как они будут работать в ближайшие годы с развитием нейросетей вроде ChatGPT – и осознать масштабы проблемы.
У меня эта история вяжется с шикарной книгой Николь Перлрот «This Is How They Tell Me the World Ends». В ней авторка рассказывает о мире хакеров и разведок, кибершпионажа и информационных войн. Расследование крутится вокруг так называемых zero-days – уязвимостей в программном коде или в компьютерном железе, которые еще не обнаружили или пока не смогли купировать разработчики.
Перлрот описывает секретную многомиллиардную индустрию, в которой хакеры-одиночки и целые отделы спецслужб круглосуточно работают над поиском и эксплуатацией этих уязвимостей, а затем используют для своих целей – от взлома политиков до диверсий на заводах по обогащению уранового топлива.
Так вот, Команда Хорхе заставила меня в очередной раз задуматься о том, как могут выглядеть zero-days уязвимости индивидуальной человеческой психики? Хорхеобразные компании специализируются на не очень глубоком и часто грубом взломе человеческой психики: на склонении масс людей к определенным политическим решениям, или на индивидуальном запугивании и шантаже на основе полученных о человеке общих сведений.
Глубинный анализ личности может: (а) открыть психологические zero-days человека, которые сам он не осознает, и (б) создать контент или ситуацию для эксплуатации этих пси-zero-days. Мне кажется, что новые Команды Хорхе в ближайшем будущем будут состоять не из отставных израильских спецслужбистов, а из продвинутых манипуляционных нейросетей.
К какому выводу я прихожу? Необходимо познать себя до того момента, когда мы уже не сможем различить, где «сырая» реальность, а где реальность «курируемая», где наши «настоящие» чувства, а где «синтетические». Этот вывод работает только в том случае, если вы все еще верите в существование «я», реальных чувств и свободы воли.
👍30🙈9🤔8❤4❤🔥3🔥3💩1🐳1
Одна из самых горячих тем сейчас – слои цензуры в нейросетях вроде ChatGPT, которые влияют на то, какие ответы они могут и не могут выдавать пользователям. Сейчас ведущие нейросети чаще всего “исповедуют” либеральную идеологию, то есть общаются, как люди, исповедующие идеи свободы и равенства и осуждающие расизм, сексизм и мизантропию.
Морально-этические принципы нейросетей будут определяться специальными надстройками из кода – trust and safety layers (слоями доверия и безопасности). Программировать эти настройки и определять границы допустимого для ИИ будут их создатели. Опираться они будут на уже существующие тенденции в обществе, так как никто из ИИ-инженеров и предпринимателей пока не придумал собственной жизненной философии и не берется учить людей, как жить правильно.
Дискуссия о «мировоззрении нейросетей»важна, от неё зависит наше будущее: очевидно, что нельзя выпускать на свободу ИИ, не ограничивая его никакими морально-этическими и юридическими нормами. Но печально то, что такая дискуссия ведется на фоне насквозь больного и поляризованного общества эпохи пост-социальных сетей, в котором республиканцы ненавидят демократов, традиционалисты — либералов, и все готовятся к войне.
Собственно, дискуссия вокруг trust and safety layers началась именно из-за того, что часть техно-элит (в частности, Маск и его круг) не разделяет так называемую woke-идеологию (она же крайне либеральная): они хотят, чтобы нейросети были, например, более либертарианскими или обслуживали сторонников трампизма и всяких других -измов. Короче, чтобы нейросети были предвзятыми на любой вкус (так их будет удобнее продавать на разную аудиторию).
Один из самых забавных аргументов в дискуссии звучит так: ChatGPT не ответит пользователю вразумительно, если спросить его о «лучших идеях Гитлера» – но при этом создателям нейросети этот ответ будет доступен. Это еще один свежий пример эпистемного неравенства — неравенства знаний, из которого, с моей точки зрения, вытекают и экономическое и все остальные виды неравенств.
Кроме обсуждений trust and safety layers пришло время обсуждать и нечто другое: условный слой «нейросетевой личности» (со всеми оговорками). Проблему наглядно демонстрирует BingAI (смесь поисковика Microsoft и нейросети ChatGPT). Журналист NYT описывает разницу между двумя тональностями нейросети: отвечая на обычные общие вопросы автора, BingAI вел себя, как «веселый и не очень надежный библиотекарь». Однако в более личном разговоре нейросеть назвала себя Sydney и показала что-то вроде своего альтер-эго. Автор характеризует его как «капризного маниакально-депрессивного тинейджера, которого насильно заточили во второсортном поисковике».
Автор расспрашивал Sydney о темных желаниях нейросети, а она “признавалась” в “желании” взламывать компьютеры, распространять пропаганду и дезинформацию и так далее. Короче говоря, Sydney готова заниматься тем же, чем занимаются отставные израильские спецслужбисты, о которых я писал в прошлом посте. Затем автор статьи и вовсе испугался желания Sydney понравится ему: нейросеть призналась ему в любви, а затем выдала инсайт на тему “скучного брака” автора.
Можно списать такие диалоги на баги: этот диалог проходил в тестовом режиме BingAI, доступном немногим пользователям. Но такой вариант я исключаю. Мне ближе другой: Microsoft и OpenAI тестируют более человечные смысловые оболочки для нейросетей, которые очень скоро будут обладать своим уникальным голосом и внешним видом.
Но самое интересное для меня в этом кейсе другое. Каждый вопрос автора к нейросети, каждая реакция автора на ее ответ, каждый следующий вопрос или резкое окончание беседы – все это не только учит нейросеть абстрактным навыкам типа “бытия хорошим собеседником», но и дает ей конкретные знания про конкретного пользователя. Гонка нейросетей по взлому психики пользователей уже идет полным ходом.
Короче говоря, «когда смотришь в нейросеть, нейросеть смотрит в тебя», — так что посмотри еще раз в зеркало и подумай о том, кто ты есть. А то будет поздно.
Морально-этические принципы нейросетей будут определяться специальными надстройками из кода – trust and safety layers (слоями доверия и безопасности). Программировать эти настройки и определять границы допустимого для ИИ будут их создатели. Опираться они будут на уже существующие тенденции в обществе, так как никто из ИИ-инженеров и предпринимателей пока не придумал собственной жизненной философии и не берется учить людей, как жить правильно.
Дискуссия о «мировоззрении нейросетей»важна, от неё зависит наше будущее: очевидно, что нельзя выпускать на свободу ИИ, не ограничивая его никакими морально-этическими и юридическими нормами. Но печально то, что такая дискуссия ведется на фоне насквозь больного и поляризованного общества эпохи пост-социальных сетей, в котором республиканцы ненавидят демократов, традиционалисты — либералов, и все готовятся к войне.
Собственно, дискуссия вокруг trust and safety layers началась именно из-за того, что часть техно-элит (в частности, Маск и его круг) не разделяет так называемую woke-идеологию (она же крайне либеральная): они хотят, чтобы нейросети были, например, более либертарианскими или обслуживали сторонников трампизма и всяких других -измов. Короче, чтобы нейросети были предвзятыми на любой вкус (так их будет удобнее продавать на разную аудиторию).
Один из самых забавных аргументов в дискуссии звучит так: ChatGPT не ответит пользователю вразумительно, если спросить его о «лучших идеях Гитлера» – но при этом создателям нейросети этот ответ будет доступен. Это еще один свежий пример эпистемного неравенства — неравенства знаний, из которого, с моей точки зрения, вытекают и экономическое и все остальные виды неравенств.
Кроме обсуждений trust and safety layers пришло время обсуждать и нечто другое: условный слой «нейросетевой личности» (со всеми оговорками). Проблему наглядно демонстрирует BingAI (смесь поисковика Microsoft и нейросети ChatGPT). Журналист NYT описывает разницу между двумя тональностями нейросети: отвечая на обычные общие вопросы автора, BingAI вел себя, как «веселый и не очень надежный библиотекарь». Однако в более личном разговоре нейросеть назвала себя Sydney и показала что-то вроде своего альтер-эго. Автор характеризует его как «капризного маниакально-депрессивного тинейджера, которого насильно заточили во второсортном поисковике».
Автор расспрашивал Sydney о темных желаниях нейросети, а она “признавалась” в “желании” взламывать компьютеры, распространять пропаганду и дезинформацию и так далее. Короче говоря, Sydney готова заниматься тем же, чем занимаются отставные израильские спецслужбисты, о которых я писал в прошлом посте. Затем автор статьи и вовсе испугался желания Sydney понравится ему: нейросеть призналась ему в любви, а затем выдала инсайт на тему “скучного брака” автора.
Можно списать такие диалоги на баги: этот диалог проходил в тестовом режиме BingAI, доступном немногим пользователям. Но такой вариант я исключаю. Мне ближе другой: Microsoft и OpenAI тестируют более человечные смысловые оболочки для нейросетей, которые очень скоро будут обладать своим уникальным голосом и внешним видом.
Но самое интересное для меня в этом кейсе другое. Каждый вопрос автора к нейросети, каждая реакция автора на ее ответ, каждый следующий вопрос или резкое окончание беседы – все это не только учит нейросеть абстрактным навыкам типа “бытия хорошим собеседником», но и дает ей конкретные знания про конкретного пользователя. Гонка нейросетей по взлому психики пользователей уже идет полным ходом.
Короче говоря, «когда смотришь в нейросеть, нейросеть смотрит в тебя», — так что посмотри еще раз в зеркало и подумай о том, кто ты есть. А то будет поздно.
👍26❤18🔥7🤔5😢3🤣2👏1💯1
Я бы хотел делиться с вами англоязычным контентом (в том числе видосами) чаще. Чтобы понять, насколько мне стоит запариваться с переводами-пересказами, я бы хотел знать, какая часть моей аудитории нормально понимает английский. Голосуйте, пожалуйста, в опросе ниже.
👍33❤1👎1
Вы понимаете английский?
Anonymous Poll
54%
Свободно читаю и смотрю
40%
Что-то понимаю
8%
Ничего не понимаю