РСМД
8.27K subscribers
553 photos
11 videos
4 files
5.09K links
Канал Российского совета по международным делам. Think Tank to Watch.
Связь с редакцией [email protected]
Download Telegram
🤖⚖️🐶 Новая статья в цикле #ИИ - Этические и правовые вопросы искусственного интеллекта.

Максим Карлюк анализирует проблемы, стоящие перед правом, в мире с растущим вовлечением автономных систем.
Современные автономные системы способны действовать независимо от создателей или операторов, но вопрос юридической ответственности пока не урегулирован.

Варианты регулирования многочисленны, в том числе на основе уже существующих норм, например, как имущество. С учетом автономности систем можно применить нормы, регулирующие особый вид имущества — животных. Однако здесь есть ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах.

Можно провести аналогию с дикими животными, тогда возникает вопрос - где грань между "домашним" и "диким" ИИ?

Распространённым предложением является применение к таким системам норм о юридических лицах. Но и в этом случае не обойтись без проблем, т.к. действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить. Действия же систем на основе ИИ не обязательно будут прямо восходить к действиям человека.

Наконец, возможно сделать программистов или пользователей автономных систем ответственными за действия ИИ, но тогда это очень серьезно замедлит развитие инноваций.

Так как же все-таки можно контролировать действия ИИ и есть ли у нас сегодня реальное юридическое основание для этих действий?
http://russiancouncil.ru/analytics-and-comments/analytics/eticheskie-i-pravovye-voprosy-iskusstvennogo-intellekta/
​​🙅‍♂️⚡️🤖 О дивный новый мир... без работы

Вполне возможно, что большей части трудоспособного населения предстоит в обозримом будущем снова сесть за парту. Однако проблема заключается в том, что никто толком не знает, чему именно им придется учиться. По некоторым оценкам, вплоть до 85% профессий, которые будут востребованы в 2030 г., на сегодняшний день еще не существуют.

Грядущие технологические изменения полностью трансформируют рынок труда как минимум в развитых странах. В зоне риска в первую очередь находятся профессии, связанные с неквалифицированным рутинным трудом. Кроме того, по мере развития технологий искусственного интеллекта тяжелые времена ожидают и юристов, учителей, шахтеров, менеджеров среднего звена, журналистов и представителей целого ряда других профессий. Причем речь не только о фабричном труде — многомиллионная армия бюрократов и клерков также находится под угрозой сокращения в результате цифровизации. Лучшим образом подготовлены к новым условиям те, чья работа требует творческого подхода и не сводится к выполнению определенных отработанных комбинаций.

Российскую экономику трудно назвать высокотехнологичной. Значительная часть работоспособного населения занимается рутинным низкоквалифицированном трудом, при этом его производительность по-прежнему остается низкой.

Но есть и другая «мина замедленного действия» в российской экономике — отсталая промышленность и упадок отечественной инженерной школы. В то же время нельзя исключать, что в ближайшем будущем в России не будет запущена массовая программа по роботизации и внедрению технологий #ИИ. Из-за отсутствия сильного профсоюзного движения и распространенности гибридных и «серых» форм занятости #автоматизация труда может иметь в России гораздо более жесткие социальные последствия, нежели в западных странах. Причем вполне возможно, что в силу «догоняющего» характера подобной модернизации Россия будет внедрять более примитивные технологии, чем в развитых государствах.

Как спасти рядового работника? Обзор способов снижения социальных последствий - в комментарии Николая Маркоткина.
http://russiancouncil.ru/analytics-and-comments/analytics/divnyy-novyy-mir-bez-raboty/
​​👹🤖 Продолжаем пугать проблемой #ИИ

Дмитрий Шефтелович, эксперт РСМД и один из авторов @vatfor, рассказал о дискуссиях, проходивших на конференции SIPRI, посвященной оценке влияния автономных систем и прогресса в области машинного обучения на стратегическую стабильность и риски ядерной войны.

Эксперт выделил три основных вопроса, интересующих все стороны:

Предсказуемость. Будет ли машина действовать именно так, как её запрограммировали вне зависимости от внешних данных? Тем более, если она самообучается в процессе боевых действий?

Ответственность. Кто будет отвечать за действия автономной боевой техники? Кто должен нести ответственность за неисполнение приказа или военные преступления?

Ускорение конфликта. Если реагировать и отдавать приказы будет машина, то человек не только будет отставать в скорости принятия решений, но и лишится возможности контролировать эскалацию конфликта. Вероятна ситуация, в которой локальное столкновение низкой интенсивности из-за ошибки обработки данных перерастёт в полноценные боевые действия, чего не хочет никто.

Вообще говоря, автоматы уже среди нас: они упрощают жизнь военному лётчику, обрабатывая входящую информацию, используются в беспилотниках при поиске целей, измеряют поведение по постам в «Фейсбуке» и не только, влияют на порядок выдачи в лентах новостей. Что делать с риском взлома таких систем? Не получится ли так, что поколение, выросшее со смартфонами, будет излишне доверять автомату, даже если он будет давать советы, а не принимать решения? Понравятся ли нам решения, рассчитанные машиной?

Для уменьшения рисков эксперты обсуждали следующие шаги:

1. В политической плоскости: многостороннее заявление на уровне глав государств или надгосударственных органов о том, что:
в ядерной войне победителей не будет; контроль за решением на применение оружия, в особенности ядерного, должен оставаться у человека.

2. В институциональной плоскости: меры по внедрению «здорового скепсиса» по отношению к новым технологиям. Вряд ли получится ограничить распространение идей и алгоритмов обучения, но можно задуматься об ограничении сбора и распространения сенсоров «военного» назначения и данных, требуемых для машинного обучения. Можно перенять успешный опыт контроля за химическим и биологическим оружием, не ограничивающий мирные исследования в области химии и фармацевтики.

3. На будущее: стоит озаботиться вопросом контроля за вычислительными ресурсами и увеличением взаимозависимости, в том числе и в цифровой сфере. Последнее, правда, крайне проблематично: современные компьютерные сети проектировались как системы, не отказывающие даже в случае ядерной войны.

http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/mini-konferentsiya-sipri-ii-i-risk-yadernoy-voyny/
🇺🇸🤖 Согласно докладу Startup Genome, несмотря на то, что США все еще остаются центром ИИ-индустрии, они стремительно вытесняются Китаем. В 2017 г. в Китае было создано в четыре раза больше ИИ-стартапов, чем в Штатах. Все это не может не вызывать обеспокоенности в Вашингтоне.

13 августа Дональд Трамп подписал новый вариант составленного в Конгрессе NDAA имени Джона Маккейна на 2019 фискальный год. Одними из самых обсуждаемых стали подпункты документа, предполагающие увеличение финансирования программ изучения искусственного интеллекта и технологий машинного обучения и устанавливающих их в качестве одних из главных приоритетов Министерства обороны.

О ситуации с развитием военного #ИИ в США рассказывает автор @vatfor Яков Ионин: бюджет растет, но требуется компромисс с Кремниевой долиной.

Коротко: несмотря на значительное увеличение финансирования ИИ-программ, Пентагон сталкивается с серьезным неприятием и оппозицией идее военного ИИ со стороны академического сообщества и IT-гигантов. В таких условиях Правительство в качестве компромиссной меры вынуждено привлекать во многих программах более лояльные, но менее эффективные в этой области компании.

Успех развития Соединенными Штатами военизированного искусственного интеллекта определяется прежде всего способностью достижения Пентагоном и Кремниевой долиной морально-этического компромисса. А сохранение американского военно-технического преимущества будет зависеть лишь от преодоления американским обществом внутренней поляризации.

http://russiancouncil.ru/analytics-and-comments/columns/military-and-security/voennyy-ii-v-ssha-s-byudzhetom-no-bez-kompromissa-s-kremnievoy-dolinoy/
🤖В новом тексте про #ИИ основатель проекта Aigents и архитектор проекта SingularityNET Антон Колонин рассказывает о проблемах создания сильного ИИ и угрозах искусственного интеллекта.

На угрозах не можем не остановиться подробнее😈.

Возникновение систем даже просто автономного или адаптивного, а тем более общего или сильного ИИ связывается с несколькими угрозами разного масштаба, которые актуальны уже сегодня. Среди них можно отметить:

1. Угрозу для человека может представлять интеллект не обязательно сильный, общий, человеческого или сверх-человеческого уровня, так как достаточно иметь автономную систему, оперирующую большими объемами информации с большими скоростями. На её основе могут быть созданы так называемые «автономные системы смертоносных вооружений» — Lethal Autonomous Weapons Systems (LAWS), простейший пример которых — дроны для заказных убийств, печатаемые на 3D-принтерах как в массовых масштабах, так и небольшими партиями в кустарных условиях.

2. Ситуацию, когда другое государство (потенциальный противник) получает вооружения с более адаптивным, автономным и общим искусственным интеллектом с повышенной скоростью реакции и предсказательной способностью.

3. Ситуацию, когда государства вступают в новый виток гонки вооружений, совершенствуя уровни интеллекта автономных средств поражения и уничтожения. По мнению некоторых экспертов, у такой гонки может быть два исхода — 1. гибель человечества в глобальной войне, и 2. гибель человечества в глобальной войне после порабощения ИИ сверхчеловеческого уровня. 🤷‍♂️

4. Создание любой, не обязательно боевой — промышленной или бытовой интеллектуальной системы с определенной степенью автономности и адаптивности, способная не только к целенаправленному действию, но и к сознательному целеполаганию, при том что автономная постановка целей системы может привести к постановке целей, противоречащих целям человека и людей, а возможностей достижения этих целей у системы будет намного больше, в силу её более высокого быстродействия, большего объема обрабатываемой информации и большей предсказательной способности.

5. Переход к новому уровню развития производственных отношений в капиталистическом (либо тоталитарном) обществе, когда более малочисленная часть населения получает возможность контролировать материальное производство, исключая из него подавляющую часть населения за счет еще большей автоматизации.

6. Автономизацию глобальных вычислительных систем обработки данных, распространения информации и принятия решений на основе глобальных сетей, поскольку скорость распространения информации в таких системах и масштаб воздействия может приводить к предсказуемым с позиций имеющегося опыта и существующих моделей управления социальным явлениям. Например, внедряемая система социального кредита в современном Китае является уникальным экспериментом цивилизационного масштаба с непонятными на сегодняшний день последствиями.

http://russiancouncil.ru/analytics-and-comments/analytics/iskusstvennyy-intellekt-blago-ili-ugroza-dlya-chelovechestva/
Российский совет по международным делам опубликовал любопытную статью (https://tttttt.me/russiancouncil/1762) о перспективах и угрозах, исходящих от сильного искусственного интеллекта. В двух словах, сильный ИИ — кибер-физическая система, способная решать разнообразные задачи обучения, классификации и распознавания образов без переобучения в различных контекстах. В обработке текстов, например, сильный ИИ смог бы автоматически переводить литературные произведения с английского на русский, находить в них отсылки к культурному контексту и «разумно» отвечать на вопросы о мотивации героев, а потом, после небольшого периода дообучения, проделывать то же самое с текстами на французском.

Очевидно, что создание сильного ИИ до неузнаваемости изменит отношение человека и общества к копьютерным системам. В статье Антона Колонина описываются вызовы на этом пути, головокружительные перспективы и потенциальные риски новых технологий. Выделим, на наш взгляд, ключевые предложения по снижению рисков, связанного с созданием и (в перспективе) широкой доступностью соответствующих технологий:

1. Международный запрет создания «автономных систем смертоносных вооружений» (LAWS).

2. Государственная поддержка работ в области ИИ и, в особенности, работ по решению задачи целеполагания и контроля за ИИ.

3. Расширение доступа к технологиям ИИ.

4. Международно-правовое регламентирование открытости алгоритмов ИИ, в первую очередь, чтобы сделать возможным контроль за обработкой данных и адекватный функциональный аудит принятия решений на основе машинного обучения.

В целом Ватфор готов сразу подписаться под многими из этих пунктов, но отдельные аспекты требуют более широкой и разносторонней дискуссии. К пункту 4 можно добавить, что нечто подобное уже происходит при разработке автономных автомобилей: так, существуют наработки по стандартизации функционального аудита автомобильных автопилотов. Судя по готовности компаний вроде DeepMind предоставить широкой публике тренировочные данные и готовые модели распознавания, третий пункт на данном этапе проблемой не является. Что же касается государственной поддержки, то, видимо речь идёт о грантах исследовательским группам. Это в целом благое пожелание зачастую ограничено бюджетами и длинными циклами планирования грантов, поэтому этот пункт можно дополнить пожеланием к частным компаниям активнее привлекать сотрудников исследовательских организаций к своей деятельности в виде частных грантов на научно-исследовательские работы, а к университетам — активно сотрудничать с потенциальными коммерческими партнёрами.

Но наиболее спорным можно считать первый пункт. В первую очередь, есть все основания полагать, что гонка вооружений в сфере автономных систем началась (или не останавливалась, в зависимости от перспективы). Во вторую очередь, в международно-правовых понятих очень сложно отразить понятие автономности: если понимать под автономными системами всё, что само движется к цели после запуска, то под это понятие подпадут баллистические ракеты и самонаводящиеся снаряды, а если понимать всё, что срабатывает без целеуказания, то можно сделать вид, что ничего такого нет, целеуказание-то всегда присутствует, пусть даже в форме «куда-то туда, в первую попавшуюся цель». Если же рассмотреть только этический аргумент, то можно возразить, что запретом на разработки отдаётся преимущество возможным государственным и, тем более, негосударственным нарушителям запрета, которые не будут связаны этическими и легальными нормами. Впрочем, насколько реально создать «на коленке» настоящюю боевую систему — вопрос отдельный, и он сложнее, чем кажется.

https://spectrum.ieee.org/transportation/self-driving/creating-driving-tests-for-selfdriving-cars
В качестве тизера сегодняшнего лонгрида по #ИИ-трендам. 👇
🤖🔥🌐 Технологическое неравенство и раньше сильно влияло на мировую политику и экономику. Самые технологически продвинутые государства становились самыми экономически успешными, они обретали неоспоримое военное превосходство и начинали диктовать свою волю менее развитым странам.

В ХХ в. две мировые войны и немыслимое ускорение научно-технического прогресса еще более усилили это влияние. А с приближением третьей декады ХХI в. лавинообразный рост возможностей машинного обучения заставил говорить о спектре IT-технологий, объединенных метафорическим обозначением «Искусственный интеллект» (#ИИ) как о ключевом факторе экономического, геополитического и военного могущества ближайших десятилетий.

2018 год стал переломным. Ранее основное внимание СМИ, общества и политиков при обсуждении будущих угроз и вызовов развития ИИ было направлено на:

— грядущее вытеснение людей из многих профессий когнитивными агентами ИИ (роботами и программами);
— правовые и этические проблемы автономных ИИ-устройств (например, беспилотных авто);
— проблемы кибербезопасности;
— пугающе манящую перспективу то ли далекого, то ли не очень «бунта машин».

Однако в 2018 г. всё вдруг начало меняться. Перечисленные выше угрозы и вызовы не то чтобы исчезли, но потускнели на фоне происходящего осознания политиками и военными двух глобальных трансформационных трендов, которые можно условно назвать:

ИИ-национализм

ИИ-национализация

Сергей Карелов
, основатель и Chief Technology Officer компании Witology, автор канала @theworldisnoteasy, в лонгриде для РСМД подробно описал тренды, сформулировал техно-геополитический прогноз
http://russiancouncil.ru/ai

Главными факторами международных отношений станут:

ИИ-неоколониализм во взаимоотношениях стран-лидеров и стран-аутсайдеров в ИИ-технологиях;

Гонка ИИ-вооружений между странами-лидерами, определяющая и направляющая дальнейшее развитие ИИ-технологий.

У такой гонки возможны 2 варианта окончания:

A. Вариант «Большая война», в результате которой следующая война будет вестись уже камнями и палками.

B. Вариант «AI Сингулярность» (или «приход лесника»), при котором все ускоряемое гонкой вооружений развитие ИИ-технологий породит «сильный» ИИ, а тот поступит как лесник в анекдоте, устранивший обе соперничающие стороны за ненадобностью.

Первый вариант, как считает эксперт, видится куда более вероятным. 🤷‍♂️
Не прочесть этот лучший за последний год лонгрид о влиянии связки «ИИ – Геополитика – Экономика» на судьбы мира, - будет большой ошибкой. Уровень проникновения в тему и точность вИдения ближайшего будущего – беспрецедентны для СМИ (эссе выйдет в ноябрьском журнале WIRED).
Ну а пока вы его еще не прочли, желающие могут прочесть мой резюме http://bit.ly/2AACEdW

#ИИ #БольшаяВойна #Геополитика
Набор демиурга (или 😈?): социальные сети, репутационные системы и искусственный интеллект.

Продолжаем пугать #ИИ. Антон Колонин рассказывает о новых угрозах и возможностях в области управления общественными процессами с применением современных сетевых технологий, концепции текучей дипломатии и систем искусственного интеллекта.

Сейчас всего несколько глобальных информационных сетей объединяют не менее половины всего человечества, где каждый индивидуум оказывается одновременно и живым сенсором, непрерывно передающим в сеть информацию о своем состоянии, и актором, способным воздействовать на окружающую среду в соответствии с теми мотивациями, которые он получает из сети. Формируется ситуация, в которой отдельно взятый человек оказывается не в состоянии контролировать и даже осознавать смысл и значимость всех информационных потоков и процессов, в которые он оказывается вовлечен.

Примечательно, что возможность фактического контроля за прохождением сигналов и анализа смыслов этих сигналов, выявления исполняемых программ, а также формирования подобных программ потенциально сохраняется у ограниченного контингента людей, контролирующих сами системы обработки информации, будь то бизнес-структуры в случае сетей в юрисдикции США или государственные структуры в КНР.

В этом смысле чрезвычайно интересен опыт КНР с ее тотально контролируемой государством социальной сетью и выстраиваемой на её основе репутационной системы «социального кредита», заслуживающей пока противоречивые комментарии. Долгосрочные итоги этого эксперимента можно будет проводить не раньше, чем через одну смену поколений, однако имеющиеся оценки указывают как на рост безопасности и социальной стабильности, так и на возможные пагубные последствия тоталитаризации жизни общества при сохранении возможности манипуляции самой системой и низовыми участниками, и контролирующими её структурами.

Сложность ситуации усугубляется появлением новых сил, ранее неизвестных человечеству — систем искусственного интеллекта (ИИ). Системы машинного обучения при всем их несовершенстве способны выполнять простейшие интеллектуальные задачи вроде распознавания известных объектов или навигации по предопределенным маршрутам гораздо быстрее и надежнее человека. Уже сейчас есть примеры успешного предсказания действий человека, которые успешно применяются при прогнозировании спроса в бизнесе и могут использоваться для предотвращения нарушений в правоохранительной сфере. Однако возможность предсказания поведения дает и возможность управлять им, что также уже используется и в бизнесе.

Учитывая экспоненциальный рост возможностей вычислительных систем и ресурсов, вкладываемых ведущими корпорациями (Amazon, Google, Baidu, Tencent, Alibaba, Apple, Microsoft) и государствами (США, Китай) в совершенствование систем искусственного интеллекта, их управляющая роль в жизни и развитии общества будет неуклонно расти. В лучшем случае в краткосрочной перспективе бенефициарами этого процесса станут бизнес-предприятия, управляющие соответствующими сетевыми платформами, их руководители и акционеры, а также государства, с которыми эти предприятия аффилированы. В худшем случае в долгосрочной перспективе выход интеллектуальных систем управления из-под контроля социума может представлять угрозу существования человеческому обществу в том виде, в котором мы видим его сейчас.

Эксперт предлагает несколько направлений для обеспечения безопасности сетевых систем с ИИ:
1. Полная деанонимизация систем искусственного интеллекта
2. Открытость кода ИИ-систем и протоколов их взаимодействий
3. Доступность ИИ-систем для массового конечного пользователя (а не только для крупных корпораций и государств).

Кто знает, возможно, после окончательного демонтажа комплекса соглашений о ядерном разоружении, именно обозначенные выше вопросы лягут в основу нового подхода к стратегической стабильности.

http://russiancouncil.ru/analytics-and-comments/analytics/kollektivnyy-intellekt-budushchee-chelovechestva-ili-gibel-lichnosti/
🤖🌐 Международным и социальным последствиям использования технологий искусственного интеллекта (#ИИ) посвящена новая рабочая тетрадь РСМД

В центре анализа настоящей работы — возможное влияние ИИ и смежных с ним технологий (машинное обучение, автономные аппараты) на международные отношения и различные сферы общественной жизни. В публикациях также рассматриваются этико-юридические аспекты применения технологий ИИ. Издание включает в себя аналитические материалы, подготовленные специалистами в сферах искусственного интеллекта, машинного обучения, автономных систем, а также юристов и социологов. Авторы: Сергей Карелов, Максим Карлюк, Антон Колонин, Николай Маркоткин и Дмитрий Шефтелович.

Электронная версия издания http://russiancouncil.ru/paper44

Сегодня же в РСМД состоялась одноименная конференция, в которой приняли участие ведущие эксперты в области ИИ и смежных дисциплин, международной безопасности, философы, юристы и социологи. Видео всех сессий конференции https://www.youtube.com/watch?v=jG1IS6G7uTo&feature=youtu.be&t=138&list=PLVsJ4XAR8N3dnw37VbxAi8kRdE_DpH3pB
У @russiancouncil сегодня было людно, весело и интересно, @vatfor подтверждает. Единственное, очень уж про разное говорили докладчики зачастую - ну да искусственный интеллект тема такая, широкая и не очень оформленная.

Чуть позже выскажемся и поподробнее.

https://tttttt.me/russiancouncil/1838
Рады были видеть на конференции по #ИИ двух авторов @vatfor! То, что тема дискуссии была широка - бесспорно. Но проблема даже не в широте темы, а в различиях в подходах и используемой терминологии. Надеемся, что публикации РСМД позволят систематизировать подходы в изучении проблемы ИИ в международных отношениях. В следующем году планируем сосредоточиться на более точечных аспектах.
Автор Ватфора выступал на конференции РСМД по международным социально-политическим последствиям внедрения технологий искусственного интеллекта, и делится впечатлениями от собственно конференции. Тематика ИИ охватывает широкий спектр тем, и, соответственно, докладчики тоже старались рассказать о, с их точки зрения, наиболее интересных аспектах этой темы. Кроме философских рассуждений о сути интеллекта и боевых роботах, многое было сказано о перспективах развития ИИ-технологий в мире в целом и в России в частности.

К сожалению, широкий спектр конференции поспособствовал широте, но не глубине дискуссии. Хотелось бы обсудить многие из поднявшихся тем глубже, посмотреть на обсуждение мер по поддержке малого ИТ-бизнеса, обсудить замещение рабочих мест, освобождаемых автоматизацией, детально взвесить «за» и «против» автономных боевых систем вместе с собственно собирающимися их применять военными. Но, скорее всего, это потребовало бы расширения конференции во времени; поэтому со своей стороны понадеемся, что РСМД продолжит проект и рассмотрит наиболее интересные вопросы детально.

Из дискуссии, удалось почерпнуть кое-что новое и познавательное. Из запомнившихся тезисов и выступлений можно упомянуть рассуждения о том, что машинное обучение это ответ на огромные масштабы данных, краткую историю индийского киберкомаднования, поучительную историю о том, как пользователи Твиттера научили чат-робота от Microsoft плохому (и вывод, что качество данных на входе зачастую критически важно для классификации на выходе, что было видно на недавнем примере с Amazon), вопрос о необходимости принятия национальной стратегии развития ИИ-технологий, варианты помощи российскому ИТ-бизнесу и вопрос о предпочтительном формате (открытый либо закрытый) разработки ИИ. Риски ИИ участники видели не только в труднообъяснимости принимаемых решений, но и в собственно технологии, позволяющей фабриковать фото и видео и создать «виртуальное пространство дезинформации», и в гонке ИИ-вооружений. Звучали и скептические голоса: в первую очередь, коллеги со стажем вспоминали, что под «искусственным интеллектом» последние 40 лет понимались технологии на горизонте ИИ, которые на следующий день становились рутинной задачей статистики или дискретной математики; а в общем контексте цифровизации вспоминали опыт последних тридцати лет, когда цифровизация требовала достаточно масштабной реорганизации бизнес-процессов. Несмотря на ограниченный формат, нашлось место и жёстким дискуссиям по существу, и даже мерянием формами допуска.

Со своей стороны в копилку дискуссии Ватфор хочет добавить один тезис: тот факт, что машинное обучение требует огромные массивы данных и необходимость эти данные собирать и обрабатывать, поднимает вопрос о добровольности их сбора, и, собственно, защите пользовательских данных, анонимизации и контроля за утечками информации. Даже в рамках человеческого общения наличие тайны и отказ обсуждать определённые темы позволяет сделать выводы, чего уже говорить о выводах, которые можно сделать из «больших данных».

https://tttttt.me/russiancouncil/1838
🇷🇺 #Россия способна найти свою нишу в #ИИ-технологиях, но эта ниша интегрирована в глобальный ландшафт.

Вице-президент ВШЭ Игорь Агамирзян рассказал о роли технологий искусственного интеллекта в технологическом развитии человечества, возможностях и ограничениях международного регулирования информационных технологий и российской позиции в гонке технологий.

"...отличие цифрового мира от мира индустриального заключается в том, что здесь невозможно догоняющее развитие. Если в период индустриализации можно было построить завод, купив техническую документацию и затратить на это меньшее время и ресурсы меньшие, чем если бы конструирование и создание этого завода происходило с нуля, то в современной цифровой экономике такой вариант не сработает. Сейчас объект и его чертеж — это, по сути, одно и то же. Для того, чтобы реализовать собственную разработку некоего объекта с нуля, потребуются время и ресурсы такие же, как были когда-то использованы, чтобы создать прототип.
Соответственно, чтобы сократить существующее технологическое отставание, потребуются те же самые 50 лет, на протяжении которых это технологическое отставание росло.

Рассчитывать на то, что мы сможем полностью, как у нас говорят, «импортозаместить» информационные технологии — это наивно. Но мы можем, базируясь на существующей международной и достаточно хорошо стандартизованной платформе (в том числе микроэлектроники, систем хранения данных, коммуникационного оборудования, соответствующего программного обеспечения) строить новое и интегрировать те технологии и те, условно говоря, общественно-доступные знания, которые в мире существуют.

Россия может найти свою нишу в ИИ-технологиях. Но эта ниша интегрирована в глобальный ландшафт. Однако в эту нишу в условиях, так сказать, ограничений на развитие глобальной экономики, вход найти очень трудно."

http://russiancouncil.ru/analytics-and-comments/interview/igor-agamirzyan-iskusstvennyy-intellekt-obektivnaya-zakonomernost-razvitiya-chelovechestva/
🤖 Эйнштейн однажды остроумно заметил, что в мире есть две бесконечные вещи — Вселенная и человеческая глупость, хотя в первом он не вполне уверен.

Раз уж глупость бесконечна, то интеллект, уровнем развития которого она является, пусть и искусственный, можно обсуждать так же бесконечно долго.

Новый текст "про #ИИ" посвящен проблеме недостижимости сильного ИИ. Оговоримся правда, недостижимость авторами фиксируется на существующей аппаратной базе и в алгоритмизированном пространстве.

В мультидисциплинарном (айти, физика, философия, психология, биология и, конечно же, математика) лонгриде Роман Дурнев, Кирилл Крюков и Андрей Титов разбираются в терминологии ИИ, объясняют, почему создание «сильного ИИ» в виде программы на ЭВМ в принципе невозможно, подробно описывают математические ограничения в создании ИИ человеческого уровня и рисуют удивительные перспективы настоящего биохакинга, основанного на развитии биокибернетических систем.

Вперед к экзокортексу и брейнету! 🤓

http://russiancouncil.ru/analytics-and-comments/analytics/v-pogone-za-sovershennym-intellektom/
Эксперт РСМД и автор @vatfor Дмитрий Шефтелович подготовил обзор стратегии #ИИ МО США, опубликованной 12 февраля 2019 г.

Судя по всему, в Пентагоне сформировалось мнение, что для внедрения ИИ-технологий не хватает ни ресурсов, ни организационных структур. Поэтому стратегия предусматривает, кроме собственно внедрения технологий, дополнительное активное финансирование, привлечение кадров из гражданского и научного сектора, а также создание специализированного внутреннего ведомства по ИИ, которое должно управлять внедрением технологий и отчасти преобразовать не только процесс внедрения, но и сам Пентагон, увеличивая его эффективность не только за счёт технических инноваций, но и за счёт применения современных управленческих практик.

С точки зрения Пентагона, ИИ-технологии способны радикально преобразовать военное дело. Интересно, что как в России и Китае, так и в США, главные аргументы для включения в гонку ИИ, это позиции "конкурентов". В случае США, это Китай и Россия, которые, по мнению авторов документа, уже разрабатывают и внедряют ИИ-технологии с далеко идущими геополитическими целями, противоречащими ценностям США и их союзников.

http://russiancouncil.ru/analytics-and-comments/analytics/obzor-strategii-ii-mo-ssha/
🇨🇳🏃‍♂🇺🇸 #Китай  обогнал #США по 2м из 4х ключевых показателей развития ИИ.

Китай уже сейчас №1 по числу научных публикаций и патентов, а США  пока лидирует  по числу специалистов и компаний.

Но предопределенности лидерства Китая в мировом развитии ИИ нет. Чтобы переломить ход мировой ИИ гонки, США требуется сделать примерно то же, что они уже не раз делали в прошлом, осознав свое технологическое отставание в стратегической для национальной безопасности сфере.

Так было с Манхеттенским проектом в 1942–1946, когда США решили во что бы то не стало выиграть гонку по созданию атомной бомбы, несмотря на то, что немцы, начав свой проект на 3 года раньше, значительно ушли вперед. Похожим образом складывалась история программы «Аполлон»,  целью которой было догнать и перегнать ушедший вперед в своей космической программе СССР.

Подробнее о гонке #ИИ в лонгриде Сергея Карелова, автора
@theworldisnoteasy https://goo.gl/pnmxeJ
🤖🇷🇺 #Робототехника и #ИИ в России: разработки есть, а законодательства — нет (пока)

2019 год должен стать переломным для российских высоких технологий — готовятся к выходу национальные стратегии по развитию робототехники и искусственного интеллекта, также ожидается, что будут приняты законы, регулирующие эти отрасли. Мы побеседовали с руководителем Исследовательского центра «Робоправо» Андреем Незнамовым о содержании национального законодательства в сфере ИИ и робототехники и перспективах международного регулирования смертоносных автономных систем.

О законе об использовании роботов

Ключевая идея нового закона будет заключаться в том, чтобы минимально навредить интересам индустрии и наоборот поддержать ее развитие. При этом одновременно необходимо соблюсти баланс с обеспечением интересов общества и государства, в первую очередь с точки зрения безопасности. Мы стараемся любыми способами донести до законодателей мысль, что 90% нормативных актов в этой сфере в других странах направлены на поддержку отрасли, а не на то, чтобы ее регулировать.

О робототехнике в России

Существует распространенное заблуждение, что в России нет ни роботов, ни искусственного интеллекта, и нам незачем писать законы на эту тему. Не все знают, что в стране есть компании, которым удается не просто производить роботов, но и экспортировать их в те страны, куда, казалось бы, это делать невозможно — например, в Японию. Такие ростки, безусловно, нужно поддерживать. Лучше всего ситуация с военной робототехникой. Из гражданских — это, в первую очередь, сервисная робототехника. В сфере медицины постепенно появляется целый ряд разработок. Промышленная робототехника у нас, к сожалению, пока развита достаточно слабо.

О законодательстве в области беспилотных транспортных средств

Уже сейчас в десятках стран мира есть законодательство, разрешающее тестирование полностью беспилотных машин, а мы разрешили только один вид. Более того, у нас не разрешено тестирование машин, которые изначально созданы как беспилотные, в которых даже руля нет. Такие разработки в России есть, а законодательства — нет. Это, конечно, большая проблема. Я надеюсь, что в 2019 г. мы сможем это поправить.

О регулировании и/или запрещении использования военных дронов

Несмотря на возмущение общественности и кампании вроде «Stop Killer Robots», факты говорят в том, что во многих странах такие разработки ведутся, а у целого ряда стран такие разработки есть. Правда заключается в том, что использовать такие боевые системы выгодно как с экономической, так и с гуманитарной точки зрения. Умирает робот, а не человек. В вопросах регулирования военных беспилотников государствам очень тяжело будет найти какой-то консенсус.

https://russiancouncil.ru/analytics-and-comments/interview/robototekhnika-i-ii-v-rossii-razrabotki-est-a-zakonodatelstva-poka-net/
​​Россия на карте мира ИИ.
Место и перспектива трёх стран в мировой
ИИ-гонке.
Еще пару лет назад был смысл в применении разнообразных рейтингов для оценки положения стран в мировой ИИ-гонке (см. (1)). Теперь это уже не так. Практические успехи глубокого обучения (основное направление развития современных ИИ-систем) привели к тому, что на это направлении развития ИИ теперь приходятся 95%+ всех денег и талантов. А это значит, что как минимум на ближайшую декаду, лидеры глубокого обучения будут лидерами мировой ИИ-гонки.

А в глубоком обучении, - как в беге. Выигрывает тот, у кого лучше физическая подготовка. Конечно, есть и другие факторы (спортивный дух, настрой, воля к победе, техника …). Но без исключительно хорошей физической подготовки в гонке не выиграть.

Эквивалентом физической подготовки в современном глубоком обучении является вычислительная мощность компьютера, на котором обучаются модели со все большим числом параметров. В крупнейшей на сегодня языковой модели transformer от Microsoft число параметров составляет 530 млрд. Насколько круто возросли требования к вычислительной мощности для таких моделей видно из этого графика (2).

В результате вычислительная мощность стала главным показателем потенциала роста величины и сложности новых все более совершенных моделей глубокого обучения. И это относится как к бизнесу компаний БигТеха, так и к академическим исследовательским центрам, а также к каждой стране в целом.

Для оценки вычислительной мощности для такого рода задач обучения сверхбольших моделей создан специальный тест HPL-AI (3). Но по этому тесту пока что оценена производительность лишь 19 высокопроизводительных вычислительных комплексов мира. Поэтому для более широкого и полного сравнения самых высокопроизводительных систем для ИИ пока продолжают использовать показатель скорости вычислений с плавающей точкой (Flop/s), как это принято в рейтинге ТОР500 (4).

И по этой оценке карта мира ИИ выглядит так, как на приложенном к посту рисунке.
Совокупная вычислительная мощность каждой из стран соответствует площади прямоугольников, в свою очередь разделенных на более мелкие прямоугольники, соответствующие вычислительной мощности отдельных высокопроизводительных систем.
• Россия обведена красным пунктиром (7 систем, самая мощная из них у Яндекса – 21,5 петафлопс (10^15 Flop/s)
• Китай обведен синим пунктиром (173 системы, самая мощная – 93 петафлопс – на 26% превышает производительность всех российских систем в ТОР500).
• США обведены желтым пунктиром (149 систем, самая мощная – 149 петафлопс –в 2 раза превышает производительность всех российских систем в ТОР500).

Таково сегодняшнее место России на карте мира ИИ.

А теперь о перспективе.
На этом рисунке (5) вычислительная мощность трёх новых суперкомпьютерных систем соответствует площади трёх прямоугольников:
• Желтый – это Китай: 25 января с.г. SenseTime запустил Artificial Intelligence Data Centre (AIDC) нового поколения SenseCore; его вычислительная мощность 3740 петафлопс (в 51 раз превышает производительность всех российских систем в ТОР500)
• Синий – это США: к 2023 году Facebook (Meta) доведет вычислительную мощность своего AI supercomputer RSC до 4900 петафлопс (в 67 раз превышает производительность всех российских систем в ТОР500)
• Красный – это Россия: к 2026 планируется создать суперкомпьютер на разрабатываемых сейчас отечественных процессорах «Эльбрус-32С» производительностью в 100 петафлопс.

#ИИ #HPC #Россия #Китай #США
1 2 3 4 5