Кто хочет помочь развитию русскоязычного искусственного интеллекта - сегодня можно побыть судьей в Тесте Тьюринга. Пока боты не очень сильные, но во-первых, сам процесс интересен, а во-вторых, коммуницируя даже с плохими чат-ботами вы помогаете им стать лучше, обучаясь: @Turingtest_bot
Ниже пример моей переписки
Ниже пример моей переписки
Еще отдельные высказывания с конференции по ИИ в Сколково:
- неравнетсво в доступе к технологиям во многом вызвано неравенством в доступе к базам данным, потому что обучение нейросетей именно на них
- неочевидные математические проблемы: после обучения непонятно, как работает нейронная сеть и почему дает именно этот ответ.
- проблема вагонетки для беспилотного автомобиля показывает, что не смотря на то, что этика не воспринимается, как технологический барьер, тем не менее, именно эту проблему не решить обучением нейронных сетей. И в целом это проблема курицы и яйца.
- этические норма меняются согласно технологическим нормам. Когда-то мы не могли помылисть вопрос "Какой у тебя генотип? ты когда умереть-то собираешься?"
- Однако и в другую сторону - что вчера казалось этичным, завтра может быть неэтичным.
- неравнетсво в доступе к технологиям во многом вызвано неравенством в доступе к базам данным, потому что обучение нейросетей именно на них
- неочевидные математические проблемы: после обучения непонятно, как работает нейронная сеть и почему дает именно этот ответ.
- проблема вагонетки для беспилотного автомобиля показывает, что не смотря на то, что этика не воспринимается, как технологический барьер, тем не менее, именно эту проблему не решить обучением нейронных сетей. И в целом это проблема курицы и яйца.
- этические норма меняются согласно технологическим нормам. Когда-то мы не могли помылисть вопрос "Какой у тебя генотип? ты когда умереть-то собираешься?"
- Однако и в другую сторону - что вчера казалось этичным, завтра может быть неэтичным.
- Человеческие интеллект размазан по 7 миллиардам людей. Из-за большого количества профессий разная онтология. Но мы находим общий язык благодаря социальным инстинктам.
- Любая катастрофа будет всемирной катастрофой из-за глобальности мира. Потеря управления ИИ, например.
- Чтобы добиться распознавания 99% сколько картинок кошечек нужно ввести? Хватило всего лишь 10 миллионов.
- Что делать с сокращением рабочих мест роботяг, которые не смогут работать вместе с роботами? Сделаем усилитель интеллекта - чтобы за день прожить десяток жизней.
- сейчас можно и нужно перейти к конструированию общего искусственного интеллекта
- Сильный ИИ появится в течение 3-5 лет (прогноз от Виталия Львовича Дунина-Барковского).
- Примеры подобных технологических прорывов: тоннельны микроскоп, графен, высокотемпературная сверхпроводимость.
- до сих пор общий ИИ не сделан, потому что для тех кто финансирует исследования он не является самоценным, они задают вопросы "А что он может сделать?", "А как он нам поможет?".
- Если вы возьмете много нейронов, чтобы было много входов и один выход, так чтобы связи между ними могли меняться так, чтобы не было ошибок, то на конечном отрезке времени такая система станет работать без ошибок. При этом не важен тип этих нейронов. И вникать в работу этих нейронов бессмысленно.
- мы не можем переделать людей - трудно соперничать с миллионами лет эволюции. Задача дизайнеров интерфейсов и инженеров - делать желания людей реализуемыми технически.
- Любая катастрофа будет всемирной катастрофой из-за глобальности мира. Потеря управления ИИ, например.
- Чтобы добиться распознавания 99% сколько картинок кошечек нужно ввести? Хватило всего лишь 10 миллионов.
- Что делать с сокращением рабочих мест роботяг, которые не смогут работать вместе с роботами? Сделаем усилитель интеллекта - чтобы за день прожить десяток жизней.
- сейчас можно и нужно перейти к конструированию общего искусственного интеллекта
- Сильный ИИ появится в течение 3-5 лет (прогноз от Виталия Львовича Дунина-Барковского).
- Примеры подобных технологических прорывов: тоннельны микроскоп, графен, высокотемпературная сверхпроводимость.
- до сих пор общий ИИ не сделан, потому что для тех кто финансирует исследования он не является самоценным, они задают вопросы "А что он может сделать?", "А как он нам поможет?".
- Если вы возьмете много нейронов, чтобы было много входов и один выход, так чтобы связи между ними могли меняться так, чтобы не было ошибок, то на конечном отрезке времени такая система станет работать без ошибок. При этом не важен тип этих нейронов. И вникать в работу этих нейронов бессмысленно.
- мы не можем переделать людей - трудно соперничать с миллионами лет эволюции. Задача дизайнеров интерфейсов и инженеров - делать желания людей реализуемыми технически.
Дмитрий Песков, АСИ:
Темой круглых столов скоро будет не "Искусственный интеллект и национальная безопасность", а "есть ли в искусственном интеллекте что-то кроме национальной безопасности". Градус сейчас такой же, как в середине 50-х годов, как будто уже написана страница "Правды" "Кибернетика - лженаука", но еще не подписана к печати. То есть сейчас идет расстановка приоритетов. И разница в масштабе действий - нужных и реальных - тысячи раз. На сколько человек недооценивает ИИ как аспект национальной безопасности. Прогноз, в ближайшие годы тема вырастет в десятки раз, будут созданы специализированные институты для решения этой задачи, к сожалению произойдет некоторое закрепощение коллективов, чем проиграем гонку с западом, так как они занимаются открытыми конкурсами и работой с сообществом.
А в целом - идем к 2037 году, когда искусственный интеллект "Иосиф Сталин" будет проводить цифровые репрессии против искусственного интеллекта "Лев Троцкий".
Темой круглых столов скоро будет не "Искусственный интеллект и национальная безопасность", а "есть ли в искусственном интеллекте что-то кроме национальной безопасности". Градус сейчас такой же, как в середине 50-х годов, как будто уже написана страница "Правды" "Кибернетика - лженаука", но еще не подписана к печати. То есть сейчас идет расстановка приоритетов. И разница в масштабе действий - нужных и реальных - тысячи раз. На сколько человек недооценивает ИИ как аспект национальной безопасности. Прогноз, в ближайшие годы тема вырастет в десятки раз, будут созданы специализированные институты для решения этой задачи, к сожалению произойдет некоторое закрепощение коллективов, чем проиграем гонку с западом, так как они занимаются открытыми конкурсами и работой с сообществом.
А в целом - идем к 2037 году, когда искусственный интеллект "Иосиф Сталин" будет проводить цифровые репрессии против искусственного интеллекта "Лев Троцкий".
Страшно:
Сергей Васильев, советник генерального директора Фонда Перспективных Исследований: "Как дать искусственному интеллекту национальную идентичность и принадлежность?"
Сергей Васильев, советник генерального директора Фонда Перспективных Исследований: "Как дать искусственному интеллекту национальную идентичность и принадлежность?"
Дмитрий Песков, АСИ:
Сочетание двух трендов - ИИ и биотеха - в ближайшие 20 лет поставит эксперимент, который покажет - есть ли интеллект у человечества? Потому что никаких рациональных причин для самосохранении человечества нет. Прошлый такой эксперимент - ядерное оружие и его можно считать наполовину провалившимся, но тогда нужно было договориться между несколькими стейкхолдерами. Но как быть, когда ИИ и CRISPR доступен каждому представителю среднего класса на кухне? На этику надежд нет. При этом мы видим, как международные организации отрицают ценность человеческой жизни. Поэтому нужно искать другие механизмы защиты. Возможно, это должно быть что-то встроенное в саму технологию, по типу законов робототехники. Но, возможно, мы уже опоздали.
Сочетание двух трендов - ИИ и биотеха - в ближайшие 20 лет поставит эксперимент, который покажет - есть ли интеллект у человечества? Потому что никаких рациональных причин для самосохранении человечества нет. Прошлый такой эксперимент - ядерное оружие и его можно считать наполовину провалившимся, но тогда нужно было договориться между несколькими стейкхолдерами. Но как быть, когда ИИ и CRISPR доступен каждому представителю среднего класса на кухне? На этику надежд нет. При этом мы видим, как международные организации отрицают ценность человеческой жизни. Поэтому нужно искать другие механизмы защиты. Возможно, это должно быть что-то встроенное в саму технологию, по типу законов робототехники. Но, возможно, мы уже опоздали.
А вот еще от Дмитрия Пескова, немного охлаждает пыл:
Если вы верите в сингулярность, вы должны выйти из зала, продать все активы, купить билет на далекий остров в районе Микронезии и завести себе там натуральное хозяйство. Никакой другой модели поведения, которая даст вам возможность выжить в ситуации сингулярности, не существует с 1956 года.
Если вы не верите в сингулярность, а верите в регулярность. Верите, что разумной фигурой является синусоида, то тогда можно продолжать разговаривать. На сингулярность мы ответим регулярностью. В этой логике в блидайшие годы ИИ не возникнет.
Если вы верите в сингулярность, вы должны выйти из зала, продать все активы, купить билет на далекий остров в районе Микронезии и завести себе там натуральное хозяйство. Никакой другой модели поведения, которая даст вам возможность выжить в ситуации сингулярности, не существует с 1956 года.
Если вы не верите в сингулярность, а верите в регулярность. Верите, что разумной фигурой является синусоида, то тогда можно продолжать разговаривать. На сингулярность мы ответим регулярностью. В этой логике в блидайшие годы ИИ не возникнет.
Ну и несоклько мыслей по итогам конфернеции:
Что интересно, даже панель по технологическим барьерам вылилась в обсуждение этических барьеров и юридических вопросов робототехники. Ну что ж, мне это нравится)
Дискуссионной панели "Искусственный интеллект и национальная безопасность" я очень боялся, но патриотическую риторику особого русского пути показал только один участник Сергей Васильев (советник генерального директора Фонда Перспективных Исследований), остальные были в рамках глобального подхода.
В докладе Виталия Львовича Дунина-Барковского было несколько печальных примеров, из-за которых потенциал российской школы искусственного интеллекта реализован не так хорошо, как мог бы. Нет, ничего особенного, все стандартно, но все равно печально, когда собрано в одном докладе: после такой-то конференции не дали денег, тот-то специалист не получил работу на кафедре из-за пятого пункта и уехал в Израиль. иИ так далее.
Искусственный интеллект, надеюсь, будет этичнее человеческого: к сожалению, как и на моей конференции, и на дискуссионных панелях, которые я вел и в которых участвовал, так и здесь: более половины "вопросов" из зала являются не вопросами, а высказываниями своего мнения. Это очень неэкологичное поведения, во всяком случае, мне так кажется. Я часто в таких случаях прерываю выступающего и отбираю микрофон (возможно, это тоже неэкологично), за что меня называют очень жестоким ведущим. Тут модераторы вежливее)
Что интересно, даже панель по технологическим барьерам вылилась в обсуждение этических барьеров и юридических вопросов робототехники. Ну что ж, мне это нравится)
Дискуссионной панели "Искусственный интеллект и национальная безопасность" я очень боялся, но патриотическую риторику особого русского пути показал только один участник Сергей Васильев (советник генерального директора Фонда Перспективных Исследований), остальные были в рамках глобального подхода.
В докладе Виталия Львовича Дунина-Барковского было несколько печальных примеров, из-за которых потенциал российской школы искусственного интеллекта реализован не так хорошо, как мог бы. Нет, ничего особенного, все стандартно, но все равно печально, когда собрано в одном докладе: после такой-то конференции не дали денег, тот-то специалист не получил работу на кафедре из-за пятого пункта и уехал в Израиль. иИ так далее.
Искусственный интеллект, надеюсь, будет этичнее человеческого: к сожалению, как и на моей конференции, и на дискуссионных панелях, которые я вел и в которых участвовал, так и здесь: более половины "вопросов" из зала являются не вопросами, а высказываниями своего мнения. Это очень неэкологичное поведения, во всяком случае, мне так кажется. Я часто в таких случаях прерываю выступающего и отбираю микрофон (возможно, это тоже неэкологично), за что меня называют очень жестоким ведущим. Тут модераторы вежливее)
Коллеги, продолжаем делиться с вами видеозаписями с конференции Future Foundation Technology Ethics.
Выступление Кирилла Мартынова "Универсальная этическая машина: мораль после big data".
https://youtu.be/J9bfcn1vXig
Выступление Кирилла Мартынова "Универсальная этическая машина: мораль после big data".
https://youtu.be/J9bfcn1vXig
YouTube
Кирилл Мартынов: Универсальная этическая машина: мораль после big data
Скачать презентацию: http://www.slideshare.net/Future_Foundation/big-data-66677347 Future Foundation Technology Ethics Conference http://futuref.org/technoet...
Это очень хороший проект
https://project1917.ru/
Заходя на сайт, вы каждый день узнаете о том, что произошло ровно сто лет назад с героями и всей страной. Что занимало мысли людей, что случилось с каждым из них в этот насыщенный событиями год. Вы не можете заглянуть в будущее, можете лишь следить за событиями в реальном времени.
И сделано это в формате фейсбука, и я считаю это принципиальным моментом. Выступления в Думе и манифесты - в виде постов. Реакция на них других людей - в виде комментариев и лайков. Кто с кем дружил, как общался - все это можно узнать.
Проект многие критикуют в стиле "Опошлили историю, свели все к соцсеточкам". А я вот категорически не согласен с этой критикой. Если в наше время есть способ коммуникации настолько удобный и привычный, глупо было бы его не использовать. Именно с помощью него можно достичь такую атмосферу погружения.
Но самое важное - это дает возможность воспринимать исторических деятелей не как фотографии/портреты из учебника с подписью и датами рождения-смерти, а как равных себе. А этот эффект работает в обе стороны: не только они становятся нам ближе и понятнее, происходит такая дедегуманизация (два раза "де" - не опечатка) из портретов - в цифровых аватаров (что уже большой прогресс), но и в другую сторону: мы сами чувствуем себя более равными им. Ведь большая проблема для нас, "обычных людей", как мне кажется - дерзнуть предположить, что мы можем что-то изменить. Исторические люди, которые портреты в учебнике, они недосягаемы, непонятно как они действовали, как жили, с кем общались - мы знаем только результаты их деятельности. А здесь, в этой соцсеточке - они равны нам. А раз смогли они, сможем и мы. Вот этот эффект мне кажется неочевидным, но важным.
Ну и, конечно, не удержусь - скажу о технологиях и будущем. В этом я вижу начало пути к созданию более полноценных цифровых аватаров, обученных нейронных сетках, например, на исторических личностях. Они смогут действовать в VR-мирах. Только представим, какие возможности для обучения.
Но это только этап, а главное - дальше. Представим себе парадигму нашего взаимодействия с историей, когда мы сможем выбрать себе VR-сервер с желаемым временем и там все будет "по-настоящему", с полным погружением. Да, как 4 серии 3 сезона Черного Зеркала. Это ли не практически путешествия во времени?
И в другую сторону - мое предположение в том, что участвуя в цифровом бессмертии живших когда-то мы начнем иначе относится к настоящему. Это заставляет задуматься, какое наследние мы оставляем после себя, как бы это пафосно ни звучало.
https://project1917.ru/
Заходя на сайт, вы каждый день узнаете о том, что произошло ровно сто лет назад с героями и всей страной. Что занимало мысли людей, что случилось с каждым из них в этот насыщенный событиями год. Вы не можете заглянуть в будущее, можете лишь следить за событиями в реальном времени.
И сделано это в формате фейсбука, и я считаю это принципиальным моментом. Выступления в Думе и манифесты - в виде постов. Реакция на них других людей - в виде комментариев и лайков. Кто с кем дружил, как общался - все это можно узнать.
Проект многие критикуют в стиле "Опошлили историю, свели все к соцсеточкам". А я вот категорически не согласен с этой критикой. Если в наше время есть способ коммуникации настолько удобный и привычный, глупо было бы его не использовать. Именно с помощью него можно достичь такую атмосферу погружения.
Но самое важное - это дает возможность воспринимать исторических деятелей не как фотографии/портреты из учебника с подписью и датами рождения-смерти, а как равных себе. А этот эффект работает в обе стороны: не только они становятся нам ближе и понятнее, происходит такая дедегуманизация (два раза "де" - не опечатка) из портретов - в цифровых аватаров (что уже большой прогресс), но и в другую сторону: мы сами чувствуем себя более равными им. Ведь большая проблема для нас, "обычных людей", как мне кажется - дерзнуть предположить, что мы можем что-то изменить. Исторические люди, которые портреты в учебнике, они недосягаемы, непонятно как они действовали, как жили, с кем общались - мы знаем только результаты их деятельности. А здесь, в этой соцсеточке - они равны нам. А раз смогли они, сможем и мы. Вот этот эффект мне кажется неочевидным, но важным.
Ну и, конечно, не удержусь - скажу о технологиях и будущем. В этом я вижу начало пути к созданию более полноценных цифровых аватаров, обученных нейронных сетках, например, на исторических личностях. Они смогут действовать в VR-мирах. Только представим, какие возможности для обучения.
Но это только этап, а главное - дальше. Представим себе парадигму нашего взаимодействия с историей, когда мы сможем выбрать себе VR-сервер с желаемым временем и там все будет "по-настоящему", с полным погружением. Да, как 4 серии 3 сезона Черного Зеркала. Это ли не практически путешествия во времени?
И в другую сторону - мое предположение в том, что участвуя в цифровом бессмертии живших когда-то мы начнем иначе относится к настоящему. Это заставляет задуматься, какое наследние мы оставляем после себя, как бы это пафосно ни звучало.
project1917.ru
1917. Свободная история. 24 ноября
В разгроме Зимнего виноват Керенский. Репортаж Ларисы Рейснер. Церковь призывает большевиков прекратить насилие. Декрет об уничтожении сословий и гражданских чинов. В Петрограде отмечен рост числа психических заболеваний.
Когда мир меняется слишком быстро
Диалог на восьмом круглом столе о теоретических основаниях педагогики в МПГУ:
... - Но с двенадцатого года это уже неверно!
- с 1812 или 1912?
- с 2012!
Диалог на восьмом круглом столе о теоретических основаниях педагогики в МПГУ:
... - Но с двенадцатого года это уже неверно!
- с 1812 или 1912?
- с 2012!
Как будто из мира Blade Runner'a, и по стилю даже похоже.
Показательно, насколько в современном "прозрачном" глобальном и высокосвязном пространстве могут существовать обекты будто из другого мира - мира других ценностей, правил игры и целеполагания - прямо на видном месте, в центре крупного суперпрогрессивного города. Вот уж правда, "вертикальный" и "горизонтальный" миры существуют в одном и том же пространстве и каждый замечает свое.
Здание способно выдержать ядерный удар и быть автономным в течение двух недель.
Не очень понятно, что там происходит сейчас, но это как-то связано со слежкой то ли за интернет трафиком, то ли за телефоном, то ли спутниковой связью, то ли все вместе. В общем, красивая история для фильма... и фильм сняли: "Генрик Мольтке сняли фильм «Project X», посвящённый небоскрёбу. Закадровый текст в нём читают актёры Рами Малек («Mr. Robot») и Мишель Уиллиамс. 18 ноября фильм впервые покажут в Нью-Йорке."
https://tjournal.ru/37433-titanpointe-tainstvennii-neboskryob-v-serdce-manhettena-okazalsya-sekretnim-centrom-anb
Показательно, насколько в современном "прозрачном" глобальном и высокосвязном пространстве могут существовать обекты будто из другого мира - мира других ценностей, правил игры и целеполагания - прямо на видном месте, в центре крупного суперпрогрессивного города. Вот уж правда, "вертикальный" и "горизонтальный" миры существуют в одном и том же пространстве и каждый замечает свое.
Здание способно выдержать ядерный удар и быть автономным в течение двух недель.
Не очень понятно, что там происходит сейчас, но это как-то связано со слежкой то ли за интернет трафиком, то ли за телефоном, то ли спутниковой связью, то ли все вместе. В общем, красивая история для фильма... и фильм сняли: "Генрик Мольтке сняли фильм «Project X», посвящённый небоскрёбу. Закадровый текст в нём читают актёры Рами Малек («Mr. Robot») и Мишель Уиллиамс. 18 ноября фильм впервые покажут в Нью-Йорке."
https://tjournal.ru/37433-titanpointe-tainstvennii-neboskryob-v-serdce-manhettena-okazalsya-sekretnim-centrom-anb
TJ
TITANPOINTE: таинственный небоскрёб в сердце Манхэттена оказался секретным центром АНБ
29-этажный небоскрёб без единого окна, расположенный в Нью-Йорке по адресу Томас-стрит, 33, долгие годы интересовал жителей города: история одного из самых мрачных зданий почти не давала ответов о его предназначении. Журналисты издания The Intercept проанализировали…
При прочтении следующего абзаца, мысленно замените все слова "интернет" на "нейронет". Затем вспомните, что речь идет об интернете.
42% россиян считают, что иностранные государства используют интернет против России и ее интересов;
49% выступают за цензуру в интернете: в частности, 45% поддерживают цензуру иностранных СМИ, а 38% — любых зарубежных сайтов;
42% и 41% соответственно называют правительство России и спецслужбы как структуры, которым бы они доверили регулирование интернета;
51% считают желание сохранить политическую стабильность основной движущей силой правительства при создании «черного списка» сайтов (против 13%, которые считают это попыткой ограничить демократические свободы);
81% отрицательно относятся к призывам протестовать против правительства;
59% интернет-пользователей не верят в то, что регулирование интернета влияет на их личную свободу.
https://digital.report/internet-control-opinion-in-russia/
42% россиян считают, что иностранные государства используют интернет против России и ее интересов;
49% выступают за цензуру в интернете: в частности, 45% поддерживают цензуру иностранных СМИ, а 38% — любых зарубежных сайтов;
42% и 41% соответственно называют правительство России и спецслужбы как структуры, которым бы они доверили регулирование интернета;
51% считают желание сохранить политическую стабильность основной движущей силой правительства при создании «черного списка» сайтов (против 13%, которые считают это попыткой ограничить демократические свободы);
81% отрицательно относятся к призывам протестовать против правительства;
59% интернет-пользователей не верят в то, что регулирование интернета влияет на их личную свободу.
https://digital.report/internet-control-opinion-in-russia/
Digital Report
Исследование: Стремление россиян к контролю интернета
Доклад об исследовании общественного мнения россиян по проблеме государственного контроля Интернета.
Deepmind добавил своей системе машинного обучения "Мечты".
Иронично что если перевести их как "грезы", то это будет отличная отсылка к "Миру дикого запада".
Идея была применена в игровой среде лабиринта, где нужно было собирать яблоки. "Dreams"-технология заключается в том, что нейронная сеть оценивает свой прошлый опыт прохождения стараясь максимизировать несколько различных критериев сразу, а не просто общий балл в игре. Один из этих критериев заключался в визуальном изменение окружающей среды путем выполнения различных действий.
https://www.bloomberg.com/news/articles/2016-11-17/google-deepmind-gives-computer-dreams-to-improve-learning
Иронично что если перевести их как "грезы", то это будет отличная отсылка к "Миру дикого запада".
Идея была применена в игровой среде лабиринта, где нужно было собирать яблоки. "Dreams"-технология заключается в том, что нейронная сеть оценивает свой прошлый опыт прохождения стараясь максимизировать несколько различных критериев сразу, а не просто общий балл в игре. Один из этих критериев заключался в визуальном изменение окружающей среды путем выполнения различных действий.
https://www.bloomberg.com/news/articles/2016-11-17/google-deepmind-gives-computer-dreams-to-improve-learning
Bloomberg
Google DeepMind Gives Computer ‘Dreams’ to Improve Learning
Androids may not, as science fiction writer Philip Dick once posited, dream of electric sheep. But the newest artificial intelligence system from Google’s DeepMind division does indeed dream, metaphorically at least, about finding apples in a maze.
На самом деле я вижу в этом не слабость самой идеи базового дохода, а то, что в Европе и так большая часть людей работает на интересных работах, что не так в развивающихся странах. Тем не менее теория базового дохода остается очень спорной и нужно проводить эксперименты. Как можно раньше, потому что технологии нас подгоняют и скоро поставят новые экономические вызовы.
В опросе Университета Страны Басков (Euskal Herriko Unibertsitatea) приняло участие 3057 человек, из которых 1479 студентов и 1330 трудоустроенных граждан. В поддержку безусловного основного дохода высказалось 54,4% опрошенных. Лишь 3,5% опрошенных заявили, что бросят работу, если будут каждый месяц получать гарантированные выплаты.
Ранее наиболее крупные исследования по этой теме проводили каталонская организация GESOP и немецкая DALIA Research. По итогам опросов, в среднем около 70% европейцев высказывались в пользу БОД. Из них 2,9% (в опросе GESOP) и 4% (в опросе DALIA Research) готовы отказаться от своей работы после получения БОД.
Аналитики из DALIA Research также обнаружили, что наибольшую поддержку концепции оказывают жители Испании (71%), Италии (69%), Германии и Польши (по 63%). Многие респонденты опасаются, что введение БОД приведет к росту безработицы и увеличению потока мигрантов.
https://hightech.fm/2016/11/19/ubi_europe
В опросе Университета Страны Басков (Euskal Herriko Unibertsitatea) приняло участие 3057 человек, из которых 1479 студентов и 1330 трудоустроенных граждан. В поддержку безусловного основного дохода высказалось 54,4% опрошенных. Лишь 3,5% опрошенных заявили, что бросят работу, если будут каждый месяц получать гарантированные выплаты.
Ранее наиболее крупные исследования по этой теме проводили каталонская организация GESOP и немецкая DALIA Research. По итогам опросов, в среднем около 70% европейцев высказывались в пользу БОД. Из них 2,9% (в опросе GESOP) и 4% (в опросе DALIA Research) готовы отказаться от своей работы после получения БОД.
Аналитики из DALIA Research также обнаружили, что наибольшую поддержку концепции оказывают жители Испании (71%), Италии (69%), Германии и Польши (по 63%). Многие респонденты опасаются, что введение БОД приведет к росту безработицы и увеличению потока мигрантов.
https://hightech.fm/2016/11/19/ubi_europe
Хайтек
Только половина европейцев поддерживает безусловный основной доход
Университет Страны Басков узнал мнение граждан Европы о безусловном основном доходе. Половина из более чем 3000 опрошенных поддерживает идею введения БОД. В проводимых ранее опросах в поддержку социальных выплат высказывалось около 70% респондентов.
Ученые взяли за основу программируемые пользователем вентильные матрицы (ППВМ) и приступили к разработке нейроморфических микросхем, предвидя прекращение действия закона Мура, когда слишком сложно станет и дальше уменьшать микрочипы для ПК и мобильных устройств. Для того чтобы обойти закон Мура, ученые пытаются имитировать структуру человеческого мозга, в котором содержится 100 миллиардов нейронов, передающих и обрабатывающих информацию, а также триллион соединений, синапсов. Исследователи создали ячеистую схему, имитирующую нейроны и синапсы в ППВМ, а также программные модели, которые можно использовать для программирования этих нейронных сетей.
https://hightech.fm/2016/11/18/chip-brain
https://hightech.fm/2016/11/18/chip-brain
Хайтек
Создана микросхема, имитирующая работу мозга
В рамках проекта по разработке нейроморфических систем DANNA исследователи Университета Теннеси создали микрочипы, имитирующие поведение нейронов и синапсов в мозгу человека.
А вот вам вопрос (увидел у Кирилла Мартынова, за что ему спасибо):
"Британские химики придумали вещество, которое, если подсыпать его в водопровод, в состоянии навсегда изменить ценности людей, превратив их по ценностям в жителей Скандинавии. Должны ли мы подсыпать это вещество в водопровод Северной Корее?"
Понятно, что вместо вещества в воде можно подставлять на выбор "башни излучающие волны, незаметно влияющие на нейроны" / "внедрить прогрессоров", а вместо Северной Кореи "жестокая отсталая инопланетная цивилизация"
"Британские химики придумали вещество, которое, если подсыпать его в водопровод, в состоянии навсегда изменить ценности людей, превратив их по ценностям в жителей Скандинавии. Должны ли мы подсыпать это вещество в водопровод Северной Корее?"
Понятно, что вместо вещества в воде можно подставлять на выбор "башни излучающие волны, незаметно влияющие на нейроны" / "внедрить прогрессоров", а вместо Северной Кореи "жестокая отсталая инопланетная цивилизация"
Представьте, что утром вместо чашечки кофе вы помещаете голову в персональный магнитный стимулятор, который делает вас более внимательным, бодрым и эффективным человеком на целый день.
Это уже не фантастика, а ближайшее будущее: активное развитие методов неинвазивной стимуляции мозга сделало вполне реальным их использование у здоровых людей для улучшения памяти, ускорения изучения языков и тренировки сложных навыков. С помощью этой технологии можно влиять на принятие человеком решений и "осознанный" выбор.
На восьмом заседании семинара по взаимодействию технологий и общества в Московском технологическом институте 1 декабря мы обсудим этические вопросы, которые возникнут при выходе этой технологии из лаборатории в реальный мир.
Сам факт технической возможности влияния на принятие решений человеком порождает множество этических вопросов. Вспомним башни контроля сознания из "Обитаемого Острова" Стругацких и еще множество примеров из научной фантастики. Может ли эта технология стать оружием в борьбе тоталитарных режимов с свободолюбием населения и как не допустить такого сценария ее использования? Как должна справедливо распределяться возможность сделать себя умнее - является ли это базовым социальным благом или обычным коммерческим продуктом? Реально ли будещее, в котором конкурентноспособность человека в большой степени зависит от цены его аппарата для стимуляции мозга?
Организаторы мероприятия:
- Московский технологический институт
- Future Foundation
- Keycer
- Молодежное общество нейротехнологов
https://futuref.timepad.ru/event/409565/
Это уже не фантастика, а ближайшее будущее: активное развитие методов неинвазивной стимуляции мозга сделало вполне реальным их использование у здоровых людей для улучшения памяти, ускорения изучения языков и тренировки сложных навыков. С помощью этой технологии можно влиять на принятие человеком решений и "осознанный" выбор.
На восьмом заседании семинара по взаимодействию технологий и общества в Московском технологическом институте 1 декабря мы обсудим этические вопросы, которые возникнут при выходе этой технологии из лаборатории в реальный мир.
Сам факт технической возможности влияния на принятие решений человеком порождает множество этических вопросов. Вспомним башни контроля сознания из "Обитаемого Острова" Стругацких и еще множество примеров из научной фантастики. Может ли эта технология стать оружием в борьбе тоталитарных режимов с свободолюбием населения и как не допустить такого сценария ее использования? Как должна справедливо распределяться возможность сделать себя умнее - является ли это базовым социальным благом или обычным коммерческим продуктом? Реально ли будещее, в котором конкурентноспособность человека в большой степени зависит от цены его аппарата для стимуляции мозга?
Организаторы мероприятия:
- Московский технологический институт
- Future Foundation
- Keycer
- Молодежное общество нейротехнологов
https://futuref.timepad.ru/event/409565/
futuref.timepad.ru
Неинвазивная стимуляция мозга: этические вопросы и социальные риски / События на TimePad.ru
Представьте, что утром вместо чашечки кофе вы помещаете голову в персональный магнитный стимулятор, который делает вас более внимательным, бодрым и эффективным человеком на целый день. Это уже не фантастика, а ближайшее будущее: активное развитие методов…