Нейроинтерфейс, разработанный авторами, основан на мультиэлектродном сенсоре, который имплантируется в головной мозг и напрямую считывает сигналы с двигательной коры. В норме эти сигналы отвечают за движения руки, управляющей компьютерной мышкой. Интерфейс же переводит сигналы эти в программные инструкции, управляющие курсором и позволяющие выбирать буквы с клавиатуры на экране.
https://nplus1.ru/news/2016/09/13/monkeytype
https://nplus1.ru/news/2016/09/13/monkeytype
nplus1.ru
Нейроинтерфейс позволил обезьянам напечатать текст «Гамлета»
Ученые из института Bio-X Стэнфордского университета разработали интерфейс «мозг-компьютер», позволяющий печатать с рекордной на сегодняшний день скоростью в 12 слов в минуту. Статья опубликована в журнале Proceedings of the IEEE, кратко о проекте рассказывается…
"Однажды мы сказали нашей нейросети: «Забавно, что ты всего лишь программа и никогда не сможешь мыслить». Она ответила: «Просто сейчас не лучшее время для этого»."
Отличное интервью Михаила Бурцева про нейронные сети. О технологии и новом мире.
http://kot.sh/statya/2329/haknut-mozg
Отличное интервью Михаила Бурцева про нейронные сети. О технологии и новом мире.
http://kot.sh/statya/2329/haknut-mozg
«Кот Шрёдингера» — научно-популярный журнал
Хакнуть мозг // Мир погружается в глубокие нейронные сети
Сети. Ещё лет пятьдесят назад это слово ассоциировалось преимущественно с ловлей рыбы. Потом планету стал опутывать интернет, ставший сегодня таким же привычным явлением, как водопровод, канализация и электрическая розетка. Базовый смысл слова изменился.…
Как технологии меняют нашу повседневную жизнь и общество в целом? Как технологии меняют этику? Как видят этику настоящего те, кто уже сейчас меняет будущее?
Об этом мы будем говорить на нашей конференции о практической техноэтике Future Foundation Technology Ethics.
Регистрация: http://futuref.org/technoethics2016
Мы сфокусировались на технологиях, меняющих человеческую идентичность в области тела и мышления: редактирование генома, нейротехнологии, киборгизация.
Среди спикеров: Виктор Вахштайн, Василий Ключарев, Александр Каплан, Анатолий Левенчук, Тимур Щукин, Кирилл Мартынов и многие другие.
Дата: 1 октября 2016
Место: "Точка Кипения", Москва, Малый
Конюшковский пер., 2
Участие бесплатное.
Регистрация: http://futuref.org/technoethics2016
Об этом мы будем говорить на нашей конференции о практической техноэтике Future Foundation Technology Ethics.
Регистрация: http://futuref.org/technoethics2016
Мы сфокусировались на технологиях, меняющих человеческую идентичность в области тела и мышления: редактирование генома, нейротехнологии, киборгизация.
Среди спикеров: Виктор Вахштайн, Василий Ключарев, Александр Каплан, Анатолий Левенчук, Тимур Щукин, Кирилл Мартынов и многие другие.
Дата: 1 октября 2016
Место: "Точка Кипения", Москва, Малый
Конюшковский пер., 2
Участие бесплатное.
Регистрация: http://futuref.org/technoethics2016
futuref.org
Future Foundation Technology Ethics Conference
Продолжение истории с роботами-агитаторами, которую я постил
Пикчер Лентача - бог, как всегда)
Статья 0101010010. Дезертирство (побег Промобота)
Статья 101001110. Насильственные действия в отношении начальника
Изящно )
Пикчер Лентача - бог, как всегда)
Статья 0101010010. Дезертирство (побег Промобота)
Статья 101001110. Насильственные действия в отношении начальника
Изящно )
Илон Маск — об аппаратном улучшении людей / Geektimes
https://m.geektimes.ru/post/280516/
https://m.geektimes.ru/post/280516/
Habr
Илон Маск — об аппаратном улучшении людей
Интервью снималось на фоне конвейера по сборке автомобилей Tesla со снующими туда-сюда роботами Илон Маск дал большое интервью своему другу и единомышленнику Сэму Альтману из инновационного...
Сложный серьезный лонгрид про моделирование эмоций https://geektimes.ru/post/280392/
geektimes.ru
Моделирование эмоций или электронное чувство новизны
Без понимания природы возникновения интеллекта и механизмов разумного поведения невозможно создание искусственного интеллекта. Можно бесконечно составлять...
Философ из Оксфорда Дэвид Эдмондс про то, как мы можем определить робота, какую этику выбрать для беспилотного автомобиля и, конечно, проблему вагонетки. http://serious-science.org/ethics-of-machines-6856
Serious Science
Ethics of Machines
Philosopher David Edmonds on relationship between moral philosophy and robotics, artificial intelligence and ethics that we should build into machines
В рамках очередного семинара про взаимодействие технологий и общества, поговорим про юридические аспекты робототехники с Екатериной Ядовой из МТИ и Алексеем Гонноченко из Робоцентра Сколково.
Будет интересно, тем более на семинар нам привезут настоящий промышленный робот UR3. Это интеллектуальный манипулятор нового поколения, способный трудиться совместно с человеком, гарантируя полную безопасность (о безопасности промышленных роботов тоже будет идти речь на круглом столе).
https://futuref.timepad.ru/event/377431/
Будет интересно, тем более на семинар нам привезут настоящий промышленный робот UR3. Это интеллектуальный манипулятор нового поколения, способный трудиться совместно с человеком, гарантируя полную безопасность (о безопасности промышленных роботов тоже будет идти речь на круглом столе).
https://futuref.timepad.ru/event/377431/
futuref.timepad.ru
Робот как новый юридический субъект. Круглый стол с настоящим роботом. / События на TimePad.ru
Седьмое заседание семинара по взаимодействию технологий и общества. Тема заседания — юридические аспекты робототехники. Формат: круглый стол. Участники: Екатерина Ядова — кандидат социологических наук, психолог, руководитель трека Robotics Акселератора…
Уже давал выше ссылку на это интервью (тогда не было времени подробно написать), но оно настолько хорошее, что еще раз: теперь подробно.
В первой части интверьвью Маск сразу сформулировал три важные задачи, которые стоят перед человечеством:
- Искусственный интеллект.
- Генетика.
- Скоростной интерфейс к мозгу.
Он хочет сделать ИИ своего проекта OpenAI внешней вычислительной мощностью для наших мозгов, соединив их при этом в единой сознание. Что одновременно купирует угрозу недружественного ИИ. Ну и про цифровую личность говорит, конечно)
Во второй части интвервью, Маск во многом говорит о своем мировоззрении и даже больше на уровне устрйоства общества, мотивации людей, а не о технических вещах.
Каждый должен выбирать себе место согласно критерию, где он больше пользы принесет. На самом деле неочевидная мысль и, вообще говоря, пахнет утопиями и идеологией. Это меня насторожило. Идея, конечно, хорошая, но я бы точно не употреблял здесь слово "должен". Но тем не менее, Маск - фигура важная и влияющая на мир, поэтому стоит знать его мировоззрение. Вот он пишет:
"Технологический прогресс и движение человечества вперёд возможны только в том случае, если большое количество умных людей как сумасшедшие будут упорно трудиться, чтобы сделать мир лучше. Если этого не происходит, то энтропия играет против нас. Как египетская цивилизация разучилась возводить пирамиды и читать иероглифы. Как римляне разучились строить акведуки и водопровод. Как инженеры авиакосмической отрасли 21 века разучились строить тяжёлые ракеты, которые доставляют человека на Луну, а потом отказались от многоразовых космических шаттлов. Если большое количество умных людей как сумасшедшие не будут упорно трудиться, то произойдёт быстрая техническая деградация."
Еще немного о себе: Маск 80 процентов времени занимается инженерией и проектированием, а не бизнесом - знает в ракете SpaceX каждую деталь.
Все интервью снималось на фоне конвейера по сборке автомобилей Tesla со снующими туда-сюда роботами
https://geektimes.ru/post/280516/
В первой части интверьвью Маск сразу сформулировал три важные задачи, которые стоят перед человечеством:
- Искусственный интеллект.
- Генетика.
- Скоростной интерфейс к мозгу.
Он хочет сделать ИИ своего проекта OpenAI внешней вычислительной мощностью для наших мозгов, соединив их при этом в единой сознание. Что одновременно купирует угрозу недружественного ИИ. Ну и про цифровую личность говорит, конечно)
Во второй части интвервью, Маск во многом говорит о своем мировоззрении и даже больше на уровне устрйоства общества, мотивации людей, а не о технических вещах.
Каждый должен выбирать себе место согласно критерию, где он больше пользы принесет. На самом деле неочевидная мысль и, вообще говоря, пахнет утопиями и идеологией. Это меня насторожило. Идея, конечно, хорошая, но я бы точно не употреблял здесь слово "должен". Но тем не менее, Маск - фигура важная и влияющая на мир, поэтому стоит знать его мировоззрение. Вот он пишет:
"Технологический прогресс и движение человечества вперёд возможны только в том случае, если большое количество умных людей как сумасшедшие будут упорно трудиться, чтобы сделать мир лучше. Если этого не происходит, то энтропия играет против нас. Как египетская цивилизация разучилась возводить пирамиды и читать иероглифы. Как римляне разучились строить акведуки и водопровод. Как инженеры авиакосмической отрасли 21 века разучились строить тяжёлые ракеты, которые доставляют человека на Луну, а потом отказались от многоразовых космических шаттлов. Если большое количество умных людей как сумасшедшие не будут упорно трудиться, то произойдёт быстрая техническая деградация."
Еще немного о себе: Маск 80 процентов времени занимается инженерией и проектированием, а не бизнесом - знает в ракете SpaceX каждую деталь.
Все интервью снималось на фоне конвейера по сборке автомобилей Tesla со снующими туда-сюда роботами
https://geektimes.ru/post/280516/
Хабр
Илон Маск — об аппаратном улучшении людей
Интервью снималось на фоне конвейера по сборке автомобилей Tesla со снующими туда-сюда роботами Илон Маск дал большое интервью своему другу и единомышленнику С...
Хочу порекомендовать всем @freakbook - полезный канал, где каждый вечер выходит дайджест лучших статей дня, отобранных из множества популярных русскоязычных изданий. В подборках всегда много ссылок на крутые тексты о технологиях, обществе и науке, поэтому советую подписаться на https://telegram.me/freakbook
Telegram
Freakbook
Здесь вас всегда ждут главные русские мастриды за последние 48 часов. Я отбираю их из 200 источников, для каждого текста указываю примерное время на прочтение.
По всем вопросам: @mediaredactor
По всем вопросам: @mediaredactor
недорогой
биоробот, клон
устаревший, неловкий
с отрубленными руками
спасает гигантский город от ракетной
бактериологической атаки
оторванной частью тела
превозмогая боль
пользуясь одними зубами
заклинивает привод пусковой установки
и замирает
тихий
со стеклянными
недвижущимися глазами
в глазах отражаются облака и небо
не дышит
и уже не слышит
как компьютер дает сигнал отмены
бомбардировки
Еще целая подборка стихов про роботов
http://roboteka.org/archives/category/robots
биоробот, клон
устаревший, неловкий
с отрубленными руками
спасает гигантский город от ракетной
бактериологической атаки
оторванной частью тела
превозмогая боль
пользуясь одними зубами
заклинивает привод пусковой установки
и замирает
тихий
со стеклянными
недвижущимися глазами
в глазах отражаются облака и небо
не дышит
и уже не слышит
как компьютер дает сигнал отмены
бомбардировки
Еще целая подборка стихов про роботов
http://roboteka.org/archives/category/robots
Будущее наступает, вот появились и реальные законы робототехники. Их оказалось больше трех и они скорее юридические, а не алгоритмические. Но начало положено. Ниже законы и мои комментарии под каждым.
1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "
Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.
2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."
Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.
3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."
Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.
4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."
Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью
5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."
Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.
http://apparat.cc/news/british-robots-guidelines
Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "
Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.
2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."
Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.
3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."
Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.
4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."
Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью
5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."
Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.
http://apparat.cc/news/british-robots-guidelines
Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
Apparat
В Великобритании разработали этические стандарты для роботов — Apparat
Во-первых, согласно стандарту, роботы не должны наносить вред людям и убивать их. Отсутствие какой-либо возможности для этого должно быть заложено в программу робота. Речь идёт не только о физическом вреде, но и о психологическом:
Немного противоречивого из мира биотеха в новом переводе @TheIdealist:
Человеческие химеры: огромный потенциал и сложные этические вопросы
Человеческие химеры - существа, в которых клетки человека смешаны с клетками других существ - грызунов, свиней, а потенциально птиц и даже ящеров. Долгое время исследования в этой сфере были под запретом по этическим соображениям, но сегодня ситуация меняется. Работы в этой сфере обещают колоссальное продвижение в нашем понимании человеческой природы и развития, решения проблемы нехватки донорских органов и многие другие чудеса. Однако сложные этические вопросы остаются и требуют решения перед тем, как начнутся реальные эксперименты. В какой момент химера может стать существом, обладающим человеческим мышлением? Какие человеческие признаки допустимы для неё?
"Чтобы проиллюстрировать эту комплексность мы можем рассмотреть пример недавнего исследования, в котором учёные создали химеру мыши с типом человеческих мозговых клеток под названием glia, эти клетки в изобилии присутствовали в головном мозге мышей. Несмотря на то, что glia не считаются напрямую взаимосвязанными с человеческим мышлением как например нейроны, эти химерические мыши были гораздо умнее чем нормальные. К примеру, химеры показали почти в два раза лучший результат по навигации в лабиринте по сравнению с обычными мышами и демонстрировали признаки необыкновенной памяти. Этот интригующий вывод также указывает на сложности интерпретации возможных исследований с человеческими химерами. Нет чёткой разделительной линии по вопросу «чрезмерно» человеческих мозгах химер потому что мы слабо понимаем то в какой момент «гуманизация» животного мозга может привести к похожему на человеческий мышлению или сознанию. Мы даже не знаем когда это случается в развитии нормального человеческого мозга".
перевод: https://theidealist.ru/humanchimeras/
оригинал: https://www.wired.com/2016/09/human-chimera-researchs-huge-thorny-potential/
Человеческие химеры: огромный потенциал и сложные этические вопросы
Человеческие химеры - существа, в которых клетки человека смешаны с клетками других существ - грызунов, свиней, а потенциально птиц и даже ящеров. Долгое время исследования в этой сфере были под запретом по этическим соображениям, но сегодня ситуация меняется. Работы в этой сфере обещают колоссальное продвижение в нашем понимании человеческой природы и развития, решения проблемы нехватки донорских органов и многие другие чудеса. Однако сложные этические вопросы остаются и требуют решения перед тем, как начнутся реальные эксперименты. В какой момент химера может стать существом, обладающим человеческим мышлением? Какие человеческие признаки допустимы для неё?
"Чтобы проиллюстрировать эту комплексность мы можем рассмотреть пример недавнего исследования, в котором учёные создали химеру мыши с типом человеческих мозговых клеток под названием glia, эти клетки в изобилии присутствовали в головном мозге мышей. Несмотря на то, что glia не считаются напрямую взаимосвязанными с человеческим мышлением как например нейроны, эти химерические мыши были гораздо умнее чем нормальные. К примеру, химеры показали почти в два раза лучший результат по навигации в лабиринте по сравнению с обычными мышами и демонстрировали признаки необыкновенной памяти. Этот интригующий вывод также указывает на сложности интерпретации возможных исследований с человеческими химерами. Нет чёткой разделительной линии по вопросу «чрезмерно» человеческих мозгах химер потому что мы слабо понимаем то в какой момент «гуманизация» животного мозга может привести к похожему на человеческий мышлению или сознанию. Мы даже не знаем когда это случается в развитии нормального человеческого мозга".
перевод: https://theidealist.ru/humanchimeras/
оригинал: https://www.wired.com/2016/09/human-chimera-researchs-huge-thorny-potential/
WIRED
Human Chimera Research's Huge (and Thorny) Potential
Mixing human cells with animal embryos could greatly enhance our understanding of human development. But the ethics are thorny.
Возвращаемся мы с сегодня с Тимуром Щукиным c круглого стола в МПГУ мимо Яндекса и видим кучу полиции и таксистов.
А вот оно что оказывается. Снова новые технологии против старых профессий. То ли еще будет, когда беспилотные такси запустят.
http://govoritmoskva.ru/news/93431/
А вот оно что оказывается. Снова новые технологии против старых профессий. То ли еще будет, когда беспилотные такси запустят.
http://govoritmoskva.ru/news/93431/
govoritmoskva.ru
Таксисты намерены объявить трёхдневный бойкот «Яндексу»
Водители выразили негодование из-за снижения тарифов онлайн-сервиса «Яндекс. Такси».
Алексей Амётов: "В 2016 году Фейсбук все чаще становится площадкой для дискуссий о морали, границах допустимого поведения и устройстве жизни в стране и отдельных социумах" (http://www.the-village.ru/village/city/situation-comment/245989-no-aviasales).
Вообще я вижу в этом начало той самой концепции "прозрачного мира". Конечно, новые технологии несут и удобство, и некоторые сложности и опасности, но что можно сказать с определенностью - быть гадом благодаря новому уровню связности стало гораздо труднее.
Молодцы ребята: "вчера вечером медиахолдинг Look At Media как минимум на полгода заморозил любое маркетинговое и коммерческое партнерство с Aviasales и остановил совместный проект в области рекламных технологий."
Я тоже внес свою небольшую лепту - вчера в телеграме мне как раз написали от Aviasales, спрашивали о рекламе в этом канале - скриншот в следующем посте. Так победим.
Вообще я вижу в этом начало той самой концепции "прозрачного мира". Конечно, новые технологии несут и удобство, и некоторые сложности и опасности, но что можно сказать с определенностью - быть гадом благодаря новому уровню связности стало гораздо труднее.
Молодцы ребята: "вчера вечером медиахолдинг Look At Media как минимум на полгода заморозил любое маркетинговое и коммерческое партнерство с Aviasales и остановил совместный проект в области рекламных технологий."
Я тоже внес свою небольшую лепту - вчера в телеграме мне как раз написали от Aviasales, спрашивали о рекламе в этом канале - скриншот в следующем посте. Так победим.
The Village
Сооснователь Look At Media Алексей Амётов — о том, куда приводят слова
И почему важен бойкот Aviasales