Между Небом и Землей
1.55K subscribers
438 photos
13 videos
46 files
778 links
Канал Петра Левича. Пишу здесь о том, как я чувствую жизнь и приглашаю в различные опыты.

Написать мне: @peterlevich
Download Telegram
Нейроинтерфейс, разработанный авторами, основан на мультиэлектродном сенсоре, который имплантируется в головной мозг и напрямую считывает сигналы с двигательной коры. В норме эти сигналы отвечают за движения руки, управляющей компьютерной мышкой. Интерфейс же переводит сигналы эти в программные инструкции, управляющие курсором и позволяющие выбирать буквы с клавиатуры на экране.

https://nplus1.ru/news/2016/09/13/monkeytype
Как технологии меняют нашу повседневную жизнь и общество в целом? Как технологии меняют этику? Как видят этику настоящего те, кто уже сейчас меняет будущее?

Об этом мы будем говорить на нашей конференции о практической техноэтике Future Foundation Technology Ethics.

Регистрация: http://futuref.org/technoethics2016

Мы сфокусировались на технологиях, меняющих человеческую идентичность в области тела и мышления: редактирование генома, нейротехнологии, киборгизация.

Среди спикеров: Виктор Вахштайн, Василий Ключарев, Александр Каплан, Анатолий Левенчук, Тимур Щукин, Кирилл Мартынов и многие другие.

Дата: 1 октября 2016
Место: "Точка Кипения", Москва, Малый
Конюшковский пер., 2
Участие бесплатное.

Регистрация: http://futuref.org/technoethics2016
Продолжение истории с роботами-агитаторами, которую я постил


Пикчер Лентача - бог, как всегда)
Статья 0101010010. Дезертирство (побег Промобота)
Статья 101001110. Насильственные действия в отношении начальника
Изящно )
Философ из Оксфорда Дэвид Эдмондс про то, как мы можем определить робота, какую этику выбрать для беспилотного автомобиля и, конечно, проблему вагонетки. http://serious-science.org/ethics-of-machines-6856
В рамках очередного семинара про взаимодействие технологий и общества, поговорим про юридические аспекты робототехники с Екатериной Ядовой из МТИ и Алексеем Гонноченко из Робоцентра Сколково.

Будет интересно, тем более на семинар нам привезут настоящий промышленный робот UR3. Это интеллектуальный манипулятор нового поколения, способный трудиться совместно с человеком, гарантируя полную безопасность (о безопасности промышленных роботов тоже будет идти речь на круглом столе).

https://futuref.timepad.ru/event/377431/
Уже давал выше ссылку на это интервью (тогда не было времени подробно написать), но оно настолько хорошее, что еще раз: теперь подробно.

В первой части интверьвью Маск сразу сформулировал три важные задачи, которые стоят перед человечеством:

- Искусственный интеллект.
- Генетика.
- Скоростной интерфейс к мозгу.

Он хочет сделать ИИ своего проекта OpenAI внешней вычислительной мощностью для наших мозгов, соединив их при этом в единой сознание. Что одновременно купирует угрозу недружественного ИИ. Ну и про цифровую личность говорит, конечно)

Во второй части интвервью, Маск во многом говорит о своем мировоззрении и даже больше на уровне устрйоства общества, мотивации людей, а не о технических вещах.

Каждый должен выбирать себе место согласно критерию, где он больше пользы принесет. На самом деле неочевидная мысль и, вообще говоря, пахнет утопиями и идеологией. Это меня насторожило. Идея, конечно, хорошая, но я бы точно не употреблял здесь слово "должен". Но тем не менее, Маск - фигура важная и влияющая на мир, поэтому стоит знать его мировоззрение. Вот он пишет:

"Технологический прогресс и движение человечества вперёд возможны только в том случае, если большое количество умных людей как сумасшедшие будут упорно трудиться, чтобы сделать мир лучше. Если этого не происходит, то энтропия играет против нас. Как египетская цивилизация разучилась возводить пирамиды и читать иероглифы. Как римляне разучились строить акведуки и водопровод. Как инженеры авиакосмической отрасли 21 века разучились строить тяжёлые ракеты, которые доставляют человека на Луну, а потом отказались от многоразовых космических шаттлов. Если большое количество умных людей как сумасшедшие не будут упорно трудиться, то произойдёт быстрая техническая деградация."

Еще немного о себе: Маск 80 процентов времени занимается инженерией и проектированием, а не бизнесом - знает в ракете SpaceX каждую деталь.

Все интервью снималось на фоне конвейера по сборке автомобилей Tesla со снующими туда-сюда роботами

https://geektimes.ru/post/280516/
Хочу порекомендовать всем @freakbook - полезный канал, где каждый вечер выходит дайджест лучших статей дня, отобранных из множества популярных русскоязычных изданий. В подборках всегда много ссылок на крутые тексты о технологиях, обществе и науке, поэтому советую подписаться на https://telegram.me/freakbook
недорогой
биоробот, клон
устаревший, неловкий
с отрубленными руками
спасает гигантский город от ракетной
бактериологической атаки
оторванной частью тела
превозмогая боль
пользуясь одними зубами
заклинивает привод пусковой установки
и замирает
тихий
со стеклянными
недвижущимися глазами
в глазах отражаются облака и небо

не дышит
и уже не слышит
как компьютер дает сигнал отмены
бомбардировки

Еще целая подборка стихов про роботов

http://roboteka.org/archives/category/robots
Будущее наступает, вот появились и реальные законы робототехники. Их оказалось больше трех и они скорее юридические, а не алгоритмические. Но начало положено. Ниже законы и мои комментарии под каждым.

1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "

Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.

2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."

Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.

3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."

Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.

4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."

Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью

5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."

Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.

http://apparat.cc/news/british-robots-guidelines

Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
Немного противоречивого из мира биотеха в новом переводе @TheIdealist:
Человеческие химеры: огромный потенциал и сложные этические вопросы

Человеческие химеры - существа, в которых клетки человека смешаны с клетками других существ - грызунов, свиней, а потенциально птиц и даже ящеров. Долгое время исследования в этой сфере были под запретом по этическим соображениям, но сегодня ситуация меняется. Работы в этой сфере обещают колоссальное продвижение в нашем понимании человеческой природы и развития, решения проблемы нехватки донорских органов и многие другие чудеса. Однако сложные этические вопросы остаются и требуют решения перед тем, как начнутся реальные эксперименты. В какой момент химера может стать существом, обладающим человеческим мышлением? Какие человеческие признаки допустимы для неё?

"Чтобы проиллюстрировать эту комплексность мы можем рассмотреть пример недавнего исследования, в котором учёные создали химеру мыши с типом человеческих мозговых клеток под названием glia, эти клетки в изобилии присутствовали в головном мозге мышей. Несмотря на то, что glia не считаются напрямую взаимосвязанными с человеческим мышлением как например нейроны, эти химерические мыши были гораздо умнее чем нормальные. К примеру, химеры показали почти в два раза лучший результат по навигации в лабиринте по сравнению с обычными мышами и демонстрировали признаки необыкновенной памяти. Этот интригующий вывод также указывает на сложности интерпретации возможных исследований с человеческими химерами. Нет чёткой разделительной линии по вопросу «чрезмерно» человеческих мозгах химер потому что мы слабо понимаем то в какой момент «гуманизация» животного мозга может привести к похожему на человеческий мышлению или сознанию. Мы даже не знаем когда это случается в развитии нормального человеческого мозга".

перевод: https://theidealist.ru/humanchimeras/
оригинал: https://www.wired.com/2016/09/human-chimera-researchs-huge-thorny-potential/
Возвращаемся мы с сегодня с Тимуром Щукиным c круглого стола в МПГУ мимо Яндекса и видим кучу полиции и таксистов.

А вот оно что оказывается. Снова новые технологии против старых профессий. То ли еще будет, когда беспилотные такси запустят.

http://govoritmoskva.ru/news/93431/
Алексей Амётов: "В 2016 году Фейсбук все чаще становится площадкой для дискуссий о морали, границах допустимого поведения и устройстве жизни в стране и отдельных социумах" (http://www.the-village.ru/village/city/situation-comment/245989-no-aviasales).

Вообще я вижу в этом начало той самой концепции "прозрачного мира". Конечно, новые технологии несут и удобство, и некоторые сложности и опасности, но что можно сказать с определенностью - быть гадом благодаря новому уровню связности стало гораздо труднее.

Молодцы ребята: "вчера вечером медиахолдинг Look At Media как минимум на полгода заморозил любое маркетинговое и коммерческое партнерство с Aviasales и остановил совместный проект в области рекламных технологий."

Я тоже внес свою небольшую лепту - вчера в телеграме мне как раз написали от Aviasales, спрашивали о рекламе в этом канале - скриншот в следующем посте. Так победим.