Apparat
1.82K subscribers
37 photos
1 file
777 links
Интернет-журнал о технологиях и новом обществе.
Download Telegram
Индийские власти запретили Google, Yahoo и Microsoft показывать пользователям из Индии рекламу сервисов, определяющих пол ребенка.

Причина - в культурных и демографических особенностях. В Индии многие родители, узнав, что у них будет девочка, делают аборты. Из-за этого в стране существует большое гендерное неравенство - на 1000 мужчин всего 943 женщины.

http://apparat.cc/news/gender-selection-ads-ban-india/
#whatsapp
Забавный кейс. Два студента из Индии подают в суд на ФБ из-за изменений в политике конфиденциальости с формулировкой:
«у большинства индийцев нет достаточного образования и подготовки, чтобы прочитать или понять последствия изменения политики конфиденциальности».

Интересный может выйти прецедент.

http://www.bloomberg.com/news/articles/2016-09-20/facebook-faces-indian-court-challenge-on-whatsapp-privacy-policy
Благодаря использованию машинного обучения и нейронных сетей разработчикам Microsoft удалось снизить процент ошибок при распознавании речи софтом до 6,3%.

Это один из лучших результатов в индустрии.

http://apparat.cc/news/microsoft-voice-recognition/
Британский институт стандартов опубликовал новые стандарты для роботов, разработанные специальным комитетом из ученых, философов и специалистов по этике.

* Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе.

* Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные».

* За действия робота всегда отвечает человек, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение.

* Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения.

* Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса.

Подробнее: http://apparat.cc/news/british-robots-guidelines/
Сотрудники научно-исследовательского подразделения Sony Computer Science Laboratories (Sony CSL) разработали искусственный интеллект, который помогает композиторам сочинять песни. В соавторстве с французским музыкантом Бенуа Карре программа FlowMachines уже написала песню в стиле The Beatles.

Для обучения нейросети разработчики создали базу данных LSDB, в которую загрузили более 13 000 песен разных стилей и композиторов. Чтобы написать в соавторстве с программой новую песню, человек-композитор должен задать ей определённый жанр. Для песни «Daddy’s Car» Бенуа Карре дал программе задание сочинять в стиле The Beatles.

Алгоритм Flow Machines изучил все песни The Beatles и выбрал элементы, которые можно использовать в новой. На основе этих элементов композитор, используя программу FlowComposer, составил нотную запись мелодии и аккордов, а затем свёл отдельные аудиоблоки с помощью программы Rechord.

Вторая песня под названием «The Ballad of Mr Shadow» напоминает стиль таких музыкантов, как Коул Портер, Джордж Гершвин и Дюк Эллингтон. Для её создания Карре выбрал стиль «американской авторской песни».

Ознакомиться с шедеврами от FlowMachines можно по ссылке: http://apparat.cc/news/ai-the-beatles-sony/
Будущее наступает, вот появились и реальные законы робототехники. Их оказалось больше трех и они скорее юридические, а не алгоритмические. Но начало положено. Ниже законы и мои комментарии под каждым.

1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "

Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.

2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."

Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.

3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."

Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.

4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."

Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью

5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."

Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.

http://apparat.cc/news/british-robots-guidelines

Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
В Гарвардском университете состоялась ежегодная церемония вручения Шнобелевской премии.

Премию в области биологии получил Томас Туэйтс, который в качестве борьбы со стрессом современной цивилизации внедрился в стадо диких коз на альпийских лугах.

Туэйтс притворялся козлом три дня, передвигаясь на специальных протезах, имитирующих козлиные ноги.

Читать об остальных лауреатах: http://apparat.cc/news/ig-nobel-prize-2016/
Forwarded from TechSparks
Коротенькое и пятничное. В го и шахматы я, грешен, не играл. А вот в Doom'е в ещё доинтернетовские времена провёл уйму часов. И поэтому так греет душу новость, что машинный интеллект научился круто мочить всех в этой игрушке. Не стану растекаться мыслью про алгоритмические сложности этой задачи, просто порадуюсь душевному родству с этими программами ;)
http://apparat.cc/news/facebook-doom/