Индийские власти запретили Google, Yahoo и Microsoft показывать пользователям из Индии рекламу сервисов, определяющих пол ребенка.
Причина - в культурных и демографических особенностях. В Индии многие родители, узнав, что у них будет девочка, делают аборты. Из-за этого в стране существует большое гендерное неравенство - на 1000 мужчин всего 943 женщины.
http://apparat.cc/news/gender-selection-ads-ban-india/
Причина - в культурных и демографических особенностях. В Индии многие родители, узнав, что у них будет девочка, делают аборты. Из-за этого в стране существует большое гендерное неравенство - на 1000 мужчин всего 943 женщины.
http://apparat.cc/news/gender-selection-ads-ban-india/
apparat.cc
В Индии поисковикам запретили показывать объявления о сервисах по определению пола будущего ребёнка — Apparat
Google, Yahoo и Microsoft заблокируют в поисковой выдаче объявления индийских компаний, которые предлагают определить пол ребёнка до рождения
Когда селфи пошло не так
Боец Свободной сирийской армии подорвал себя и своих товарищей при попытке сделать селфи.
http://apparat.cc/news/syrian-rebel-selfie-bomb/
Боец Свободной сирийской армии подорвал себя и своих товарищей при попытке сделать селфи.
http://apparat.cc/news/syrian-rebel-selfie-bomb/
Apparat
Сирийский повстанец взорвал себя и товарищей при попытке сделать селфи
Боец Свободной сирийской армии подорвал себя и своих товарищей при попытке сделать селфи, сообщает The Daily Mail. https://www.youtube.com/watch?v=w35HD6O5B2c На видео, опубликованном 16 сентября, восемь мужчин сидят под флагом повстанцев и поют в караоке.…
Forwarded from Телеграм Маркетинг
#whatsapp
Забавный кейс. Два студента из Индии подают в суд на ФБ из-за изменений в политике конфиденциальости с формулировкой:
«у большинства индийцев нет достаточного образования и подготовки, чтобы прочитать или понять последствия изменения политики конфиденциальности».
Интересный может выйти прецедент.
http://www.bloomberg.com/news/articles/2016-09-20/facebook-faces-indian-court-challenge-on-whatsapp-privacy-policy
Забавный кейс. Два студента из Индии подают в суд на ФБ из-за изменений в политике конфиденциальости с формулировкой:
«у большинства индийцев нет достаточного образования и подготовки, чтобы прочитать или понять последствия изменения политики конфиденциальности».
Интересный может выйти прецедент.
http://www.bloomberg.com/news/articles/2016-09-20/facebook-faces-indian-court-challenge-on-whatsapp-privacy-policy
Благодаря использованию машинного обучения и нейронных сетей разработчикам Microsoft удалось снизить процент ошибок при распознавании речи софтом до 6,3%.
Это один из лучших результатов в индустрии.
http://apparat.cc/news/microsoft-voice-recognition/
Это один из лучших результатов в индустрии.
http://apparat.cc/news/microsoft-voice-recognition/
В Великобритании прошёл ежегодный конкурс чатботов на приз Лёбнера.
Главный приз снова не достался никому - ни одна из программ не смогла обмануть судей, выдав себя за человека.
http://apparat.cc/news/computers-again-failed-turing-test/
Главный приз снова не достался никому - ни одна из программ не смогла обмануть судей, выдав себя за человека.
http://apparat.cc/news/computers-again-failed-turing-test/
Apparat
Чатботы в очередной раз не справились с тестом Тьюринга | Apparat
В Великобритании прошел ежегодный конкурс на приз Лёбнера (разновидность теста Тьюринга), сообщает Sky News. Ни одна из программ, участвующих в конкурсе, не смогла обмануть судей, выдав себя за человека. Финальный раунд соревнования на премию Лёбнера проходил…
Британский институт стандартов опубликовал новые стандарты для роботов, разработанные специальным комитетом из ученых, философов и специалистов по этике.
* Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе.
* Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные».
* За действия робота всегда отвечает человек, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение.
* Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения.
* Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса.
Подробнее: http://apparat.cc/news/british-robots-guidelines/
* Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе.
* Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные».
* За действия робота всегда отвечает человек, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение.
* Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения.
* Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса.
Подробнее: http://apparat.cc/news/british-robots-guidelines/
Apparat
В Великобритании разработали этические стандарты для роботов — Apparat
Во-первых, согласно стандарту, роботы не должны наносить вред людям и убивать их. Отсутствие какой-либо возможности для этого должно быть заложено в программу робота. Речь идёт не только о физическом вреде, но и о психологическом:
Очередное интересное мероприятие от наших партнеров пройдет уже послезавтра. Москвичи, обратите внимание.
https://telegram.me/peterlevichchannel/661
https://telegram.me/peterlevichchannel/661
Telegram
PeterLevichChannel
В рамках очередного семинара про взаимодействие технологий и общества, поговорим про юридические аспекты робототехники с Екатериной Ядовой из МТИ и Алексеем Гонноченко из Робоцентра Сколково.
Будет интересно, тем более на семинар нам привезут настоящий промышленный…
Будет интересно, тем более на семинар нам привезут настоящий промышленный…
Юрист из США опубликовал у себя в Facebook статью с критикой алгоритмов, автоматически удаляющих контент в интернете. Угадайте, что произошло дальше.
Правильно, алгоритмы Facebook автоматически удалили его пост.
http://apparat.cc/news/facebook-algorithmic-takedown/
Правильно, алгоритмы Facebook автоматически удалили его пост.
http://apparat.cc/news/facebook-algorithmic-takedown/
Apparat
Facebook автоматически удалил пост о проблемах автоматического удаления контента
Алгоритм Facebook удалил пост главного юрисконсульта компании Automattic Пола Симински, в котором он поделился ссылкой на статью о проблемах автоматического удаления контента. Об этом пишет Techdirt. В интервью журналу Corporate Counsel Симински раскритиковал…
Сотрудники научно-исследовательского подразделения Sony Computer Science Laboratories (Sony CSL) разработали искусственный интеллект, который помогает композиторам сочинять песни. В соавторстве с французским музыкантом Бенуа Карре программа FlowMachines уже написала песню в стиле The Beatles.
Для обучения нейросети разработчики создали базу данных LSDB, в которую загрузили более 13 000 песен разных стилей и композиторов. Чтобы написать в соавторстве с программой новую песню, человек-композитор должен задать ей определённый жанр. Для песни «Daddy’s Car» Бенуа Карре дал программе задание сочинять в стиле The Beatles.
Алгоритм Flow Machines изучил все песни The Beatles и выбрал элементы, которые можно использовать в новой. На основе этих элементов композитор, используя программу FlowComposer, составил нотную запись мелодии и аккордов, а затем свёл отдельные аудиоблоки с помощью программы Rechord.
Вторая песня под названием «The Ballad of Mr Shadow» напоминает стиль таких музыкантов, как Коул Портер, Джордж Гершвин и Дюк Эллингтон. Для её создания Карре выбрал стиль «американской авторской песни».
Ознакомиться с шедеврами от FlowMachines можно по ссылке: http://apparat.cc/news/ai-the-beatles-sony/
Для обучения нейросети разработчики создали базу данных LSDB, в которую загрузили более 13 000 песен разных стилей и композиторов. Чтобы написать в соавторстве с программой новую песню, человек-композитор должен задать ей определённый жанр. Для песни «Daddy’s Car» Бенуа Карре дал программе задание сочинять в стиле The Beatles.
Алгоритм Flow Machines изучил все песни The Beatles и выбрал элементы, которые можно использовать в новой. На основе этих элементов композитор, используя программу FlowComposer, составил нотную запись мелодии и аккордов, а затем свёл отдельные аудиоблоки с помощью программы Rechord.
Вторая песня под названием «The Ballad of Mr Shadow» напоминает стиль таких музыкантов, как Коул Портер, Джордж Гершвин и Дюк Эллингтон. Для её создания Карре выбрал стиль «американской авторской песни».
Ознакомиться с шедеврами от FlowMachines можно по ссылке: http://apparat.cc/news/ai-the-beatles-sony/
Apparat
Искусственный интеллект от Sony написал песню в стиле The Beatles
В 2017 году выйдет целый альбом песен, написанных в соавторстве с искусственным интеллектом
В Берлине представили первый в мире пассажирский поезд, работающий на водородных топливных элементах.
От одной полной заправки он может проехать 600-800 км, развивая при этом максимальную скорость в 140 км/ч.
http://apparat.cc/news/hydrogen-train/
От одной полной заправки он может проехать 600-800 км, развивая при этом максимальную скорость в 140 км/ч.
http://apparat.cc/news/hydrogen-train/
Apparat
В Германии запустят пассажирский поезд на водороде | Apparat
Французская компания Alstom на выставке InnoTrans в Берлине представила первый в мире пассажирский поезд, работающий на водородных топливных элементах. Поезд под названием Coradia iLint начнёт курсировать в Нижней Саксонии с декабря 2017 года. Водородные…
92% экспертов из Американской ассоциации искусственного интеллекта считают, что учёным в ближайшие 25 лет не удастся создать разумную машину, способную превзойти человеческий мозг.
Так что можно не волноваться: восстания роботов не будет.
http://apparat.cc/news/ai-experts-about-singularity/
Так что можно не волноваться: восстания роботов не будет.
http://apparat.cc/news/ai-experts-about-singularity/
Apparat
Опрос экспертов ИИ: Восстание роботов не грозит человечеству в ближайшие 25 лет | Apparat
92,5% экспертов из Американской ассоциации искусственного интеллекта (АААI) считают, что учёным в ближайшие 25 лет не удастся создать разумную машину, способную превзойти человеческий мозг. Об этом пишет MIT Technology Review. В 2014 году шведский трансгуманист…
Forwarded from Между Небом и Землей
Будущее наступает, вот появились и реальные законы робототехники. Их оказалось больше трех и они скорее юридические, а не алгоритмические. Но начало положено. Ниже законы и мои комментарии под каждым.
1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "
Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.
2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."
Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.
3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."
Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.
4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."
Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью
5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."
Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.
http://apparat.cc/news/british-robots-guidelines
Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
1) "Роботы не должны быть созданы для убийства или нанесения вреда человеку. Речь идёт не только о физическом вреде, но и о психологическом — страхе и стрессе. "
Оборот "быть созданы" - удобен в плане применения, но явно покрывает не все кейсы. Тем не менее, хорошо.
2) "Роботы не должны быть обманчивыми. Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит пример: «В ходе недавнего исследования в детский сад завезли небольших роботов. Дети их полюбили и по-настоящему привязались к ним. Позже дети посчитали роботов более умными, чем их домашние животные»."
Этот пункт мне не очень понятен. Потому что если его прописать в форме "робот не должен лгать" - то это красиво с точки зрения сюжета для научного фантастики, но не особо применимо - робот ведь располагает только той информацией, которую в него вложили люди, либо новой, но которой он обучился на данной информации. Если в форме "не должен казаться лучшем, чем он есть на самом деле" - то это звучит как заповедь, а не как закон. В общем пока не ясно.
3) "За действия робота всегда отвечает человек, пишут составители стандартов, поэтому должно быть понятно, кто именно ответственен за определенного робота и его поведение."
Актуально, да. Остаются случаи с обучением нейронной сетки. Тот пример с чат-ботом, ставшим расистом, прочита Твиттер. Наверное, не авторы бота в этом виноваты все же.
4) "Разработка роботов должна быть максимально прозрачной. Проблема систем ИИ, особенно использующих глубинное обучение, сейчас состоит в том, что невозможно понять, почему они принимают такие решения."
Опять же, если это правило применять в лоб и абсолютно - это блокирует все инициативы по машинному обучению. И да, это проблема, но игра стоит свеч - "чуйка" роботов (термин от Анатолия Левенчука) оплачивается непредсказуемостью
5) "Машины должны уважать культурное разнообразие и плюрализм. Алгоритмы, используемые американской полицией и судами, часто проявляют расовые предрассудки, а программы распознавания речи хуже понимают женские голоса."
Да, хорошо. Ну тут скорее просто история про то, что авторы технологий должны, по возможности, способствовать всему хорошему против всего плохого.
http://apparat.cc/news/british-robots-guidelines
Как раз к нашему семианару в пятницу https://futuref.timepad.ru/event/377431/ да и к конференции по техноэтике 1 октября http://futuref.org/technoethics2016
Apparat
В Великобритании разработали этические стандарты для роботов — Apparat
Во-первых, согласно стандарту, роботы не должны наносить вред людям и убивать их. Отсутствие какой-либо возможности для этого должно быть заложено в программу робота. Речь идёт не только о физическом вреде, но и о психологическом:
В 2017 году в Амстердаме начнут тестирование беспилотных лодок. На них можно будет плавать, использовать их как мосты, а еще они будут следить за загрязнением воды и собирать мусор.
http://apparat.cc/news/amsterdam-driveless-boat/
http://apparat.cc/news/amsterdam-driveless-boat/
Apparat
В Амстердаме появятся лодки-беспилотники | Apparat
Институт передовых городских решений Амстердама пообещал внедрить в 2017 году беспилотные катера. Об этом пишет The Verge. Над проектом Roboat работают ученые из Массачусетского технологического института, Технологического университета Делфта и Университета…
Исследование американских учёных показало: роботы телеприсутствия помогают детям, не имеющим возможности посещать школу, наладить полноценные социальные связи с одноклассниками.
Кстати, с помощью такого робота выступает на конференциях Эдвард Сноуден.
http://apparat.cc/news/school-telepresence-robots/
Кстати, с помощью такого робота выступает на конференциях Эдвард Сноуден.
http://apparat.cc/news/school-telepresence-robots/
Apparat
Исследование: Роботы телеприсутствия помогают детям на домашнем обучении подружиться с одноклассниками
Роботы телеприсутствия помогают наладить социальные связи детям, не имеющим возможности посещать школу. Такое исследование опубликовали учёные из Университета Калифорнии в Ирвайне. Роботы телеприсутствия - это дистанционно управляемые устройства, обеспечивающие…
Напоминаем: у вас осталось два дня, чтобы запретить WhatsApp передавать ваш телефонный номер Facebook для таргетирования рекламы.
Вот как это сделать: http://apparat.cc/news/whatsapp-tos-update/
Вот как это сделать: http://apparat.cc/news/whatsapp-tos-update/
Apparat
WhatsApp будет делиться вашими данными с Facebook ради рекламы, но вы можете отказаться от этого
Мессенджер WhatsApp намерен передать данные пользователей, в том числе привязанные к аккаунтам номера телефонов, компании Facebook, которой принадлежит сервис. Как пишет Guardian, это сделают, чтобы организации могли через мессенджер делать сервисные сообщения…
В Гарвардском университете состоялась ежегодная церемония вручения Шнобелевской премии.
Премию в области биологии получил Томас Туэйтс, который в качестве борьбы со стрессом современной цивилизации внедрился в стадо диких коз на альпийских лугах.
Туэйтс притворялся козлом три дня, передвигаясь на специальных протезах, имитирующих козлиные ноги.
Читать об остальных лауреатах: http://apparat.cc/news/ig-nobel-prize-2016/
Премию в области биологии получил Томас Туэйтс, который в качестве борьбы со стрессом современной цивилизации внедрился в стадо диких коз на альпийских лугах.
Туэйтс притворялся козлом три дня, передвигаясь на специальных протезах, имитирующих козлиные ноги.
Читать об остальных лауреатах: http://apparat.cc/news/ig-nobel-prize-2016/
Apparat
В Гарварде вручили Шнобелевскую премию | Apparat
В Гарвардском университете 22 сентября состоялась ежегодная церемония вручения Шнобелевской премиии, сообщает The Guardian. Премию в области биологии получил Томас Туэйтс, который в качестве борьбы со стрессом современной цивилизации внедрился в стадо диких…
Американский портал Megacams запустил сервис по поиску порномоделей по фотографии с помощью нейросети. Мы нашли порнодвойников Хиллари Клинтон, Дурова и Сноудена.
Двойников Трампа нейросеть не нашла. К счастью.
http://apparat.cc/news/porn-snowden/
Двойников Трампа нейросеть не нашла. К счастью.
http://apparat.cc/news/porn-snowden/
Apparat
Американский сайт запустил поиск порномоделей по фото при помощи нейросети
Американский портал Megacams запустил сервис по поиску вебкам-моделей по фотографии посредством нейросети. Любой пользователь может загрузить фотографию и получить результаты на e-mail. В базе данных Megacams более 180 тыс. моделей. Большинство из них девушки…
Власти России работают над тем, чтобы сделать возможным дешифрование и мониторинг всего интернет-трафика — теперь это подтвердилось официально.
Объясняем, что не так с этой инициативой:
http://apparat.cc/network/fsb-decoder/
Объясняем, что не так с этой инициативой:
http://apparat.cc/network/fsb-decoder/
Apparat
ФСБ хочет расшифровать весь интернет-трафик. Что не так с этой инициативой
Что случилось? ФСБ, Минкомсвязи и Минпромторг ищут способ расшифровки всего интернет-трафика россиян. Как пишет газета "Коммерсантъ", министерства хотят контролировать трафик только тех, кто «привлечёт внимание правоохранительных органов», а силовики хотят…
Forwarded from TechSparks
Коротенькое и пятничное. В го и шахматы я, грешен, не играл. А вот в Doom'е в ещё доинтернетовские времена провёл уйму часов. И поэтому так греет душу новость, что машинный интеллект научился круто мочить всех в этой игрушке. Не стану растекаться мыслью про алгоритмические сложности этой задачи, просто порадуюсь душевному родству с этими программами ;)
http://apparat.cc/news/facebook-doom/
http://apparat.cc/news/facebook-doom/
Apparat
Искусственный интеллект от Facebook выиграл турнир по Doom
22 сентября завершилось соревнование между нейросетями по игре в Doom. В одной из номинаций победил алгоритм F1 от сотрудников Facebook, в другой - алгоритм от Intel Lab, сообщает Quartz. Doom — это культовая компьютерная игра 1993 года, в которой игроки…