Stable Doodle: От наброска к изображению
Интересное на субботу: разработчики объединили Stable Diffusion XL (SDXL), модель, генерирующую изображения по текстовому описанию, с адаптером T2I от Tencent, распознающим и расшифровывающим наброски пользователя.
Распознав набросок, T2I-адаптер передает его расшифровку SDXL в понятном для неё формате, так что модель при генерации изображения руководствуется одновременно и контурами с наброска, и текстовой командой (промтом).
В результате люди с самыми рудиментарными навыками рисования могут на основе своих набросков делать интересные иллюстрации — например, для своего блога, сайта или приложения.
Порисовать можно здесь.
Интересное на субботу: разработчики объединили Stable Diffusion XL (SDXL), модель, генерирующую изображения по текстовому описанию, с адаптером T2I от Tencent, распознающим и расшифровывающим наброски пользователя.
Распознав набросок, T2I-адаптер передает его расшифровку SDXL в понятном для неё формате, так что модель при генерации изображения руководствуется одновременно и контурами с наброска, и текстовой командой (промтом).
В результате люди с самыми рудиментарными навыками рисования могут на основе своих набросков делать интересные иллюстрации — например, для своего блога, сайта или приложения.
Порисовать можно здесь.
👏6👍1
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя по методическим материалам, курс совсем не про приватность, а как и положено в данном случае — гораздо шире. Рассматриваются более широко риски при разработке и эксплуатации ИИ-систем.
Официальных курсов пока нигде нет, и как минимум до октября, видимо, не будет.
Но начать готовиться к сертификации вы можете уже прямо сейчас — вместе со мной.
Пользуясь своим опытом разработки руководства к экзамену IAPP CIPP/E (его у меня приобрели уже более 60 человек), я строго следую по методичке IAPP - проходим чётко по всем вопросам, знания по которым требуются для сертификации.
Напомню, что никакого собственно образовательного контента в методичке от IAPP нет — но тут как раз для вас и оказываются ценными мои экспертиза и знания.
Насколько мне известно, я был в принципе первым в России юристом, изучившим регулирование автономных систем на уровне вузовского предмета ещё в 2015 году — в Эдинбургском ун-те, и последовательно все эти годы занимавшимся этим вопросом и в теории, и на практике, и в частном секторе, и в публичном, на национальном и международном уровнях.
Про то, каким авторитетом обладает сертификация IAPP на международном уровне - говорить излишне. Авторитетнее просто ничего нет.
Поэтому, начиная с понедельника 10 июля, в новом телеграм-канале, доступном по платной подписке, я начал публиковать короткие заметки на английском и ссылки на ресурсы, которые позволят вам в режиме самоподготовки постепенно, за год, освоить весь объём знаний, необходимый для получения сертификации IAPP AI Governance Professional.
Стоимость подписки 4 500 р. в месяц и фиксируется на год, но только для тех, кто подписывается сейчас.
Рассматриваемые темы - по IAPP AIGP Body of Knowledge.
Подписаться и оплатить:
1) [ссылка удалена в связи с окончанием регистрации]
2) в евро.
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя по методическим материалам, курс совсем не про приватность, а как и положено в данном случае — гораздо шире. Рассматриваются более широко риски при разработке и эксплуатации ИИ-систем.
Официальных курсов пока нигде нет, и как минимум до октября, видимо, не будет.
Но начать готовиться к сертификации вы можете уже прямо сейчас — вместе со мной.
Пользуясь своим опытом разработки руководства к экзамену IAPP CIPP/E (его у меня приобрели уже более 60 человек), я строго следую по методичке IAPP - проходим чётко по всем вопросам, знания по которым требуются для сертификации.
Напомню, что никакого собственно образовательного контента в методичке от IAPP нет — но тут как раз для вас и оказываются ценными мои экспертиза и знания.
Насколько мне известно, я был в принципе первым в России юристом, изучившим регулирование автономных систем на уровне вузовского предмета ещё в 2015 году — в Эдинбургском ун-те, и последовательно все эти годы занимавшимся этим вопросом и в теории, и на практике, и в частном секторе, и в публичном, на национальном и международном уровнях.
Про то, каким авторитетом обладает сертификация IAPP на международном уровне - говорить излишне. Авторитетнее просто ничего нет.
Поэтому, начиная с понедельника 10 июля, в новом телеграм-канале, доступном по платной подписке, я начал публиковать короткие заметки на английском и ссылки на ресурсы, которые позволят вам в режиме самоподготовки постепенно, за год, освоить весь объём знаний, необходимый для получения сертификации IAPP AI Governance Professional.
Стоимость подписки 4 500 р. в месяц и фиксируется на год, но только для тех, кто подписывается сейчас.
Рассматриваемые темы - по IAPP AIGP Body of Knowledge.
Подписаться и оплатить:
1) [ссылка удалена в связи с окончанием регистрации]
2) в евро.
🔥4❤1
Llama-v2: теперь и для свободного коммерческого использования
Главный датасаентист Меты* Ян ЛеКун анонсировал, что их новая большая языковая модель теперь доступна всем желающим, в том числе для коммерческого использования, и предоставляется на условиях опенсорс.
Согласно лицензии, отдельное разрешение потребуется лишь коммерсантам с аудиторией свыше 700 млн. пользователей в месяц.
По заявлениям ЛеКуна и Меты, модель превосходит по производительности другие опенсорсные модели и уже доступна пользователям Microsoft Azure, а вскоре станет доступна через AWS, Huggingface и других поставщиков.
Иследовательская публикация о модели доступна здесь.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Главный датасаентист Меты* Ян ЛеКун анонсировал, что их новая большая языковая модель теперь доступна всем желающим, в том числе для коммерческого использования, и предоставляется на условиях опенсорс.
Согласно лицензии, отдельное разрешение потребуется лишь коммерсантам с аудиторией свыше 700 млн. пользователей в месяц.
По заявлениям ЛеКуна и Меты, модель превосходит по производительности другие опенсорсные модели и уже доступна пользователям Microsoft Azure, а вскоре станет доступна через AWS, Huggingface и других поставщиков.
Иследовательская публикация о модели доступна здесь.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
X (formerly Twitter)
Yann LeCun (@ylecun) on X
This is huge: Llama-v2 is open source, with a license that authorizes commercial use!
This is going to change the landscape of the LLM market.
Llama-v2 is available on Microsoft Azure and will be available on AWS, Hugging Face and other providers
Pretrained…
This is going to change the landscape of the LLM market.
Llama-v2 is available on Microsoft Azure and will be available on AWS, Hugging Face and other providers
Pretrained…
👍4
Полагаться на результаты работы больших языковых моделей без постоянного контроля качества опасно
Такой вывод можно сделать по результатам исследования, проведённого учёными из Стэнфордского университета и Калифорнийского университета в Беркли (Chen, Lingjiao, Matei Zaharia, and James Zou. 2023. “How Is ChatGPT’s Behavior Changing over Time?”).
Сравнив результаты работы популярных моделей GPT-4 и GPT-3.5, эксперты обнаружили, что производительность каждой из них значительно снизилась в одних задачах и выросла в других.
Например, GPT-4 в марте 2023 г. на вопрос об определении простых чисел давала точный ответ с вероятностью 97,6%, но к июню 2023 г. количество точных ответов для задачи этого типа снизилось до 2,4%.
Причины этого феномена до конца не ясны, но полученные результаты свидетельствуют о необходимости постоянного контроля и перепроверки качества результатов модели со стороны разработчиков и пользователей таких моделей, в особенности тех, кто делает или планирует делать их элементом архитектуры собственного продукта или сервиса.
P.S. Другие исследователи выпустили не то, чтобы опровержение, но значимый фактчек: исходное исследование доказывает не деградацию производительности моделей, но их изменчивость в результате файн-тюнинга.
При этом в ряде задач все модели просто "одинаково ужасны": так, ни одна из них в ходе "размышления шаг за шагом" над задачей определения простых чисел в реальности не проводит никаких операций, заявленных по ходу "размышления", а просто как обычно пытается статистически предугадать текст ответа. При отсутствии в обучающем массиве данных правильного ответа модель просто выдумывает неправильный.
Такой вывод можно сделать по результатам исследования, проведённого учёными из Стэнфордского университета и Калифорнийского университета в Беркли (Chen, Lingjiao, Matei Zaharia, and James Zou. 2023. “How Is ChatGPT’s Behavior Changing over Time?”).
Сравнив результаты работы популярных моделей GPT-4 и GPT-3.5, эксперты обнаружили, что производительность каждой из них значительно снизилась в одних задачах и выросла в других.
Например, GPT-4 в марте 2023 г. на вопрос об определении простых чисел давала точный ответ с вероятностью 97,6%, но к июню 2023 г. количество точных ответов для задачи этого типа снизилось до 2,4%.
Причины этого феномена до конца не ясны, но полученные результаты свидетельствуют о необходимости постоянного контроля и перепроверки качества результатов модели со стороны разработчиков и пользователей таких моделей, в особенности тех, кто делает или планирует делать их элементом архитектуры собственного продукта или сервиса.
P.S. Другие исследователи выпустили не то, чтобы опровержение, но значимый фактчек: исходное исследование доказывает не деградацию производительности моделей, но их изменчивость в результате файн-тюнинга.
При этом в ряде задач все модели просто "одинаково ужасны": так, ни одна из них в ходе "размышления шаг за шагом" над задачей определения простых чисел в реальности не проводит никаких операций, заявленных по ходу "размышления", а просто как обычно пытается статистически предугадать текст ответа. При отсутствии в обучающем массиве данных правильного ответа модель просто выдумывает неправильный.
👍4
Авторы хотят денег за использование их книг для обучения ИИ
Обоснованны ли их требования? Коротко: нет.
Непопулярное мнение подробнее: авторы и издатели не пострадают в денежном отношении и по общему правилу не должны иметь оснований требовать возмещения убытков или судебного запрета на использование их материалов для обучения больших языковых моделей (БЯМ).
Никто не вытесняет с рынка книги или другие литературные произведения, создавая БЯМ, обученные на них, при условии, что БЯМ не выдают тот же контент дословно и в полном объеме.
С учётом этого, использование защищенного авторским правом контента для обучения БЯМ является трансформативным для целей американской доктрины авторского права, что исключает право требовать убытков или запрещать использование.
В Европе, согласно Директиве по авторскому праву, дополнительными факторами будут (1) наличие у разработчика законного доступа к экземпляру произведения, на котором он хочет обучать систему, и (2) отсутствие явного запрета со стороны правообладателя, выраженного в машиночитаемой форме (например, требование в файле robots.txt к поисковым роботам не индексировать контент на сайте).
Обоснованны ли их требования? Коротко: нет.
Непопулярное мнение подробнее: авторы и издатели не пострадают в денежном отношении и по общему правилу не должны иметь оснований требовать возмещения убытков или судебного запрета на использование их материалов для обучения больших языковых моделей (БЯМ).
Никто не вытесняет с рынка книги или другие литературные произведения, создавая БЯМ, обученные на них, при условии, что БЯМ не выдают тот же контент дословно и в полном объеме.
С учётом этого, использование защищенного авторским правом контента для обучения БЯМ является трансформативным для целей американской доктрины авторского права, что исключает право требовать убытков или запрещать использование.
В Европе, согласно Директиве по авторскому праву, дополнительными факторами будут (1) наличие у разработчика законного доступа к экземпляру произведения, на котором он хочет обучать систему, и (2) отсутствие явного запрета со стороны правообладателя, выраженного в машиночитаемой форме (например, требование в файле robots.txt к поисковым роботам не индексировать контент на сайте).
Business Insider
James Patterson, Margaret Atwood, and 8,000 other authors want AI companies to pay them for using their works
"Generative AI threatens to damage our profession by flooding the market with mediocre, machine-written books, stories, and journalism based on our work," the letter reads.
👏7👍2🔥1
Robocounsel
Авторы хотят денег за использование их книг для обучения ИИ Обоснованны ли их требования? Коротко: нет. Непопулярное мнение подробнее: авторы и издатели не пострадают в денежном отношении и по общему правилу не должны иметь оснований требовать возмещения…
И ещё про невозможность запрета обучаться на книгах
Мой американский коллега Стивен Ву пришёл точно к таким же выводам, как и я в своём предыдущем посте: нарушение авторских прав тут найти проблематично.
В особенности после дела Authors Guild v Google, в котором уже было установлено, что Гугл на основе доктрины трансформативного использования был вправе сканировать миллионы книг и предоставлять выдержки из них по запросу, при условии, что эта деятельность не приводит к потерям для авторов и вытеснению их с рынка литературы (а она не приводит).
Смотрим Стивена и аплодируем.
Мой американский коллега Стивен Ву пришёл точно к таким же выводам, как и я в своём предыдущем посте: нарушение авторских прав тут найти проблематично.
В особенности после дела Authors Guild v Google, в котором уже было установлено, что Гугл на основе доктрины трансформативного использования был вправе сканировать миллионы книг и предоставлять выдержки из них по запросу, при условии, что эта деятельность не приводит к потерям для авторов и вытеснению их с рынка литературы (а она не приводит).
Смотрим Стивена и аплодируем.
YouTube
Generative AI lawsuits pile up
The lawsuits are stacking up against Artificial Intelligence. Over the past year, numerous cases, some involving celebrities, have involved claims that tech companies inappropriately used unauthorized data to train their AI systems. CGTN’s Mark Niu shares…
👍2👏2
Семь ведущих ИИ-компаний США взяли на себя обязательства по ответственной разработке
Администрация Президента США объявила сегодня, что получила такие обязательства от Амазон, Антропик, Гугл, Инфлекшн, Мета, Майкрософт и Оупен-Эй-Ай.
Компании обязались, цитирую:
1) Для обеспечения безопасности продуктов перед их выпуском:
- Проводить внутреннее и внешнее тестирование систем искусственного интеллекта на безопасность до их выпуска. Это тестирование, которое будет частично проводиться независимыми экспертами, позволит защитить от некоторых наиболее значимых источников рисков ИИ, таких как биобезопасность и кибербезопасность, а также более широко от негативных социальных эффектов.
- Обмениваться информацией в рамках всей отрасли, а также с правительствами, гражданским обществом и научными кругами по вопросам управления рисками ИИ. Это включает в себя лучшие практики обеспечения безопасности, информацию о попытках обойти защитные меры и техническое сотрудничество.
2) Для создания систем, в которых информационная безопасность стоит на первом месте:
- Инвестировать средства в обеспечение кибербезопасности и защиту от внутренних угроз для защиты конфиденциальных параметров (весов) моделей. Эти параметры являются наиболее важной частью системы искусственного интеллекта, и компании согласны с тем, что их публикация должна осуществляться осознанно и с учетом рисков безопасности.
- Содействовать обнаружению уязвимостей в системах искусственного интеллекта третьими лицами. Некоторые проблемы могут сохраняться даже после выпуска системы искусственного интеллекта, и надежный механизм обратной связи о уязвимостях позволяет быстро находить и устранять их.
3) Для завоевания доверия общественности:
- Разработать надежные технические механизмы, позволяющие пользователям знать, что контент создан искусственным интеллектом, например, систему маркировки. Эти меры будут способствовать развитию творчества с использованием ИИ, но при этом снизят риски мошенничества и введения публики в заблуждение.
- Публично сообщать о возможностях, ограничениях и областях, в которых уместно и неуместно применение их ИИ-систем. Эти сообщения будут охватывать как риски безопасности, так и риски для общества, например, в контексте принципов справедливости и устранения предвзятости.
- Уделять приоритетное внимание исследованиям социальных рисков, которые могут представлять системы ИИ, в том числе для предотвращения закрепления вредных предубеждений и дискриминации, а также для защиты неприкосновенности частной жизни. Опыт использования ИИ показывает, что эти риски распространены, хотя и не всегда очевидны. Поэтому компании обязуются внедрять системы ИИ, в которых эти риски адресованы.
- Разрабатывать и внедрять передовые системы ИИ для содействия в решении важнейших проблем общества. От профилактики рака до смягчения последствий изменения климата и многого другого, ИИ - при правильном управлении - может внести огромный вклад в обеспечение всеобщего процветания, равенства и безопасности.
Администрация Президента США объявила сегодня, что получила такие обязательства от Амазон, Антропик, Гугл, Инфлекшн, Мета, Майкрософт и Оупен-Эй-Ай.
Компании обязались, цитирую:
1) Для обеспечения безопасности продуктов перед их выпуском:
- Проводить внутреннее и внешнее тестирование систем искусственного интеллекта на безопасность до их выпуска. Это тестирование, которое будет частично проводиться независимыми экспертами, позволит защитить от некоторых наиболее значимых источников рисков ИИ, таких как биобезопасность и кибербезопасность, а также более широко от негативных социальных эффектов.
- Обмениваться информацией в рамках всей отрасли, а также с правительствами, гражданским обществом и научными кругами по вопросам управления рисками ИИ. Это включает в себя лучшие практики обеспечения безопасности, информацию о попытках обойти защитные меры и техническое сотрудничество.
2) Для создания систем, в которых информационная безопасность стоит на первом месте:
- Инвестировать средства в обеспечение кибербезопасности и защиту от внутренних угроз для защиты конфиденциальных параметров (весов) моделей. Эти параметры являются наиболее важной частью системы искусственного интеллекта, и компании согласны с тем, что их публикация должна осуществляться осознанно и с учетом рисков безопасности.
- Содействовать обнаружению уязвимостей в системах искусственного интеллекта третьими лицами. Некоторые проблемы могут сохраняться даже после выпуска системы искусственного интеллекта, и надежный механизм обратной связи о уязвимостях позволяет быстро находить и устранять их.
3) Для завоевания доверия общественности:
- Разработать надежные технические механизмы, позволяющие пользователям знать, что контент создан искусственным интеллектом, например, систему маркировки. Эти меры будут способствовать развитию творчества с использованием ИИ, но при этом снизят риски мошенничества и введения публики в заблуждение.
- Публично сообщать о возможностях, ограничениях и областях, в которых уместно и неуместно применение их ИИ-систем. Эти сообщения будут охватывать как риски безопасности, так и риски для общества, например, в контексте принципов справедливости и устранения предвзятости.
- Уделять приоритетное внимание исследованиям социальных рисков, которые могут представлять системы ИИ, в том числе для предотвращения закрепления вредных предубеждений и дискриминации, а также для защиты неприкосновенности частной жизни. Опыт использования ИИ показывает, что эти риски распространены, хотя и не всегда очевидны. Поэтому компании обязуются внедрять системы ИИ, в которых эти риски адресованы.
- Разрабатывать и внедрять передовые системы ИИ для содействия в решении важнейших проблем общества. От профилактики рака до смягчения последствий изменения климата и многого другого, ИИ - при правильном управлении - может внести огромный вклад в обеспечение всеобщего процветания, равенства и безопасности.
The White House
FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage…
Voluntary commitments – underscoring safety, security, and trust – mark a critical step toward developing responsible AI Biden-Harris Administration will continue to take decisive action by developing an Executive Order and pursuing bipartisan legislation…
❤3
В продолжение темы о правах авторов в связи с обучением систем ИИ на их текстах
Тема оказалось злободневной и породила бурные дискуссии, так что мой материал попал в редакционную подборку Линкдин за неделю.
Оригинал со всей пикировкой на английском читайте на Линкдине, перевод на русском — здесь.
Тема оказалось злободневной и породила бурные дискуссии, так что мой материал попал в редакционную подборку Линкдин за неделю.
Оригинал со всей пикировкой на английском читайте на Линкдине, перевод на русском — здесь.
🔥11❤1
Robocounsel
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
Заканчиваю набор на первый поток экспериментального курса по AI Governance на английском языке
Успеть запрыгнуть в последний вагон и по текущей цене в рублях ещё возможно, но лучше сделать это сегодня.
Сегодняшняя тема: разбираемся, чем отличаются понятия narrow AI, broad AI, general AI, weak AI, strong AI. Типичная ошибка: думать, что narrow = weak, а broad = general = strong. Абсолютно не так. Все пять терминов имеют разные значения.
Подробности и подписка на курс здесь.
Успеть запрыгнуть в последний вагон и по текущей цене в рублях ещё возможно, но лучше сделать это сегодня.
Сегодняшняя тема: разбираемся, чем отличаются понятия narrow AI, broad AI, general AI, weak AI, strong AI. Типичная ошибка: думать, что narrow = weak, а broad = general = strong. Абсолютно не так. Все пять терминов имеют разные значения.
Подробности и подписка на курс здесь.
Telegram
Robocounsel
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
🔥5
Robocounsel
В СНГ появится первый Цифровой кодекс В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса. Кодекс будет состоять из общей и особенной частей. Проект общей части уже разработан…
Опубликован первый в СНГ проект Цифрового кодекса с нормами об ИИ
Речь о Цифровом кодексе Кыргызской Республики (ЦК КР), о котором я писал ранее.
В работе участвовало очень много коллег, но я выделю Николая Дмитрика, без чьего несравнимого кодификационного и редакторского таланта эту работу было бы очень сложно представить.
Мой вклад в работу над этим законопроектом — проект главы 23, регулирующей оборот систем искусственного интеллекта.
При разработке как ЦК КР в целом, так и главы 23 учитывался международный опыт, в том числе проект Регламента Европейского Союза об искусственном интеллекте.
С текстом ЦК КР можно ознакомиться здесь.
Речь о Цифровом кодексе Кыргызской Республики (ЦК КР), о котором я писал ранее.
В работе участвовало очень много коллег, но я выделю Николая Дмитрика, без чьего несравнимого кодификационного и редакторского таланта эту работу было бы очень сложно представить.
Мой вклад в работу над этим законопроектом — проект главы 23, регулирующей оборот систем искусственного интеллекта.
При разработке как ЦК КР в целом, так и главы 23 учитывался международный опыт, в том числе проект Регламента Европейского Союза об искусственном интеллекте.
С текстом ЦК КР можно ознакомиться здесь.
Telegram
Robocounsel
В СНГ появится первый Цифровой кодекс
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан…
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан…
🔥14❤2👏1🤩1
Robocounsel
Опубликован первый в СНГ проект Цифрового кодекса с нормами об ИИ Речь о Цифровом кодексе Кыргызской Республики (ЦК КР), о котором я писал ранее. В работе участвовало очень много коллег, но я выделю Николая Дмитрика, без чьего несравнимого кодификационного…
Копируем, продаём, снимаем с продажи: алгоритмическая бизнес-модель Shein
У Насти вышел очень интересный материал на эту тему.
Вкратце:
- Пишут, что Shein алгоритмически отслеживает модные микро-тренды в социальных сетях и конвертирует их в дизайн одежды и аксессуаров, которые молниеносно производятся на фабриках компании в Китае.
- Каждый новый продукт выпускается первоначально партией в 100-200 единиц, что на порядок меньше, чем у конкурентов.
- Тщательная проверка на нарушение чужих интеллектуальных прав якобы заранее не проводится, но если поступает претензия, Shein быстро снимает товар с продажи и, если требуется, компенсирует убытки.
- Из-за крошечного размера партии размер компенсации всегда ограничен и периодические её выплаты не влияют на прибыльность бизнес-модели в целом.
У Насти вышел очень интересный материал на эту тему.
Вкратце:
- Пишут, что Shein алгоритмически отслеживает модные микро-тренды в социальных сетях и конвертирует их в дизайн одежды и аксессуаров, которые молниеносно производятся на фабриках компании в Китае.
- Каждый новый продукт выпускается первоначально партией в 100-200 единиц, что на порядок меньше, чем у конкурентов.
- Тщательная проверка на нарушение чужих интеллектуальных прав якобы заранее не проводится, но если поступает претензия, Shein быстро снимает товар с продажи и, если требуется, компенсирует убытки.
- Из-за крошечного размера партии размер компенсации всегда ограничен и периодические её выплаты не влияют на прибыльность бизнес-модели в целом.
Telegram
вычислить по IP
Три дизайнера из США подали иск к бренду fast-fashion - Shein, а если быть точной, к группе компаний, которые связаны с брендом или операционной деятельностью компании.
Казалось бы очередной иск к Shein, но помимо нарушения законодательства об охране интеллектуальной…
Казалось бы очередной иск к Shein, но помимо нарушения законодательства об охране интеллектуальной…
❤2👍1
Robocounsel
Копируем, продаём, снимаем с продажи: алгоритмическая бизнес-модель Shein У Насти вышел очень интересный материал на эту тему. Вкратце: - Пишут, что Shein алгоритмически отслеживает модные микро-тренды в социальных сетях и конвертирует их в дизайн одежды…
Какой девиз вы бы предложили для бизнес-модели, описанной выше?
Final Results
35%
Move fast and break things (Marc Zuckerberg)
24%
Кто не рискует, тот не пьет шампанского
35%
Украл, выпил, и в тюрьму не надо. Романтика!
5%
Другое (предложу в комментариях)
Robocounsel
Мета меняет основание обработки данных на законный интерес Такие правила будут действовать для пользователей Фейсбука и Инстаграма, находящихся в Евросоюзе, начиная с 5 апреля, сообщает компания. По данным источников Уолл-Стрит Джорнел, эти пользователи…
Мета перестанет показывать индивидуализированную рекламу без согласия
Об этом компания* объявила на своём сайте: основание обработки персональных данных для такой рекламы будет изменено с законного интереса на согласие. Конкретная дата для такого перехода пока не называется.
Ранее, с 5 апреля этого года компания обрабатывала такие данные на основании законного интереса, а до этого изначально — на основании договора (пользовательского соглашения).
Однако изначальная практика была признана надзорным органом незаконной по жалобе активистов из NOYB.
Теперь же, после дополнительных консультаций с надзорным органом Мета решила перейти к подходу, на котором изначально настаивали прайваси-активисты.
Решение касается пользователей из ЕС, Европейской экономической зоны и Швейцарии.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Об этом компания* объявила на своём сайте: основание обработки персональных данных для такой рекламы будет изменено с законного интереса на согласие. Конкретная дата для такого перехода пока не называется.
Ранее, с 5 апреля этого года компания обрабатывала такие данные на основании законного интереса, а до этого изначально — на основании договора (пользовательского соглашения).
Однако изначальная практика была признана надзорным органом незаконной по жалобе активистов из NOYB.
Теперь же, после дополнительных консультаций с надзорным органом Мета решила перейти к подходу, на котором изначально настаивали прайваси-активисты.
Решение касается пользователей из ЕС, Европейской экономической зоны и Швейцарии.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Meta Newsroom
How Meta Uses Legal Bases for Processing Ads in the EU
We strongly believe our approach to ads respects GDPR.
🔥5
Robocounsel
Мета перестанет показывать индивидуализированную рекламу без согласия Об этом компания* объявила на своём сайте: основание обработки персональных данных для такой рекламы будет изменено с законного интереса на согласие. Конкретная дата для такого перехода…
Если бы соцсеть, которой вы пользуетесь, показывала бы вам индивидуализированную под вас рекламу только с вашего согласия:
Final Results
27%
Я бы дал(а) согласие
51%
Я бы не дал(а) согласие
22%
Не уверен(а)
10 рекомендаций для лиц, формирующих государственную политику в области ИИ
Для составления этого списка я попросил Claude 2.0 от Anthropic проанализировать набор из 20 с лишним статей, которые я к этому моменту опубликовал в своей рассылке на Линкдин (подписаться на рассылку можно здесь).
Все идеи взяты так или иначе именно из моих текстов, но задачу собрать их все, резюмировать, и оформить в единый когерентный список выполнила большая языковая модель. Перевод на русский отредактирован мной для лучшей передачи нюансов и правильной расстановки акцентов, также мною добавлены подзаголовки:
1. Акцент на ИИ повышенной опасности. Принять на основе риск-ориентированного подхода нормативные акты в области ИИ, сосредоточив регулирование на областях применения повышенной опасности, не пытаясь единообразно регулировать применение всех систем ИИ.
2. Управление рисками и независимый аудит. Требовать от разработчиков систем ИИ внедрения обязательных систем управления рисками и стимулировать становление института регулируемого независимого аудита для применений ИИ, создающих повышенную опасность.
3. Инвестиции в улучшение безопасности. Стимулировать инвестиции в исследования в области безопасности, этики и ценностного соответствия (alignment) систем ИИ в рамках общих программ финансирования исследований в области ИИ.
4. Регулирование инклюзивное и непреждевременное. Консультироваться с широким кругом заинтересованных сторон и общественными объединениями при формировании политики и нормативных актов в области ИИ. Избегать преждевременного регулирования.
5. Автономия субъектов персональных данных. Рассмотреть законопроекты, которые позволили бы гражданам заявлять о личных предпочтениях в области обработки их персональных данных, которые бы затем операторы персональных данных должны были бы соблюдать, реализуя право граждан на личную автономию.
6. Европейское регулирование как основа. Взять за основу модель регулирования, аналогичную заложенной в Регламенте ЕС об ИИ, для обеспечения принципов подотчетности, открытости, справедливости и эффективного контроля человека над системами ИИ.
7. Балансировка интересов. Оценить, достаточно ли действующее законодательство для решения новых проблем, таких как использование систем ИИ для диффамации, и адекватно ли оно балансирует противостоящие друг другу интересы, например, защита неприкосновенности частной жизни и снижение ошибок при принятии автоматизированных решений.
8. Грамотность ИИ-потребителей. Финансировать программы для улучшения понимания в обществе возможностей и ограничений систем ИИ и для исключения нереалистичных ожиданий.
9. Защита конкуренции. Оценить риски ограничения конкуренции из-за доминирования на рынке систем ИИ крупнейших игроков с тем, чтобы снизить их негативное влияние на дальнейшее развитие рынка (не только рынка самих систем ИИ, но и любых других рынков, на которые влияет применение таких систем).
10. Партнёрство с отраслью без игры в поддавки. Наладить партнерство с отраслью для разработки отраслевых кодексов поведения для ответственной разработки и внедрения ИИ на деле, а не на словах.
Для составления этого списка я попросил Claude 2.0 от Anthropic проанализировать набор из 20 с лишним статей, которые я к этому моменту опубликовал в своей рассылке на Линкдин (подписаться на рассылку можно здесь).
Все идеи взяты так или иначе именно из моих текстов, но задачу собрать их все, резюмировать, и оформить в единый когерентный список выполнила большая языковая модель. Перевод на русский отредактирован мной для лучшей передачи нюансов и правильной расстановки акцентов, также мною добавлены подзаголовки:
1. Акцент на ИИ повышенной опасности. Принять на основе риск-ориентированного подхода нормативные акты в области ИИ, сосредоточив регулирование на областях применения повышенной опасности, не пытаясь единообразно регулировать применение всех систем ИИ.
2. Управление рисками и независимый аудит. Требовать от разработчиков систем ИИ внедрения обязательных систем управления рисками и стимулировать становление института регулируемого независимого аудита для применений ИИ, создающих повышенную опасность.
3. Инвестиции в улучшение безопасности. Стимулировать инвестиции в исследования в области безопасности, этики и ценностного соответствия (alignment) систем ИИ в рамках общих программ финансирования исследований в области ИИ.
4. Регулирование инклюзивное и непреждевременное. Консультироваться с широким кругом заинтересованных сторон и общественными объединениями при формировании политики и нормативных актов в области ИИ. Избегать преждевременного регулирования.
5. Автономия субъектов персональных данных. Рассмотреть законопроекты, которые позволили бы гражданам заявлять о личных предпочтениях в области обработки их персональных данных, которые бы затем операторы персональных данных должны были бы соблюдать, реализуя право граждан на личную автономию.
6. Европейское регулирование как основа. Взять за основу модель регулирования, аналогичную заложенной в Регламенте ЕС об ИИ, для обеспечения принципов подотчетности, открытости, справедливости и эффективного контроля человека над системами ИИ.
7. Балансировка интересов. Оценить, достаточно ли действующее законодательство для решения новых проблем, таких как использование систем ИИ для диффамации, и адекватно ли оно балансирует противостоящие друг другу интересы, например, защита неприкосновенности частной жизни и снижение ошибок при принятии автоматизированных решений.
8. Грамотность ИИ-потребителей. Финансировать программы для улучшения понимания в обществе возможностей и ограничений систем ИИ и для исключения нереалистичных ожиданий.
9. Защита конкуренции. Оценить риски ограничения конкуренции из-за доминирования на рынке систем ИИ крупнейших игроков с тем, чтобы снизить их негативное влияние на дальнейшее развитие рынка (не только рынка самих систем ИИ, но и любых других рынков, на которые влияет применение таких систем).
10. Партнёрство с отраслью без игры в поддавки. Наладить партнерство с отраслью для разработки отраслевых кодексов поведения для ответственной разработки и внедрения ИИ на деле, а не на словах.
Linkedin
AI, Data & Digital Policy | LinkedIn
Thoughts about current and emerging digital regulation and policy
👍6🔥2👏1
Robocounsel
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
Заканчиваю набор на первый поток экспериментального курса по AI Governance на английском
Последняя возможность зафиксировать подписку на целый год в рублях закрывается в 23 ч. 59 мин. МСК сегодня.
Детали и запись здесь.
Последняя возможность зафиксировать подписку на целый год в рублях закрывается в 23 ч. 59 мин. МСК сегодня.
Детали и запись здесь.
Telegram
Robocounsel
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
👍2🔥1
Зум будет использовать данные звонков и метаданные для машинного обучения
Это следует из новой редакции п. 10.2 и 10.4 пользовательского соглашения.
В частности, из них следует, что вы даёте оператору сервиса не ограниченную по времени и пространству лицензию на использование любых расшифровок звонков, аналитики и иных материалов, производных от любой обработанной сервисом информации, включая все ваши персональные данные, обрабатываемые во время звонков и конференций (в пределах, не противоречащих политике компании).
Лицензия покрывает широкий спектр случаев, включая разработку и улучшение продуктов компании, с возможностью уступки прав по лицензии третьим лицам или сублицензирования.
Возможности использования метаданных (кто, кому и когда звонил и т.п.) ещё более широки.
Учитывайте это при использовании сервиса.
Это следует из новой редакции п. 10.2 и 10.4 пользовательского соглашения.
В частности, из них следует, что вы даёте оператору сервиса не ограниченную по времени и пространству лицензию на использование любых расшифровок звонков, аналитики и иных материалов, производных от любой обработанной сервисом информации, включая все ваши персональные данные, обрабатываемые во время звонков и конференций (в пределах, не противоречащих политике компании).
Лицензия покрывает широкий спектр случаев, включая разработку и улучшение продуктов компании, с возможностью уступки прав по лицензии третьим лицам или сублицензирования.
Возможности использования метаданных (кто, кому и когда звонил и т.п.) ещё более широки.
Учитывайте это при использовании сервиса.
Zoom
Zoom Terms of Service
Find the latest Zoom Terms of Service that are applicable to any services, updates, enhancements, new features, and/or the addition of new Web properties.
😱7🤔2❤1
Виспер и транскрибирование аудио
Если вы пропустили восторги по поводу этого средства для точного распознавания речи и транскрибирования, которое появилось уже довольно давно, самое время восполнить упущенное.
Виспер был создан Оупен-Эй-Ай и выпущен в открытом исходном коде.
Поддерживает в том числе русский.
Григорий Герганов переложил на Си++ и оптимизировал для работы на Макбуках. Его версия доступна здесь.
Ода этому инструменту, из-за которой я заинтересовался, была опубликована в Нью-Йоркере.
Сам Виспер встроен в приложение ЧатГПТ, в том числе на Андроиде, и распознавание русского я попробовал. Результат очень хороший.
Единственное, в этом случае Виспер работает в облаке, а не на устройстве, и данные уходят к Оупен-Эй-Ай.
Если это вам не подходит, можете собрать приложение сами и запускать на своём устройстве.
Инструкция от Кевина Стратверта по сборке для ПК.
А вот его же руководство по установке и запуску приложения в Гугл облаке для транскрибирования файлов. Да, приложение также создает srt, так что можно делать субтитры.
Если вы пропустили восторги по поводу этого средства для точного распознавания речи и транскрибирования, которое появилось уже довольно давно, самое время восполнить упущенное.
Виспер был создан Оупен-Эй-Ай и выпущен в открытом исходном коде.
Поддерживает в том числе русский.
Григорий Герганов переложил на Си++ и оптимизировал для работы на Макбуках. Его версия доступна здесь.
Ода этому инструменту, из-за которой я заинтересовался, была опубликована в Нью-Йоркере.
Сам Виспер встроен в приложение ЧатГПТ, в том числе на Андроиде, и распознавание русского я попробовал. Результат очень хороший.
Единственное, в этом случае Виспер работает в облаке, а не на устройстве, и данные уходят к Оупен-Эй-Ай.
Если это вам не подходит, можете собрать приложение сами и запускать на своём устройстве.
Инструкция от Кевина Стратверта по сборке для ПК.
А вот его же руководство по установке и запуску приложения в Гугл облаке для транскрибирования файлов. Да, приложение также создает srt, так что можно делать субтитры.
GitHub
GitHub - ggml-org/whisper.cpp: Port of OpenAI's Whisper model in C/C++
Port of OpenAI's Whisper model in C/C++. Contribute to ggml-org/whisper.cpp development by creating an account on GitHub.
👍2
Robocounsel
Виспер и транскрибирование аудио Если вы пропустили восторги по поводу этого средства для точного распознавания речи и транскрибирования, которое появилось уже довольно давно, самое время восполнить упущенное. Виспер был создан Оупен-Эй-Ай и выпущен в открытом…
Вы используете распознавание речи для своих личных или рабочих задач?
Final Results
11%
Да, регулярно
25%
Да, изредка
16%
Нет, не устраивает качество распознавания
40%
Нет, не вижу пользы для себя
7%
Нет, другие причины (напишу в комментарии)
Парламент Индии принял законопроект о защите персональных данных
Об этом сегодня сообщает издание "Таймс оф Индия". Законопроект (см. текст) принят спустя шесть лет после того, как Верховный суд страны признал наличие у граждан фундаментального права на защиту неприкосновенности частной жизни.
Министр информационных технологий Ашвини Вайшнав заявил, что законопроект устанавливает ряд обязанностей для частных и государственных организаций, собирающих и обрабатывающих данные о гражданах.
По заявлению министра, законопроект написан доступным языком, понятным "даже обычному человеку". Характерно, что прямо по тексту акта приводятся примеры, показывающие как его положения будут применяться в некоторых типичных жизненных ситуациях.
Также законопроектом предусмотрены штрафы. В частности, непринятие адекватных мер безопасности для предотвращения утечки персональных данных карается штрафом до 2,5 млрд. рупий (2,9 млрд. рублей).
Индийский независимый аналитический центр, PRS Legislative Research, обобщает положения акта следующим образом:
Основные положения законопроекта
- Законопроект будет применяться к обработке цифровых персональных данных на территории Индии, когда такие данные собираются в онлайне или собираются в оффлайне и переводятся в цифровой формат. Он также будет применяться к такой обработке за пределами Индии, если она осуществляется для предложения товаров или услуг в Индии.
- Персональные данные могут обрабатываться только с согласия физического лица (data principal) или без такого согласия, но только для ограниченного перечня законных целей . В частности, отдельное согласие не требуется для обработки данных в целях, для которых гражданин сам добровольно предоставил эти данные, а также для предоставления ему государством разрешений, лицензий, льгот и услуг.
- Операторы данных (data fiduciaries) будут обязаны поддерживать точность данных, обеспечивать их сохранность и удалять данные после достижения цели обработки.
- Законопроект предоставляет определенные права физическим лицам, включая право на получение информации, исправление и удаление данных, а также на обжалование действий оператора.
- Центральное правительство может освобождать государственные учреждения от применения положений законопроекта, когда это необходимо в интересах безопасности государства, общественного порядка и предотвращения правонарушений.
- Центральное правительство создаст Совет по защите данных Индии, который будет выносить решения по вопросам несоблюдения положений законопроекта.
Ключевые вопросы и анализ
- Исключения из правил обработки данных государством по таким соображениям, как национальная безопасность, могут привести к сбору, обработке и хранению данных сверх необходимого. Это может нарушить фундаментальное право на неприкосновенность частной жизни.
- Законопроект не регулирует риски причинения вреда в результате обработки персональных данных.
- Законопроект не предоставляет гражданам право на переносимость данных и право на забвение.
- Законопроект разрешает передачу персональных данных за пределы Индии, за исключением стран, указанных центральным правительством. Такой механизм может не обеспечить адекватной оценки стандартов защиты данных в странах, куда разрешена передача персональных данных.
- Члены Совета по защите данных Индии будут назначаться на два года и иметь право на повторное назначение. Короткий срок с возможностью повторного назначения может повлиять на независимое функционирование Совета.
Об этом сегодня сообщает издание "Таймс оф Индия". Законопроект (см. текст) принят спустя шесть лет после того, как Верховный суд страны признал наличие у граждан фундаментального права на защиту неприкосновенности частной жизни.
Министр информационных технологий Ашвини Вайшнав заявил, что законопроект устанавливает ряд обязанностей для частных и государственных организаций, собирающих и обрабатывающих данные о гражданах.
По заявлению министра, законопроект написан доступным языком, понятным "даже обычному человеку". Характерно, что прямо по тексту акта приводятся примеры, показывающие как его положения будут применяться в некоторых типичных жизненных ситуациях.
Также законопроектом предусмотрены штрафы. В частности, непринятие адекватных мер безопасности для предотвращения утечки персональных данных карается штрафом до 2,5 млрд. рупий (2,9 млрд. рублей).
Индийский независимый аналитический центр, PRS Legislative Research, обобщает положения акта следующим образом:
Основные положения законопроекта
- Законопроект будет применяться к обработке цифровых персональных данных на территории Индии, когда такие данные собираются в онлайне или собираются в оффлайне и переводятся в цифровой формат. Он также будет применяться к такой обработке за пределами Индии, если она осуществляется для предложения товаров или услуг в Индии.
- Персональные данные могут обрабатываться только с согласия физического лица (data principal) или без такого согласия, но только для ограниченного перечня законных целей . В частности, отдельное согласие не требуется для обработки данных в целях, для которых гражданин сам добровольно предоставил эти данные, а также для предоставления ему государством разрешений, лицензий, льгот и услуг.
- Операторы данных (data fiduciaries) будут обязаны поддерживать точность данных, обеспечивать их сохранность и удалять данные после достижения цели обработки.
- Законопроект предоставляет определенные права физическим лицам, включая право на получение информации, исправление и удаление данных, а также на обжалование действий оператора.
- Центральное правительство может освобождать государственные учреждения от применения положений законопроекта, когда это необходимо в интересах безопасности государства, общественного порядка и предотвращения правонарушений.
- Центральное правительство создаст Совет по защите данных Индии, который будет выносить решения по вопросам несоблюдения положений законопроекта.
Ключевые вопросы и анализ
- Исключения из правил обработки данных государством по таким соображениям, как национальная безопасность, могут привести к сбору, обработке и хранению данных сверх необходимого. Это может нарушить фундаментальное право на неприкосновенность частной жизни.
- Законопроект не регулирует риски причинения вреда в результате обработки персональных данных.
- Законопроект не предоставляет гражданам право на переносимость данных и право на забвение.
- Законопроект разрешает передачу персональных данных за пределы Индии, за исключением стран, указанных центральным правительством. Такой механизм может не обеспечить адекватной оценки стандартов защиты данных в странах, куда разрешена передача персональных данных.
- Члены Совета по защите данных Индии будут назначаться на два года и иметь право на повторное назначение. Короткий срок с возможностью повторного назначения может повлиять на независимое функционирование Совета.
The Times of India
Parliament passes Digital Personal Data Protection Bill 2023 | India News - Times of India
India News: NEW DELHI: The Rajya Sabha on Wednesday passed the Digital Personal Data Protection Bill 2023 with a voice vote following a walkout by the opposition .
🔥4