Эффект Круитхофа и ВНИИТЭ
БЕЛЯЕВА Н. М., ЮДИН Л. П. Эргономические требования к цвету в производственном интерьере — № 8 1984
К концу 80ых уже не встречается концепция рациональной окраски как в 60ых, зато вместо этого уделяется больше внимания функциональному комфорту:
Автор вводит понятие светоцветовой среды (СЦС) — зрительно воспринимаемой совокупности светлоты и цветности, влияющей на человека физиологически и психоэстетически. Рассматривается система «человек — объект труда — СЦС», где цвет выполняет несколько функций: эстетическую, психоэмоциональную, влияет на зрительную работоспособность и помогает различать объекты.
Почему уже не говорят о рациональной окраске? Эксперименты показали, что цветовой тон мало влияет на работоспособность, а ключевую роль играют насыщенность цвета и угловой размер окрашенных поверхностей - собственно, так называемый эффект Круитхофа из-за того, что электрическое искусственное освещение оказалось более важным, чем цвет.
https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B8%D0%B2%D0%B0%D1%8F_%D0%9A%D1%80%D1%83%D0%B8%D1%82%D1%85%D0%BE%D1%84%D0%B0
Так мы узнали, что такое эффект Круитхофа
БЕЛЯЕВА Н. М., ЮДИН Л. П. Эргономические требования к цвету в производственном интерьере — № 8 1984
К концу 80ых уже не встречается концепция рациональной окраски как в 60ых, зато вместо этого уделяется больше внимания функциональному комфорту:
Автор вводит понятие светоцветовой среды (СЦС) — зрительно воспринимаемой совокупности светлоты и цветности, влияющей на человека физиологически и психоэстетически. Рассматривается система «человек — объект труда — СЦС», где цвет выполняет несколько функций: эстетическую, психоэмоциональную, влияет на зрительную работоспособность и помогает различать объекты.
Почему уже не говорят о рациональной окраске? Эксперименты показали, что цветовой тон мало влияет на работоспособность, а ключевую роль играют насыщенность цвета и угловой размер окрашенных поверхностей - собственно, так называемый эффект Круитхофа из-за того, что электрическое искусственное освещение оказалось более важным, чем цвет.
https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B8%D0%B2%D0%B0%D1%8F_%D0%9A%D1%80%D1%83%D0%B8%D1%82%D1%85%D0%BE%D1%84%D0%B0
Так мы узнали, что такое эффект Круитхофа
👍10💋1
Когда-то она и ввела в оборот понятие ResearchOps. Проблема, впрочем, в том, что слишком общие понятия и смешные примеры — «в вашей команде 10+ исследователей, и вы масштабируетесь» — эта ситуация характерна для транснационального рынка, а не для локального. Да и для транснационального возможна ситуация, когда эти затраты никогда не окупятся.
Впрочем, идея того, что по мере зрелости бизнеса все больше усилий надо тратить на инструменты и операции выглядит бесспорной: нужны люди для хранения, управления и доставки знаний внутри контура компании. На это и успехи ЛЛМ указывают.
Английская пдф в комментах
Впрочем, идея того, что по мере зрелости бизнеса все больше усилий надо тратить на инструменты и операции выглядит бесспорной: нужны люди для хранения, управления и доставки знаний внутри контура компании. На это и успехи ЛЛМ указывают.
Английская пдф в комментах
❤5🤔2💋1
И к новостям когнитивных наук в Ниппоне
Центр передовых исследований когнитивных наук
2025 учебный год, 4-е заседание исследовательского семинара
Тема: «Shippology» — наука о хвосте для познания «человека» (ひと)
Лектор:
Тодзима Саяка (東島 沙弥佳),
доцент кафедры прикладной биологии,
Киотский университет промышленных искусств и текстиля (Kyoto Institute of Technology)
Дата и время:
18 февраля 2026 г. (среда), 17:30–18:30
Место проведения:
Ritsumeikan University Microsoft Base Ritsumeikan
Аннотация:
У многих позвоночных животных есть хвост. Его форма и движения рассказывают историю эволюции и адаптации. С другой стороны, биологический вид «человек» (ヒト) хвоста не имеет. Тем не менее, «человек» как носитель человеческой природы (人) на протяжении всей истории — от мифов и легенд до современной манги — постоянно воображает и создаёт хвосты.
В этой лекции через один-единственный объект исследования — хвост — мы пересекаем границы биологии и гуманитарных наук и заново задаёмся вопросом: как же мы стали «человеком» (ひと = ヒト + 人)?
https://commons.research.kyoto-u.ac.jp/en/researcher/researcher-907/
Центр передовых исследований когнитивных наук
2025 учебный год, 4-е заседание исследовательского семинара
Тема: «Shippology» — наука о хвосте для познания «человека» (ひと)
Лектор:
Тодзима Саяка (東島 沙弥佳),
доцент кафедры прикладной биологии,
Киотский университет промышленных искусств и текстиля (Kyoto Institute of Technology)
Дата и время:
18 февраля 2026 г. (среда), 17:30–18:30
Место проведения:
Ritsumeikan University Microsoft Base Ritsumeikan
Аннотация:
У многих позвоночных животных есть хвост. Его форма и движения рассказывают историю эволюции и адаптации. С другой стороны, биологический вид «человек» (ヒト) хвоста не имеет. Тем не менее, «человек» как носитель человеческой природы (人) на протяжении всей истории — от мифов и легенд до современной манги — постоянно воображает и создаёт хвосты.
В этой лекции через один-единственный объект исследования — хвост — мы пересекаем границы биологии и гуманитарных наук и заново задаёмся вопросом: как же мы стали «человеком» (ひと = ヒト + 人)?
https://commons.research.kyoto-u.ac.jp/en/researcher/researcher-907/
❤4🤯3😁2💋1
А как у них? Подкаст хуман факторс
И да, пока первая неделя после нового года - напомню о том, что есть специальный подкаст по человеческому фактору и всяких новостях в области инноваций и интерфейсов в мире на стыке психологии, инженерии, биомеханики, промышленного дизайна, физиологии и антропометрии и то, как они влияют на наше взаимодействие с технологиями. Ведущие: Ник Рум, Блейк Арнсдорф и Барри Кирби.
https://www.youtube.com/@HumanFactorsCast/videos
https://www.humanfactorscast.media/
Nick Roome - исследователь из Турво https://www.linkedin.com/in/nickroome
Блейк Арнсдорф - исследователь из Фейсбука
Барри Кирби - эргономист с 20-летним опытом и вообще визионер https://www.ksharp.co.uk/team/barry-kirby
На повестке персонализация, проблема копилотов и другие барьеры 2026 года
Explainable AI - проблема-то в объяснении черного ящика ллм
Agentic AI
Dynamically interfaces
Смешно, что опытный Барри отмечает: когда я начинал 20 лет назад, все говорили про голосовые интерфейсы - и ЭТО ДО СИХ ПОР большая инновация, биг финк
И да, пока первая неделя после нового года - напомню о том, что есть специальный подкаст по человеческому фактору и всяких новостях в области инноваций и интерфейсов в мире на стыке психологии, инженерии, биомеханики, промышленного дизайна, физиологии и антропометрии и то, как они влияют на наше взаимодействие с технологиями. Ведущие: Ник Рум, Блейк Арнсдорф и Барри Кирби.
https://www.youtube.com/@HumanFactorsCast/videos
https://www.humanfactorscast.media/
Nick Roome - исследователь из Турво https://www.linkedin.com/in/nickroome
Блейк Арнсдорф - исследователь из Фейсбука
Барри Кирби - эргономист с 20-летним опытом и вообще визионер https://www.ksharp.co.uk/team/barry-kirby
На повестке персонализация, проблема копилотов и другие барьеры 2026 года
Explainable AI - проблема-то в объяснении черного ящика ллм
Agentic AI
Dynamically interfaces
Смешно, что опытный Барри отмечает: когда я начинал 20 лет назад, все говорили про голосовые интерфейсы - и ЭТО ДО СИХ ПОР большая инновация, биг финк
YouTube
Human Factors Cast
Take a deeper look into the human element in our ever changing digital world. Human Factors Cast is a podcast that investigates the sciences of psychology, engineering, biomechanics, industrial design, physiology and anthropometry and how it effects our interaction…
💋3
Цифровой геноцид ревью. What is Human-Centered about Human-Centered AI? A Map of the Research Landscape
Что именно является человеко-ориентированным в человеко-ориентированном ИИ? Карта исследовательского ландшафта https://dl.acm.org/doi/pdf/10.1145/3544548.3580959
Применение искусственного интеллекта (ИИ) в самых разных областях сопровождается как высокими ожиданиями от его преимуществ, так и мрачными прогнозами о возможном злоупотреблении. Как определяется и какие виды работ идут в человекоориентированном ИИ? обзор вносит вклад в виде обзора и карты исследований HCAI, основанной на работах, которые явно используют термины «human-centered artificial intelligence» или «human-centered machine learning» (или их вариации), а также предлагает будущие вызовы и направления исследований.
Карта показывает широту исследований в области HCAI, устоявшиеся кластеры и возникающие области взаимодействия с ИИ и этичного ИИ.
Опасения вызваны непрозрачностью используемых моделей, встроенными предубеждениями (особенно против меньшинств) из-за исторических данных и алгоритмических решений, проблемами конфиденциальности, машинами, вышедшими из-под контроля, вызовами в области прав человека и иллюзиями смысла, которые могут быть созданы. Термин human-centered AI (человеко-ориентированный ИИ) всё чаще используется, выражая ощущение, что ИИ должен служить людям и отвечать на растущие опасения по поводу потенциала ИИ эксплуатировать и вводить в заблуждение. Но «человеко-ориентированный ИИ» означает очень разные вещи для разных людей. Человек может быть субъектом алгоритмического изучения ИИ, пользователем продуктов ИИ, участником в проектировании самой системы ИИ и т.д. Или же HCAI может использоваться как aspirational (вдохновляющий, желаемый) термин — подобно «устойчивой добыче» в добывающей отрасли или «доверенному автономному управлению», — при этом ведутся значительные споры о том, как и возможно ли это достичь.
Ранние техники ИИ, применявшиеся в 1980-х годах, опирались на знание-ориентированный подход, при котором компьютеры могли автоматически рассуждать на основе утверждений знаний и правил логического вывода, закодированных в формальных языках. Однако эта парадигма была ограничена трудностями детального эксплицитного описания знаний, особенно неявных (tacit knowledge) .
Учёные в области HCI утверждали, что это происходит потому, что человеческое мышление воплощено (embodied), situated (ситуационно обусловлено), протекает в социальном контексте и включает действия — часто импровизационные — в реальном мире, сложность которых формальные модели не способны воспроизвести. Более того, сам контекст редко поддаётся чёткому выделению, он нестабилен и неотделим от деятельности, поэтому его трудно определить как форму информации, которую можно закодировать (доминирующая позитивистская точка зрения).
Альтернативная феноменологическая точка зрения, преобладающая в исследованиях HCI, состоит в том, что контекст возникает из деятельности, является реляционным свойством, связывающим объекты и действия, а набор релевантных контекстных признаков определяется динамически .
Эта последняя точка зрения отражает сдвиг в исследованиях HCI к более situated (ситуационно-ориентированной) парадигме, которая задаётся вопросом: как проектировать машины в качестве эффективных ресурсов для ситуационного действия человека, вместо того чтобы пытаться автоматизировать человеческое мышление. Однако новые техники машинного обучения (ML) произвели революцию в ИИ.
Что именно является человеко-ориентированным в человеко-ориентированном ИИ? Карта исследовательского ландшафта https://dl.acm.org/doi/pdf/10.1145/3544548.3580959
Применение искусственного интеллекта (ИИ) в самых разных областях сопровождается как высокими ожиданиями от его преимуществ, так и мрачными прогнозами о возможном злоупотреблении. Как определяется и какие виды работ идут в человекоориентированном ИИ? обзор вносит вклад в виде обзора и карты исследований HCAI, основанной на работах, которые явно используют термины «human-centered artificial intelligence» или «human-centered machine learning» (или их вариации), а также предлагает будущие вызовы и направления исследований.
Карта показывает широту исследований в области HCAI, устоявшиеся кластеры и возникающие области взаимодействия с ИИ и этичного ИИ.
Опасения вызваны непрозрачностью используемых моделей, встроенными предубеждениями (особенно против меньшинств) из-за исторических данных и алгоритмических решений, проблемами конфиденциальности, машинами, вышедшими из-под контроля, вызовами в области прав человека и иллюзиями смысла, которые могут быть созданы. Термин human-centered AI (человеко-ориентированный ИИ) всё чаще используется, выражая ощущение, что ИИ должен служить людям и отвечать на растущие опасения по поводу потенциала ИИ эксплуатировать и вводить в заблуждение. Но «человеко-ориентированный ИИ» означает очень разные вещи для разных людей. Человек может быть субъектом алгоритмического изучения ИИ, пользователем продуктов ИИ, участником в проектировании самой системы ИИ и т.д. Или же HCAI может использоваться как aspirational (вдохновляющий, желаемый) термин — подобно «устойчивой добыче» в добывающей отрасли или «доверенному автономному управлению», — при этом ведутся значительные споры о том, как и возможно ли это достичь.
Ранние техники ИИ, применявшиеся в 1980-х годах, опирались на знание-ориентированный подход, при котором компьютеры могли автоматически рассуждать на основе утверждений знаний и правил логического вывода, закодированных в формальных языках. Однако эта парадигма была ограничена трудностями детального эксплицитного описания знаний, особенно неявных (tacit knowledge) .
Учёные в области HCI утверждали, что это происходит потому, что человеческое мышление воплощено (embodied), situated (ситуационно обусловлено), протекает в социальном контексте и включает действия — часто импровизационные — в реальном мире, сложность которых формальные модели не способны воспроизвести. Более того, сам контекст редко поддаётся чёткому выделению, он нестабилен и неотделим от деятельности, поэтому его трудно определить как форму информации, которую можно закодировать (доминирующая позитивистская точка зрения).
Альтернативная феноменологическая точка зрения, преобладающая в исследованиях HCI, состоит в том, что контекст возникает из деятельности, является реляционным свойством, связывающим объекты и действия, а набор релевантных контекстных признаков определяется динамически .
Эта последняя точка зрения отражает сдвиг в исследованиях HCI к более situated (ситуационно-ориентированной) парадигме, которая задаётся вопросом: как проектировать машины в качестве эффективных ресурсов для ситуационного действия человека, вместо того чтобы пытаться автоматизировать человеческое мышление. Однако новые техники машинного обучения (ML) произвели революцию в ИИ.
🔥4💋1
Машинное обучение, рост вычислительной мощности и доступности данных, а также люди в контуре (humans-in-the-loop)
Вместо кодирования и программирования знаний в компьютеры машинное обучение «стремится автоматически извлекать значимые взаимосвязи и закономерности из примеров и наблюдений» [140], тем самым автоматизируя задачу построения аналитических моделей с помощью методов статистического вывода
С точки зрения вовлечённости человека:
В обучении с учителем (supervised learning) требуется человеческий труд для разметки наборов данных, чтобы обучить алгоритмы делать правильные предсказания.
В формах human-in-the-loop и интерактивного машинного обучения [97] люди могут участвовать в классификации, обучении, тестировании, настройке/корректировке и валидации алгоритмов машинного обучения.
«Контекстуализированный человек»
Работая с огромными объёмами данных, собранных из реального мира, видео и социальных контекстов (таких как социальные сети), машинное обучение и глубокое обучение имеют доступ к гораздо более богатым контекстам, чем ранние формы символического ИИ, а также к вычислительной мощности и статистическим методам для извлечения из них смысла. Благодаря цифровой фиксации аспектов контекста в массивных и богатых наборах данных человеческое мышление, взаимодействие и язык могут быть имитированы и смоделированы.
Как отмечает Blackwell, это «сводит контекстуализированного человека к машиноподобному источнику данных о взаимодействии. Вместо когниции, которая не situated (не ситуационно обусловлена), наша новая забота должна быть о взаимодействии, которое не является humane (гуманным)». Blackwell [39] отстаивает необходимость «гуманного взаимодействия», выделяя проблемы, связанные с авторством, справедливым признанием вклада, вознаграждением, самоопределением и контролем.
Несмотря на всю свою богатство, контекст, извлечённый из данных сенсоров, видео, социальных сетей и т.д., всё равно остаётся крайне избирательным, редуцированным и отличным от социального и воплощённого (embodied) восприятия людей в реальном мире
В результате некоторой дискуссии в которой участвовал и международно признанный эксперт типа Шнейдермана возник устойчивый термин HCAI, как фокусирующийся на «усилении, дополнении и улучшении человеческой производительности способами, которые делают системы надёжными, безопасными и заслуживающими доверия»
Человеко-ориентированный искусственный интеллект - использует данные для того, чтобы расширять возможности и поддерживать своих человеческих пользователей, одновременно раскрывая лежащие в его основе ценности, предубеждения, ограничения и этику сбора данных и алгоритмов, чтобы способствовать этичному, интерактивному и оспариваемому (contestable) использованию.
Итак, как выглядит разбивка по темам исследованиям? Это дало в общей сложности 2357 начальных результатов, которые отбирали рецензенты
В результате были выделены четыре темы:
Этичный ИИ (Ethical AI);
Человеческое взаимодействие с ИИ (Human Teaming with AI);
Объяснимый и интерпретируемый ИИ (Explainable and Interpretable AI);
Человеко-ориентированный подход к проектированию и оценке ИИ (Human-Centered Approach to Designing and Evaluating AI).
Объяснимый и интерпретируемый ИИ
Область объяснимого и интерпретируемого ИИ включает широкий спектр инструментов, методов и фреймворков, которые помогают человеку понять решения или предсказания, сделанные ИИ. Эта исследовательская область возникла в ответ на «чёрный ящик» моделей ИИ, из-за которого неясно, как и почему ИИ пришёл к тому или иному решению или предсказанию — иногда даже для самого создателя системы.
Вместо кодирования и программирования знаний в компьютеры машинное обучение «стремится автоматически извлекать значимые взаимосвязи и закономерности из примеров и наблюдений» [140], тем самым автоматизируя задачу построения аналитических моделей с помощью методов статистического вывода
С точки зрения вовлечённости человека:
В обучении с учителем (supervised learning) требуется человеческий труд для разметки наборов данных, чтобы обучить алгоритмы делать правильные предсказания.
В формах human-in-the-loop и интерактивного машинного обучения [97] люди могут участвовать в классификации, обучении, тестировании, настройке/корректировке и валидации алгоритмов машинного обучения.
«Контекстуализированный человек»
Работая с огромными объёмами данных, собранных из реального мира, видео и социальных контекстов (таких как социальные сети), машинное обучение и глубокое обучение имеют доступ к гораздо более богатым контекстам, чем ранние формы символического ИИ, а также к вычислительной мощности и статистическим методам для извлечения из них смысла. Благодаря цифровой фиксации аспектов контекста в массивных и богатых наборах данных человеческое мышление, взаимодействие и язык могут быть имитированы и смоделированы.
Как отмечает Blackwell, это «сводит контекстуализированного человека к машиноподобному источнику данных о взаимодействии. Вместо когниции, которая не situated (не ситуационно обусловлена), наша новая забота должна быть о взаимодействии, которое не является humane (гуманным)». Blackwell [39] отстаивает необходимость «гуманного взаимодействия», выделяя проблемы, связанные с авторством, справедливым признанием вклада, вознаграждением, самоопределением и контролем.
Несмотря на всю свою богатство, контекст, извлечённый из данных сенсоров, видео, социальных сетей и т.д., всё равно остаётся крайне избирательным, редуцированным и отличным от социального и воплощённого (embodied) восприятия людей в реальном мире
В результате некоторой дискуссии в которой участвовал и международно признанный эксперт типа Шнейдермана возник устойчивый термин HCAI, как фокусирующийся на «усилении, дополнении и улучшении человеческой производительности способами, которые делают системы надёжными, безопасными и заслуживающими доверия»
Человеко-ориентированный искусственный интеллект - использует данные для того, чтобы расширять возможности и поддерживать своих человеческих пользователей, одновременно раскрывая лежащие в его основе ценности, предубеждения, ограничения и этику сбора данных и алгоритмов, чтобы способствовать этичному, интерактивному и оспариваемому (contestable) использованию.
Итак, как выглядит разбивка по темам исследованиям? Это дало в общей сложности 2357 начальных результатов, которые отбирали рецензенты
В результате были выделены четыре темы:
Этичный ИИ (Ethical AI);
Человеческое взаимодействие с ИИ (Human Teaming with AI);
Объяснимый и интерпретируемый ИИ (Explainable and Interpretable AI);
Человеко-ориентированный подход к проектированию и оценке ИИ (Human-Centered Approach to Designing and Evaluating AI).
Объяснимый и интерпретируемый ИИ
Область объяснимого и интерпретируемого ИИ включает широкий спектр инструментов, методов и фреймворков, которые помогают человеку понять решения или предсказания, сделанные ИИ. Эта исследовательская область возникла в ответ на «чёрный ящик» моделей ИИ, из-за которого неясно, как и почему ИИ пришёл к тому или иному решению или предсказанию — иногда даже для самого создателя системы.
👍4💋1
Объяснимость используется как для понимания поведения модели, так и для улучшения её производительности.
Хотя объяснимость и интерпретируемость широко признаны важными, не существует единого определения того, что значит для ИИ быть объяснимым или интерпретируемым. Существует множество способов интерпретации модели, и объяснения должны адаптироваться в зависимости от контекста и аудитории — например, для дата-сайентистов или экспертов предметной области.
к возможности людей взаимодействовать с объяснениями и оспаривать их, задавая вопросы типа «А что, если?» (например, в контексте рекомендации выдачи ипотечного кредита [274]) или напрямую манипулируя базовыми ограничениями, учитываемыми системой [297].
Эта возникающая область известна как contestable AI (оспариваемый ИИ) !!!
то отражает общий сдвиг в сторону HCAI, где человеко-ориентированное взаимодействие с ИИ проистекает из способности человека интерпретировать решение или предсказание системы, а не только из способности системы объяснить своё решение или предсказание.
Человеко-ориентированный подход к проектированию и оценке ИИ
Человеко-ориентированный подход к проектированию и оценке ИИ предполагает использование методов и инструментов взаимодействия человека с компьютером (HCI) на этапах проектирования и оценки систем ИИ. Главная претензия состоит в том, что если в процессе проектирования и оценки применяется человеко-ориентированный процесс, то и создаваемый ИИ по своей сути оказывается человеко-ориентированным.
Человек и ИИ — это команда - всякие коллаборативные работы
Исследования, рассматривавшие человека и ИИ как команду, делали это преимущественно через призму коллаборации. Human-in-the-loop — это направление ИИ, направленное на использование как ИИ, так и человека при создании и постоянном применении моделей машинного обучения
Ну и про этичный ИИ тоже все понятно: цензура, ограничения, проблемы контроля
На диаграмме виден размер тем на текущий момент
Хотя объяснимость и интерпретируемость широко признаны важными, не существует единого определения того, что значит для ИИ быть объяснимым или интерпретируемым. Существует множество способов интерпретации модели, и объяснения должны адаптироваться в зависимости от контекста и аудитории — например, для дата-сайентистов или экспертов предметной области.
к возможности людей взаимодействовать с объяснениями и оспаривать их, задавая вопросы типа «А что, если?» (например, в контексте рекомендации выдачи ипотечного кредита [274]) или напрямую манипулируя базовыми ограничениями, учитываемыми системой [297].
Эта возникающая область известна как contestable AI (оспариваемый ИИ) !!!
то отражает общий сдвиг в сторону HCAI, где человеко-ориентированное взаимодействие с ИИ проистекает из способности человека интерпретировать решение или предсказание системы, а не только из способности системы объяснить своё решение или предсказание.
Человеко-ориентированный подход к проектированию и оценке ИИ
Человеко-ориентированный подход к проектированию и оценке ИИ предполагает использование методов и инструментов взаимодействия человека с компьютером (HCI) на этапах проектирования и оценки систем ИИ. Главная претензия состоит в том, что если в процессе проектирования и оценки применяется человеко-ориентированный процесс, то и создаваемый ИИ по своей сути оказывается человеко-ориентированным.
Человек и ИИ — это команда - всякие коллаборативные работы
Исследования, рассматривавшие человека и ИИ как команду, делали это преимущественно через призму коллаборации. Human-in-the-loop — это направление ИИ, направленное на использование как ИИ, так и человека при создании и постоянном применении моделей машинного обучения
Ну и про этичный ИИ тоже все понятно: цензура, ограничения, проблемы контроля
На диаграмме виден размер тем на текущий момент
👍4💋1
Кстати, дорогие читатели, которые давно читают проект Цифрового геноцида может быть есть потребности и задачи, которые хотелось бы решить благодаря автору
Консультация по UX-проблеме: с меня поиск типовых и нетиповых решений относительно проблемы, которая возникла в вашем проекте и формирование рекомендаций для вашего продукта, сервиса или стартапа. В качестве образа результата будет презентация, отчет или другая форма участия консалтера в проектировании
Карьерная консультация или менторство: если вам нравится как я мыслю, как решаю проблемы и какие у меня есть способы помочь вам в работе UX-исследователя - советы начинающим, помощь продолжающим, решение проблем для команды. Финансовая компенсация зависит от грейда
Курсы UX и HCI - сходить и послушать курс по исследованиям опыта пользователя с опорой на современные зарубежные пособия по хуман факторс, когнитивной психологии и тд
Исследование на заказ - провести исследование и выполнить
Кто я такой?
Виталий Болатаев, руководитель исследований экосистемы Лукоморье, - руководитель UXR (экосистема «Лукоморье», РТК ИТ); (ранее UX исследователь в Mail.ru, Сбер (ДомКлик), X5 Group (Лаборатория инноваций), Газпром Медиа (Yappy); доцент Высшей школы программной инженерии МФТИ;
В прошлом научный сотрудник в секторе социальной эпистемологии РАН, НИУ-ВШЭ, Финансовый университет;
Автор телеграм-канала «Цифровой геноцид» — блога про UX-исследованиях и истории технологии;
член Human Factors and Ergonomics Society (HFES);
Выберите что представляет наибольший интерес из списка внизу, а если уже есть конкретный вопрос - велком в @lilalogos
Консультация по UX-проблеме: с меня поиск типовых и нетиповых решений относительно проблемы, которая возникла в вашем проекте и формирование рекомендаций для вашего продукта, сервиса или стартапа. В качестве образа результата будет презентация, отчет или другая форма участия консалтера в проектировании
Карьерная консультация или менторство: если вам нравится как я мыслю, как решаю проблемы и какие у меня есть способы помочь вам в работе UX-исследователя - советы начинающим, помощь продолжающим, решение проблем для команды. Финансовая компенсация зависит от грейда
Курсы UX и HCI - сходить и послушать курс по исследованиям опыта пользователя с опорой на современные зарубежные пособия по хуман факторс, когнитивной психологии и тд
Исследование на заказ - провести исследование и выполнить
Кто я такой?
Виталий Болатаев, руководитель исследований экосистемы Лукоморье, - руководитель UXR (экосистема «Лукоморье», РТК ИТ); (ранее UX исследователь в Mail.ru, Сбер (ДомКлик), X5 Group (Лаборатория инноваций), Газпром Медиа (Yappy); доцент Высшей школы программной инженерии МФТИ;
В прошлом научный сотрудник в секторе социальной эпистемологии РАН, НИУ-ВШЭ, Финансовый университет;
Автор телеграм-канала «Цифровой геноцид» — блога про UX-исследованиях и истории технологии;
член Human Factors and Ergonomics Society (HFES);
Выберите что представляет наибольший интерес из списка внизу, а если уже есть конкретный вопрос - велком в @lilalogos
❤11💋4😎3🔥1
Наиболее интересные темы для вас
Anonymous Poll
35%
Консультация по UX-проблеме
38%
Карьерная консультация или менторство
67%
Курсы UX и HCI
23%
Исследование на заказ
К 1986 году вполне серьезно обсуждалась государственная система дизайна СССР в новом формате - если раньше речь шла о всесоюзном органе и филиалах по республикам, то теперь предполагалось создать систему, которая ориентировалась на министерства как на заказчиков и производителей, а организация занимала независимое положение, каскадируя решения на академии и союзы дизайнеров.
Причина лежала в том числе в саботаже союзных сестер-республик - ну не хотела солнечная грузия или украина внедрять инновации дизайна или выполнять заказ на производство из центра. Проект так и остался, кажется, просто бумагой - но, показательно, что копируют вольно или невольно техническую эстетику ГДР, где органы технической эстетики были централизированны и имели свои отделения в каждом министерстве - собственно, типа отдела качества (а ГДР, конечно, копировала это из периода Рейха)
Картинка из ТЭ 1986 номер 4
Причина лежала в том числе в саботаже союзных сестер-республик - ну не хотела солнечная грузия или украина внедрять инновации дизайна или выполнять заказ на производство из центра. Проект так и остался, кажется, просто бумагой - но, показательно, что копируют вольно или невольно техническую эстетику ГДР, где органы технической эстетики были централизированны и имели свои отделения в каждом министерстве - собственно, типа отдела качества (а ГДР, конечно, копировала это из периода Рейха)
Картинка из ТЭ 1986 номер 4
🔥7❤5💋1
Это, пожалуй, первая статья про ЭВМ для персонального использования: КОРИНЕВСКИЙ А. В. ЭВМ в домашнем хозяйстве — № 6 за 1984 год "Техническая эстетика"
Что я бы выделил здесь наиболее важное?
Людей, кто обладал опытом работы с ЭВМ было не так уж много - Кориневский это кандидат медицинских наук, автор работ и статей по использованию ЭВМ для нейрофизиологических исследований
Очень показательно, что в статье не идет речь в первую очередь о персональных компьютерах - это тонкая тема, советская промышленность не могла удовлетворить такой спрос - в первую очередь речь шла об использовании компьютеров для встроенных в бытовую технику (холодильники, стиралки и тд и тп). Я так понимаю, что "микроЭВМ в стиралке" это микроконтроллеры в бытовой технике, и именно их, кстати, вполне себе использовали в советской массовой промышленности
Что я бы выделил здесь наиболее важное?
Людей, кто обладал опытом работы с ЭВМ было не так уж много - Кориневский это кандидат медицинских наук, автор работ и статей по использованию ЭВМ для нейрофизиологических исследований
Очень показательно, что в статье не идет речь в первую очередь о персональных компьютерах - это тонкая тема, советская промышленность не могла удовлетворить такой спрос - в первую очередь речь шла об использовании компьютеров для встроенных в бытовую технику (холодильники, стиралки и тд и тп). Я так понимаю, что "микроЭВМ в стиралке" это микроконтроллеры в бытовой технике, и именно их, кстати, вполне себе использовали в советской массовой промышленности
🔥9💋3❤2👍2
Странные интерфейсы: ноготочки 💅
На International Consumer Electronics Show показали накладные электронные ногти которые меняют цвет в любой по желанию при помощи использования гаджета
https://ipolish.fashion/
Волшебство происходит благодаря запатентованным электрофоретическим нанополимерам, встроенным в акриловые накладные ногти. Перезаряжаемый аппликатор подает кратковременный электрический заряд, который электрохимически изменяет цвет ногтя, управляемый через приложения для iOS или Android. Представьте себе электронные чернила, но для ваших кончиков пальцев. Компания потратила более десяти лет на разработку этой технологии, получив 23 патента с момента своего основания в 2023 году.
Это похоже на принцип электронных чернил (E-Ink -использующая микрокапсулы с заряженными пигментами (черными и белыми), которые перемещаются под действием электрического поля для создания изображения ), но адаптировано для тонкого слоя в ногтях (бистабильный дисплей, сохраняющий состояние без питания).
При этом патента в свободном доступе нет. Сама технология красоты - beaty interfaces - это тема из области human factors и UX, существует несколько институтов и книг на тему о которых писал https://xn--r1a.website/gulagdigital/1924 Есть даже отдельная монография у Springer на тему.
Кстати, вопрос - чем занимался фаундер до ноготочков? Ах да, разрабатывал ткани и гаджеты для военных https://www.fohrman.org/troy
На International Consumer Electronics Show показали накладные электронные ногти которые меняют цвет в любой по желанию при помощи использования гаджета
https://ipolish.fashion/
Волшебство происходит благодаря запатентованным электрофоретическим нанополимерам, встроенным в акриловые накладные ногти. Перезаряжаемый аппликатор подает кратковременный электрический заряд, который электрохимически изменяет цвет ногтя, управляемый через приложения для iOS или Android. Представьте себе электронные чернила, но для ваших кончиков пальцев. Компания потратила более десяти лет на разработку этой технологии, получив 23 патента с момента своего основания в 2023 году.
Это похоже на принцип электронных чернил (E-Ink -использующая микрокапсулы с заряженными пигментами (черными и белыми), которые перемещаются под действием электрического поля для создания изображения ), но адаптировано для тонкого слоя в ногтях (бистабильный дисплей, сохраняющий состояние без питания).
При этом патента в свободном доступе нет. Сама технология красоты - beaty interfaces - это тема из области human factors и UX, существует несколько институтов и книг на тему о которых писал https://xn--r1a.website/gulagdigital/1924 Есть даже отдельная монография у Springer на тему.
Кстати, вопрос - чем занимался фаундер до ноготочков? Ах да, разрабатывал ткани и гаджеты для военных https://www.fohrman.org/troy
💋6❤3🔥3💅3🥰1😁1
Вариативность человеческой операционной системы в принятии решений и решении проблем — это особенность, а не ошибка. Сегодня отрывок МИТ из книги Herbert L. Roitblat “Algorithms Are Not Enough: Creating General Artificial Intelligence” (сам автор кстати - настоящий Principal Data Scientist at Mimecast, не инфоцыган)
Задачи с инсайтом (задачи на озарение?) обычно нельзя решить пошаговой процедурой, например, алгоритмом, или, если и возможно, то процесс крайне утомительный. Вместо этого задачи инсайтов характеризуются своего рода перестройкой подхода решающего к задаче. В задачах на пути решателю присваивается представление, включающее начальное состояние, целевое состояние и набор инструментов или операторов, которые можно применить для прохождения по представлению. В задачах на озарение решающему не даётся ни одного из этого.
Задачи на озарение обычно формулируются так, что их можно представить несколькими способами. Архимеда ставила в тупик мысль об измерении объёма короны линейкой или подобным инструментом. Людей, решающих задачу с носками, ставила в тупик мысль о вероятностной оценке. То, как вы думаете о проблеме, то есть как вы её репрезентируете, может быть критически важным для решения.
Интересные задачи на озарение обычно требуют использования относительно редкой репрезентации.
Хотя наш разум не может сравниться с алгоритмами в том, что нас легко убедить (см. социальные сети), алгоритмы не соперники нашему разуму, потому что мы причудливы, иррациональны, непоследовательны, движим нелогичными вещами и обычно переоцениваем эмоции. Но не всегда. А ещё есть вопрос наших различных воспоминаний и нашей разной восприимчивости к контексту.
Я не знаю, не слишком ли наш интеллект для алгоритмов, но то, как работает наш разум, слишком сложный, запутанный, иррациональный и непоследовательный.
https://thereader.mitpress.mit.edu/ai-insight-problems-quirks-human-intelligence/
Мой комментарий: я, кстати, думаю, что эмулировать такие озарения можно - оптимизации есть такие для нейронок, но там есть нюансы из серии научим нейронку быть маккиавелистом
Задачи с инсайтом (задачи на озарение?) обычно нельзя решить пошаговой процедурой, например, алгоритмом, или, если и возможно, то процесс крайне утомительный. Вместо этого задачи инсайтов характеризуются своего рода перестройкой подхода решающего к задаче. В задачах на пути решателю присваивается представление, включающее начальное состояние, целевое состояние и набор инструментов или операторов, которые можно применить для прохождения по представлению. В задачах на озарение решающему не даётся ни одного из этого.
Задачи на озарение обычно формулируются так, что их можно представить несколькими способами. Архимеда ставила в тупик мысль об измерении объёма короны линейкой или подобным инструментом. Людей, решающих задачу с носками, ставила в тупик мысль о вероятностной оценке. То, как вы думаете о проблеме, то есть как вы её репрезентируете, может быть критически важным для решения.
Интересные задачи на озарение обычно требуют использования относительно редкой репрезентации.
Хотя наш разум не может сравниться с алгоритмами в том, что нас легко убедить (см. социальные сети), алгоритмы не соперники нашему разуму, потому что мы причудливы, иррациональны, непоследовательны, движим нелогичными вещами и обычно переоцениваем эмоции. Но не всегда. А ещё есть вопрос наших различных воспоминаний и нашей разной восприимчивости к контексту.
Я не знаю, не слишком ли наш интеллект для алгоритмов, но то, как работает наш разум, слишком сложный, запутанный, иррациональный и непоследовательный.
https://thereader.mitpress.mit.edu/ai-insight-problems-quirks-human-intelligence/
Мой комментарий: я, кстати, думаю, что эмулировать такие озарения можно - оптимизации есть такие для нейронок, но там есть нюансы из серии научим нейронку быть маккиавелистом
The MIT Press Reader
AI Is No Match for the Quirks of Human Intelligence
We may sometimes behave like computers, but more often, we are creative, irrational, and not always too bright.
❤8😁1💋1
Исследования смогут проводить только российские компании?
Взяли экспертный комментарий у ComNews, но, рискну дать без купюр, который не вошел - так сказать для узкого круга читателей личного СМИ. С 1 марта 2026 г. в РФ вступит в силу закон, который будет регулировать деятельность иностранных исследовательских организаций
https://www.comnews.ru/content/243394/2026-01-23/2026-w04/1008/issledovaniya-smogut-provodit-tolko-rossiyskie-kompanii
Рискну сделать осторожное предположение, что практики бизнес-разведки и промышленной разведки сосредоточены в большей степени на открытости данных, которые можно собрать кабинетно в рамках так называемых desk-ризерчей. По мере цифровизации предприятий промышленности, инфраструктуры и городов данные будут становится более открытыми - а значит более доступными для исследователей разного профиля, в том числе для специфических think-tankов с фокусом на исследования уязвимости. Представляется, что остановить этот процесс будет невозможно, а персональные данные россиян представляют гораздо более меньший интерес - в том числе и потому, что сложившиеся практики сбора данных населения выглядят устаревшими. Например, ВЦИОМ до сих пор использует лонгитюдные исследования формата телефонных опросов - и хотя это важный и все еще живой формат интервьюирования - сам по себе он, вероятно, не всегда бывает актуальным для целей западных аналитических центров.
В общем, следует обратить внимание на цифровую безопасность и кибербезопасность, а также продумать форматы работы с открытыми данными, если мы хотим обезопасить государство от нежелательных исследований, которые противоречат национальным интересам.
Есть несколько примеров как это может работать и работают - я приведу пару из них.
Первая - это так называемый Йельский отчет, когда в 1951 году группа профессоров и аспирантов Йеля, сидя в кабинетах, по советским газетам и статистике точно посчитала, сколько дальних бомбардировщиков СССР реально может построить: речь шла об использовании только общедоступных советских материалов: официальные публикации ЦСУ СССР (статистика производства стали, алюминия, авиабензина, двигателей и тд.), научные журналы, газеты, отчёты о съездах, речи партийных лидеров. Этот кейс рассекречен и до сих пор опубликован на сайте ЦРУ как один из крайне успешных случаев предсказания состояния производства
Второй кейс еще более показателен: журналист-фрилансер Говард Морланд написал статью для американского журнала The Progressive под названием «The H-Bomb Secret: To Know How Is to Ask Why». В ней он описывал, как устроена водородная бомба , при этом у него не было профильного образования, а все данные он собрал из открытых источников
На фоне этих кейсов, вероятно, становится очевидным, что барьеры исследования общественного мнения не могут быть серебряной пулей, которая сделает непрозрачным исследование страны - при должном желании, конечно.
Взяли экспертный комментарий у ComNews, но, рискну дать без купюр, который не вошел - так сказать для узкого круга читателей личного СМИ. С 1 марта 2026 г. в РФ вступит в силу закон, который будет регулировать деятельность иностранных исследовательских организаций
https://www.comnews.ru/content/243394/2026-01-23/2026-w04/1008/issledovaniya-smogut-provodit-tolko-rossiyskie-kompanii
Рискну сделать осторожное предположение, что практики бизнес-разведки и промышленной разведки сосредоточены в большей степени на открытости данных, которые можно собрать кабинетно в рамках так называемых desk-ризерчей. По мере цифровизации предприятий промышленности, инфраструктуры и городов данные будут становится более открытыми - а значит более доступными для исследователей разного профиля, в том числе для специфических think-tankов с фокусом на исследования уязвимости. Представляется, что остановить этот процесс будет невозможно, а персональные данные россиян представляют гораздо более меньший интерес - в том числе и потому, что сложившиеся практики сбора данных населения выглядят устаревшими. Например, ВЦИОМ до сих пор использует лонгитюдные исследования формата телефонных опросов - и хотя это важный и все еще живой формат интервьюирования - сам по себе он, вероятно, не всегда бывает актуальным для целей западных аналитических центров.
В общем, следует обратить внимание на цифровую безопасность и кибербезопасность, а также продумать форматы работы с открытыми данными, если мы хотим обезопасить государство от нежелательных исследований, которые противоречат национальным интересам.
Есть несколько примеров как это может работать и работают - я приведу пару из них.
Первая - это так называемый Йельский отчет, когда в 1951 году группа профессоров и аспирантов Йеля, сидя в кабинетах, по советским газетам и статистике точно посчитала, сколько дальних бомбардировщиков СССР реально может построить: речь шла об использовании только общедоступных советских материалов: официальные публикации ЦСУ СССР (статистика производства стали, алюминия, авиабензина, двигателей и тд.), научные журналы, газеты, отчёты о съездах, речи партийных лидеров. Этот кейс рассекречен и до сих пор опубликован на сайте ЦРУ как один из крайне успешных случаев предсказания состояния производства
Второй кейс еще более показателен: журналист-фрилансер Говард Морланд написал статью для американского журнала The Progressive под названием «The H-Bomb Secret: To Know How Is to Ask Why». В ней он описывал, как устроена водородная бомба , при этом у него не было профильного образования, а все данные он собрал из открытых источников
На фоне этих кейсов, вероятно, становится очевидным, что барьеры исследования общественного мнения не могут быть серебряной пулей, которая сделает непрозрачным исследование страны - при должном желании, конечно.
ComNews
Исследования смогут проводить только российские компании
С 1 марта 2026 г. в РФ вступит в силу закон, который будет регулировать деятельность иностранных исследовательских организаций. Этот нормативный акт устанавливает новые правила для рынка исследований потребительского поведения и ограничивает иностранным компаниям…
👍5🤡2✍1🔥1🤬1💯1💋1
Поисковик по статьям HCI и UX
Подсмотрел как некоторые аспиранты и постдоки берут API гуглсхолар и используют для поиска исключительно по списку журналов по своей отрасли - чтобы не мучатся с условным ResearchRabbitom для быстрых задач
Гуглсхолар свой апи не дал(отказали вежливо по почте!), использовал Crossref по списку в 230 журналов и сборников конференций HCI и UX - на сайте можно посмотреть - просил ЛЛМ собрать из верхних квартилей списков научных журналов, типа scimagojr с рейтингами научными
Запрос очищается, отправляется в API Crossref -смотрит вначале по узкому запросу, потом по синонимам, потом смотрит попал ли журнал в список 300 верхнеуровневых журналов
Есть скоринг и проверка на дубликаты
https://hci-ux-search.vercel.app/
Вроде опубликовалось и работает
Подсмотрел как некоторые аспиранты и постдоки берут API гуглсхолар и используют для поиска исключительно по списку журналов по своей отрасли - чтобы не мучатся с условным ResearchRabbitom для быстрых задач
Гуглсхолар свой апи не дал(отказали вежливо по почте!), использовал Crossref по списку в 230 журналов и сборников конференций HCI и UX - на сайте можно посмотреть - просил ЛЛМ собрать из верхних квартилей списков научных журналов, типа scimagojr с рейтингами научными
Запрос очищается, отправляется в API Crossref -смотрит вначале по узкому запросу, потом по синонимам, потом смотрит попал ли журнал в список 300 верхнеуровневых журналов
Есть скоринг и проверка на дубликаты
https://hci-ux-search.vercel.app/
Вроде опубликовалось и работает
🔥9❤3💋1
Cognitive engineering vs cognitive system engineering
Рубрика “я у мамы дурачок”: оказывается есть устойчивая и большая разница между понятиями “когнитивной инженерии” и “когнитивной системной инженерии” - речь идет о большой и сознательной разнице между понятиями, которую заложили отцы-основатели еще в 80ые
Термин «инженерия когнитивных систем» был введён в статье 1983 года Холлнагеля и Вудса.
Хотя термин «когнитивная инженерия» уже был введён Доном Норманом, Холлнагель и Вудс намеренно использовали новую терминологию. Они были недовольны рамками термина «когнитивная инженерия», который, по их мнению, слишком акцентировал внимание на улучшении взаимодействия между человеком и компьютером путём применения когнитивной науки. Вместо этого Холлнагель и Вудс хотели подчеркнуть сдвиг фокуса с взаимодействия человек-компьютер на совместные когнитивные системы как единицу анализа.
Вот как сам вспоминал об этом отец-основатель Вудс, когда критиковал Нормана:
Это было время великого возбуждения и энергии, поскольку мы чувствовали, что назревает что-то новое как на практике, так и в науке. Что именно возникнет и выдержит испытание временем, не было ясно никому из нас. Это было также очень одинокое время, поскольку эти проблемы выходили за рамки стандартных дисциплин, бросая вызов как традиционным границам, так и общепринятой мудрости. Казалось, что идёт борьба за легитимность с крайне неопределённым исходом. Одним из признаков этого была сложность с публикацией работ в традиционных изданиях. Многие разработки, концепции, техники и результаты начала 1980-х появились в печати только через 5–10 лет и часто в менее заметных изданиях — по крайней мере, для экспериментальной психологии, организационных факторах или инженерии. Я вошёл в эту среду осенью 1979 года после завершения PhD по когнитивной психологии, где сосредоточился на человеческом восприятии и внимании.
Параллельно взорвался интерес к технологиям ИИ, в частности к новым попыткам создания экспертных систем. Экспертные системы обещали механизировать рассуждения, так что организациям и дизайнерам оставалось только собрать релевантные правила от текущих человеческих экспертов как своего рода «топливо» для новых двигателей вывода. Knowledge engineering был популярным термином для обозначения усилий по сбору набора правил для новых машинных экспертных систем. Достижения в ИИ также подогревали популярный миф, что эти машинные эксперты возьмут на себя когнитивные задачи, ранее выполняемые людьми, и сделают их быстрее, лучше и дешевле
Но рабочие места демонстрировали сложности когнитивной работы, невидимые для вычислительного анализа экспертизы. Меня поразила пропасть между крайне спартанскими лабораторными условиями, изученными в аспирантуре, и богатой комбинацией факторов в условиях пульта управления. Входя в комнату, полную инженеров, ответственных за разработку новых визуализаций состояния безопасности электростанции, они сказали мне: «Ах, вот наш новый когнитивный психолог, не могли бы вы объяснить, почему операторы принимали плохие решения и как мы можем использовать компьютеры, чтобы помочь им делать лучше в следующий раз». Я был в шоке — и не впервые в 1980 году — я должен был связать когнитивную психологию с сложной средой, где вещи могли пойти критически не так
Рубрика “я у мамы дурачок”: оказывается есть устойчивая и большая разница между понятиями “когнитивной инженерии” и “когнитивной системной инженерии” - речь идет о большой и сознательной разнице между понятиями, которую заложили отцы-основатели еще в 80ые
Термин «инженерия когнитивных систем» был введён в статье 1983 года Холлнагеля и Вудса.
Хотя термин «когнитивная инженерия» уже был введён Доном Норманом, Холлнагель и Вудс намеренно использовали новую терминологию. Они были недовольны рамками термина «когнитивная инженерия», который, по их мнению, слишком акцентировал внимание на улучшении взаимодействия между человеком и компьютером путём применения когнитивной науки. Вместо этого Холлнагель и Вудс хотели подчеркнуть сдвиг фокуса с взаимодействия человек-компьютер на совместные когнитивные системы как единицу анализа.
Вот как сам вспоминал об этом отец-основатель Вудс, когда критиковал Нормана:
Это было время великого возбуждения и энергии, поскольку мы чувствовали, что назревает что-то новое как на практике, так и в науке. Что именно возникнет и выдержит испытание временем, не было ясно никому из нас. Это было также очень одинокое время, поскольку эти проблемы выходили за рамки стандартных дисциплин, бросая вызов как традиционным границам, так и общепринятой мудрости. Казалось, что идёт борьба за легитимность с крайне неопределённым исходом. Одним из признаков этого была сложность с публикацией работ в традиционных изданиях. Многие разработки, концепции, техники и результаты начала 1980-х появились в печати только через 5–10 лет и часто в менее заметных изданиях — по крайней мере, для экспериментальной психологии, организационных факторах или инженерии. Я вошёл в эту среду осенью 1979 года после завершения PhD по когнитивной психологии, где сосредоточился на человеческом восприятии и внимании.
Параллельно взорвался интерес к технологиям ИИ, в частности к новым попыткам создания экспертных систем. Экспертные системы обещали механизировать рассуждения, так что организациям и дизайнерам оставалось только собрать релевантные правила от текущих человеческих экспертов как своего рода «топливо» для новых двигателей вывода. Knowledge engineering был популярным термином для обозначения усилий по сбору набора правил для новых машинных экспертных систем. Достижения в ИИ также подогревали популярный миф, что эти машинные эксперты возьмут на себя когнитивные задачи, ранее выполняемые людьми, и сделают их быстрее, лучше и дешевле
Но рабочие места демонстрировали сложности когнитивной работы, невидимые для вычислительного анализа экспертизы. Меня поразила пропасть между крайне спартанскими лабораторными условиями, изученными в аспирантуре, и богатой комбинацией факторов в условиях пульта управления. Входя в комнату, полную инженеров, ответственных за разработку новых визуализаций состояния безопасности электростанции, они сказали мне: «Ах, вот наш новый когнитивный психолог, не могли бы вы объяснить, почему операторы принимали плохие решения и как мы можем использовать компьютеры, чтобы помочь им делать лучше в следующий раз». Я был в шоке — и не впервые в 1980 году — я должен был связать когнитивную психологию с сложной средой, где вещи могли пойти критически не так
💋2
Я участвовал в дебатах о влиянии технологий, автоматизирующих рассуждения, одновременно наблюдая, как системы людей и различных видов артефактов справляются с аномалиями в конкретных реальных ситуациях с реальными последствиями для любых сбоев. Этот контраст ясно показал, что прежние понятия, такие как список Фиттса — противопоставляющий то, что люди могут делать лучше, и то, что лучше делают машины, — совершенно нерелевантны для научных или инженерных вызовов. Вместо этого в 1981 году Эрик Холлнагель и я заявили, что единицей анализа является совместная когнитивная система, чтобы сосредоточить внимание на том, как когнитивная работа включает взаимодействие и координацию между множеством ролей как человека, так и машины (Hollnagel and Woods 1983). Эд Хатчинс позже подчеркнул то же самое, используя термин распределённое познание (Hutchins 1991, 1995). Для нас с Холлнагелем исходная основная идея CSE заключалась в том, что базовой единицей анализа является совместная когнитивная система — то, как множественные роли человека и машины взаимодействуют и координируют, чтобы отвечать изменяющимся требованиям ситуаций, с которыми они сталкиваются, пытаясь достичь множественных и конфликтующих целей. Мы отказались от языка машин, компенсирующих человеческие ограничения (в конце концов, очевидно, что все агенты — человеческие или машинные, или их комбинации — имеют конечные ресурсы и поэтому ограничения).
ЗЫ: я специально дал с контекстом описания истории - для многих история Вудса звучит знакомо, не так ли?
ЗЫ: я специально дал с контекстом описания истории - для многих история Вудса звучит знакомо, не так ли?
🔥9👍3💋2👏1
Причем хоть бы кто тратил такие усилия на чтение профессиональной литературы, анализа домена и, например, на конкурентную разведку - но это не так интересно как стикеры нарезать разноцветные
😁5❤1💋1
Forwarded from Миша Наер
Media is too big
VIEW IN TELEGRAM
Классное выступление дизайн-лида Anthropic про то, почему старый дизайн-процесс с дискавери, CJM, USM и тд больше не работает.
Если коротко — то пока один дизайнер сидит на брейншторме раскладывает карточки, другой уже собрал прототип с помощью вайбкода.
Советую глянуть, полезное видео чтобы не остаться на обочине профессии к концу года
Если коротко — то пока один дизайнер сидит на брейншторме раскладывает карточки, другой уже собрал прототип с помощью вайбкода.
Советую глянуть, полезное видео чтобы не остаться на обочине профессии к концу года
🔥5😁3🤮3💋1
В поисках русских корней
Существует одно понятие, которое самими западными авторами в дискурсе исследований и которое традиционно связано с именем ... а вот и скажу попозже
Речь идет главным образом о целой большой теме - дезинформации, мизинформации и других устойчивых практиках влияния на пользователей с точки зрения того, чтобы передавать им ложную информацию для эффективного достижения своих целей. И хотя тема традиционно была про медиа - вот, пожалуйста, целый лауреат премии sigchi - The Special Interest Group on Computer–Human Interaction (SIGCHI) за академический вклад, знакомьтесь, Кейт Старбёрд, в прошлом баскетболистка и профессор в университете Вашингтона Human Centered Design & Engineering (HCDE)
https://faculty.washington.edu/kstarbi/publications.html
Основной ее тезис такой: стратегическая дезинформация (пропаганда, манипуляции) работает не в одиночку, а через сети участников: оплачиваемые операторы + идеологические союзники + ничего не подозревающие пользователи, которые ретвитят/делятся. Идея заключается в том, что бороться надо не с агентами вражеских разведок, а с теми, кто ретвитит новости. Слухи возникают в информационных пустотах кризисов — они заполняют пробелы, когда официальной информации мало или она запаздывает, поэтому реальной борьбой оказывается быстрое создание официальной информации. Все это вообще часть отдельной большой темы - Crisis Informatics - изучение использования информации и технологий на этапах подготовки, смягчения последствий, реагирования и восстановления после стихийных бедствий и других чрезвычайных ситуаций.
Ну, естественно, критиковала Трампа, говорила, что правые республиканцы создают фейки, что выборы не украли, за что получила повестку в конгресс давать показания https://www.theguardian.com/us-news/2024/jan/01/misinformation-trends-2024-election-right-wing
Это все к чему, и немного возвращаясь к началу: традиционным автором и изобретателем идеи дезинформации как организованной работы в историческом англоязычном дискурсе считали Сталина - это, конечно, миф, но имеющий под собой почву в виде советизма, которым обозначали отделы НКВД. Сталин как важная фигура в истории русского UX
Существует одно понятие, которое самими западными авторами в дискурсе исследований и которое традиционно связано с именем ... а вот и скажу попозже
Речь идет главным образом о целой большой теме - дезинформации, мизинформации и других устойчивых практиках влияния на пользователей с точки зрения того, чтобы передавать им ложную информацию для эффективного достижения своих целей. И хотя тема традиционно была про медиа - вот, пожалуйста, целый лауреат премии sigchi - The Special Interest Group on Computer–Human Interaction (SIGCHI) за академический вклад, знакомьтесь, Кейт Старбёрд, в прошлом баскетболистка и профессор в университете Вашингтона Human Centered Design & Engineering (HCDE)
https://faculty.washington.edu/kstarbi/publications.html
Основной ее тезис такой: стратегическая дезинформация (пропаганда, манипуляции) работает не в одиночку, а через сети участников: оплачиваемые операторы + идеологические союзники + ничего не подозревающие пользователи, которые ретвитят/делятся. Идея заключается в том, что бороться надо не с агентами вражеских разведок, а с теми, кто ретвитит новости. Слухи возникают в информационных пустотах кризисов — они заполняют пробелы, когда официальной информации мало или она запаздывает, поэтому реальной борьбой оказывается быстрое создание официальной информации. Все это вообще часть отдельной большой темы - Crisis Informatics - изучение использования информации и технологий на этапах подготовки, смягчения последствий, реагирования и восстановления после стихийных бедствий и других чрезвычайных ситуаций.
Ну, естественно, критиковала Трампа, говорила, что правые республиканцы создают фейки, что выборы не украли, за что получила повестку в конгресс давать показания https://www.theguardian.com/us-news/2024/jan/01/misinformation-trends-2024-election-right-wing
Это все к чему, и немного возвращаясь к началу: традиционным автором и изобретателем идеи дезинформации как организованной работы в историческом англоязычном дискурсе считали Сталина - это, конечно, миф, но имеющий под собой почву в виде советизма, которым обозначали отделы НКВД. Сталин как важная фигура в истории русского UX
Human Centered Design & Engineering
HCDE faculty honored with prestigious ACM SIGCHI Awards
HCDE Professor Kate Starbird is joining the esteemed ranks of the ACM SIGCHI Academy, and Professors Cecilia Aragon and Nadya Peek are honored with ACM SIGCHI Special Recognition. These awards celebrate their remarkable contributions to Human-Computer Interaction…
✍2❤2👏1🤔1