This media is not supported in your browser
VIEW IN TELEGRAM
Показываю прототипы проекта, который постепенно развивается из моих псевдо-4д экспериментов.
Загружаем много-много картинок (десятки тысяч), размечаем их, даём возможность группировать (пока по цвету, дате, а вообще легко — по объектам, сюжетам, ).
«Летаем» между ними в очень странном пространстве, сразу же над десятками тысяч датапойнтов — не обязательно картинок: текстов, схем.
Как минимум арт-проекты в таком пространстве собирать интересно.
На моей лаборатории, которая стартует на следующей неделе, отдельный модуль посвящу экспериментальным интерфейсам: с голосовым управлением, с управлением жестами, новыми устройствами ввода вроде EMG wristband
#3d@toolusing #3d@toolusing #ux@toolusing #experimentalux@toolusing
Загружаем много-много картинок (десятки тысяч), размечаем их, даём возможность группировать (пока по цвету, дате, а вообще легко — по объектам, сюжетам, ).
«Летаем» между ними в очень странном пространстве, сразу же над десятками тысяч датапойнтов — не обязательно картинок: текстов, схем.
Как минимум арт-проекты в таком пространстве собирать интересно.
На моей лаборатории, которая стартует на следующей неделе, отдельный модуль посвящу экспериментальным интерфейсам: с голосовым управлением, с управлением жестами, новыми устройствами ввода вроде EMG wristband
#3d@toolusing #3d@toolusing #ux@toolusing #experimentalux@toolusing
Как вы успели заметить, меня очень интересуют интерфейсы. Я уверен, что мы застряли в устаревших парадигмах (привет, Xerox Alto! вы задумывались, что WYSIWYG-режиму — уже больше полувека?), а устройства ввода не меняются десятилетиями. Взаимодействия с технологией может быть куда более человечным, от него не обязана болеть спина и портиться зрение.
Поэтому очень любопытно было посмотреть, увы, пока только на видео, на демо генеративного интерфейса от компании Anthropic — всё-таки это серьезный сдвиг парадигмы (хоть и собранный из привычных кубиков WIPM: windows, icons, menus, pointers).
https://www.youtube.com/watch?v=dGiqrsv530Y
То самое software 3.0, которое пишется на лету, под ваш запрос и из вашего контекста.
Любопытный эксперимент, который руки чешутся реплицировать. У такого UX есть любопытные побочные эффекты — например, обучить такому софту человека очень сложно, ведь он разный каждый раз, ещё и персонализирован!
И тут у меня огромный вопрос — как вообще понять, что такое оптимальное software? Если культурно-детерминированные и генетические особенности восприятия, физические ограничения и многие другие параметры у нас разные? Кто задает эти стандарты, на которых учится модель?
Я экспериментирую с самыми дикими репрезентациями данных, всерез пересматриваю Minority Report — сейчас, с новым EMG wristband компании Meta, их вполне возможно реализовать (хотя и не факт, что это будет удобно).
Уверен, что в области HCI (human-computer interaction) может быть много относительно быстрых побед. Модели уже сейчас могут тестировать интерактивные интерфейсы, оценивать и классифицировать изображения, а значит могут генерировать новые интерфейсы и находить новые UX решения, или оптимизировать существующие.
К тому же самим моделям существующие интерфейсы могут оказаться в долгосрочной перспективе не самыми эффективными, и конструировать новые интерфейсы (как API, так графические) тоже может быть задачей агентов.
(И, раз уже мы говорим про интерфейсы: Figma — одна из первых компаний, которая анонсировала сотрудничество с Anthropic и работу с новой Sonnet 4.5, тут можно посмотреть подробности в часовом эфире)
#ux@toolusing #generativeui@toolusing #gesture@toolusing #experimentalux@toolusing
Поэтому очень любопытно было посмотреть, увы, пока только на видео, на демо генеративного интерфейса от компании Anthropic — всё-таки это серьезный сдвиг парадигмы (хоть и собранный из привычных кубиков WIPM: windows, icons, menus, pointers).
https://www.youtube.com/watch?v=dGiqrsv530Y
То самое software 3.0, которое пишется на лету, под ваш запрос и из вашего контекста.
Любопытный эксперимент, который руки чешутся реплицировать. У такого UX есть любопытные побочные эффекты — например, обучить такому софту человека очень сложно, ведь он разный каждый раз, ещё и персонализирован!
И тут у меня огромный вопрос — как вообще понять, что такое оптимальное software? Если культурно-детерминированные и генетические особенности восприятия, физические ограничения и многие другие параметры у нас разные? Кто задает эти стандарты, на которых учится модель?
Я экспериментирую с самыми дикими репрезентациями данных, всерез пересматриваю Minority Report — сейчас, с новым EMG wristband компании Meta, их вполне возможно реализовать (хотя и не факт, что это будет удобно).
Уверен, что в области HCI (human-computer interaction) может быть много относительно быстрых побед. Модели уже сейчас могут тестировать интерактивные интерфейсы, оценивать и классифицировать изображения, а значит могут генерировать новые интерфейсы и находить новые UX решения, или оптимизировать существующие.
К тому же самим моделям существующие интерфейсы могут оказаться в долгосрочной перспективе не самыми эффективными, и конструировать новые интерфейсы (как API, так графические) тоже может быть задачей агентов.
(И, раз уже мы говорим про интерфейсы: Figma — одна из первых компаний, которая анонсировала сотрудничество с Anthropic и работу с новой Sonnet 4.5, тут можно посмотреть подробности в часовом эфире)
#ux@toolusing #generativeui@toolusing #gesture@toolusing #experimentalux@toolusing
YouTube
An experimental new way to design software
We’ve been experimenting with a new way to generate software. In this research preview, Claude builds whatever you can imagine, on the fly, without writing any code first. What you see is Claude creating software in real time, responding and adapting to your…
❤1⚡1🔥1