Эта штука не функционирует по принципам 3д-пространства, а в 2д пытается представить 4д-пространство. Для тебя как для пользователя появляется очень новый опыт эмуляции конструкции, которая в твоём мире невозможна. Она реагирует на привычные движения совершенно непривычным образом, а в этих пространствах можно располагать и реконфигурировать относительно друг друга объекты огромным количеством образов. Это как будто у вас есть memory palace, только он постоянно перестраивается, как гиперкуб, и оказаться в одном и том же пространстве довольно затруднительно, хоть и не невозможно.
Мы можем строить такие странные графы на лету — на этих картинках весь граф создан полностью внутри этой среды из запросов в gpt-5-nano и поиск по картинкам. Я добавил поддержку изображений — теперь это 4д-пространство может быть наполнено, к примеру, фотографиями, которые можно сортировать, объединять, группировать с помощью llm и более простых инструментов в духе alexnet.
Подобная среда могла бы стать красивым дополнением к учебной программе — ноды могут содержать полноценные статьи или промты для агентов.
#experimentalux@toolusing #vibecoding #3d@toolusing #4d@toolusing
Мы можем строить такие странные графы на лету — на этих картинках весь граф создан полностью внутри этой среды из запросов в gpt-5-nano и поиск по картинкам. Я добавил поддержку изображений — теперь это 4д-пространство может быть наполнено, к примеру, фотографиями, которые можно сортировать, объединять, группировать с помощью llm и более простых инструментов в духе alexnet.
Подобная среда могла бы стать красивым дополнением к учебной программе — ноды могут содержать полноценные статьи или промты для агентов.
#experimentalux@toolusing #vibecoding #3d@toolusing #4d@toolusing
🔥1👏1
Эмержентность — процесс возниковение системы, которая начинает обладать свойствами, которыми не обладает ни одна из её частей в отдельности.
Птицы и рыби собираются в стаи, чтобы вместе охотиться и защищаться от хищников — стая отбивает своих эффективнее, чем один.
Когда на лету создаёшь софт, а у него возникают свои аффордансы, свои ограничения и возможности, и сразу же внутри этого софта создаешь структуру из данных — возникает как раз это самое удивительное ощущение возникновения чего-то большего. В этом видео показываю разные способы навигировать по пространству графа. Весь граф создан с помощью LLM из всего одного запроса (attachment theory). Покликав на нод, я добавляю с помощью LLM ещё 5 дочерних нодов, связанных с темой. Так, всего в 2 ключевых слова, у меня постепенно возник разветвлённый граф, в котором есть имена, термины, концепции, публикации и картинки из Гугла.
Добавил базовых инструментов анализа графа — теперь можно фильтровать и подсвечивать ноды, используя различные аналитические подходы.
Работа с таким сложным объектом подтолкнула к интересу к экспериментами с многомерными пространствами.
Даже 2.5D может быть очень эффективным и увлекательным способ огранизовывать информацию.
Представьте, что вместо папок — неограниченные слои, по которым вы можете размещать любые объекты: фото, видео, аудио, тексты, которые легко переводить из одного формата в другой.
Подобные экспериментальные интерфейсы делали уже десятки лет назад (вспомнить хотя б Surface — огромные интерактивный экран, и интерфейсы для него, которые потрясали своей инновационностью). Но сейчас, кажется, мы наконец-то можем реализовывать их сами для себя.
#emergence@toolusing #experimentalux@toolusing
Птицы и рыби собираются в стаи, чтобы вместе охотиться и защищаться от хищников — стая отбивает своих эффективнее, чем один.
Когда на лету создаёшь софт, а у него возникают свои аффордансы, свои ограничения и возможности, и сразу же внутри этого софта создаешь структуру из данных — возникает как раз это самое удивительное ощущение возникновения чего-то большего. В этом видео показываю разные способы навигировать по пространству графа. Весь граф создан с помощью LLM из всего одного запроса (attachment theory). Покликав на нод, я добавляю с помощью LLM ещё 5 дочерних нодов, связанных с темой. Так, всего в 2 ключевых слова, у меня постепенно возник разветвлённый граф, в котором есть имена, термины, концепции, публикации и картинки из Гугла.
Добавил базовых инструментов анализа графа — теперь можно фильтровать и подсвечивать ноды, используя различные аналитические подходы.
Работа с таким сложным объектом подтолкнула к интересу к экспериментами с многомерными пространствами.
Даже 2.5D может быть очень эффективным и увлекательным способ огранизовывать информацию.
Представьте, что вместо папок — неограниченные слои, по которым вы можете размещать любые объекты: фото, видео, аудио, тексты, которые легко переводить из одного формата в другой.
Подобные экспериментальные интерфейсы делали уже десятки лет назад (вспомнить хотя б Surface — огромные интерактивный экран, и интерфейсы для него, которые потрясали своей инновационностью). Но сейчас, кажется, мы наконец-то можем реализовывать их сами для себя.
#emergence@toolusing #experimentalux@toolusing
⚡4👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Показываю прототипы проекта, который постепенно развивается из моих псевдо-4д экспериментов.
Загружаем много-много картинок (десятки тысяч), размечаем их, даём возможность группировать (пока по цвету, дате, а вообще легко — по объектам, сюжетам, ).
«Летаем» между ними в очень странном пространстве, сразу же над десятками тысяч датапойнтов — не обязательно картинок: текстов, схем.
Как минимум арт-проекты в таком пространстве собирать интересно.
На моей лаборатории, которая стартует на следующей неделе, отдельный модуль посвящу экспериментальным интерфейсам: с голосовым управлением, с управлением жестами, новыми устройствами ввода вроде EMG wristband
#3d@toolusing #3d@toolusing #ux@toolusing #experimentalux@toolusing
Загружаем много-много картинок (десятки тысяч), размечаем их, даём возможность группировать (пока по цвету, дате, а вообще легко — по объектам, сюжетам, ).
«Летаем» между ними в очень странном пространстве, сразу же над десятками тысяч датапойнтов — не обязательно картинок: текстов, схем.
Как минимум арт-проекты в таком пространстве собирать интересно.
На моей лаборатории, которая стартует на следующей неделе, отдельный модуль посвящу экспериментальным интерфейсам: с голосовым управлением, с управлением жестами, новыми устройствами ввода вроде EMG wristband
#3d@toolusing #3d@toolusing #ux@toolusing #experimentalux@toolusing
Как вы успели заметить, меня очень интересуют интерфейсы. Я уверен, что мы застряли в устаревших парадигмах (привет, Xerox Alto! вы задумывались, что WYSIWYG-режиму — уже больше полувека?), а устройства ввода не меняются десятилетиями. Взаимодействия с технологией может быть куда более человечным, от него не обязана болеть спина и портиться зрение.
Поэтому очень любопытно было посмотреть, увы, пока только на видео, на демо генеративного интерфейса от компании Anthropic — всё-таки это серьезный сдвиг парадигмы (хоть и собранный из привычных кубиков WIPM: windows, icons, menus, pointers).
https://www.youtube.com/watch?v=dGiqrsv530Y
То самое software 3.0, которое пишется на лету, под ваш запрос и из вашего контекста.
Любопытный эксперимент, который руки чешутся реплицировать. У такого UX есть любопытные побочные эффекты — например, обучить такому софту человека очень сложно, ведь он разный каждый раз, ещё и персонализирован!
И тут у меня огромный вопрос — как вообще понять, что такое оптимальное software? Если культурно-детерминированные и генетические особенности восприятия, физические ограничения и многие другие параметры у нас разные? Кто задает эти стандарты, на которых учится модель?
Я экспериментирую с самыми дикими репрезентациями данных, всерез пересматриваю Minority Report — сейчас, с новым EMG wristband компании Meta, их вполне возможно реализовать (хотя и не факт, что это будет удобно).
Уверен, что в области HCI (human-computer interaction) может быть много относительно быстрых побед. Модели уже сейчас могут тестировать интерактивные интерфейсы, оценивать и классифицировать изображения, а значит могут генерировать новые интерфейсы и находить новые UX решения, или оптимизировать существующие.
К тому же самим моделям существующие интерфейсы могут оказаться в долгосрочной перспективе не самыми эффективными, и конструировать новые интерфейсы (как API, так графические) тоже может быть задачей агентов.
(И, раз уже мы говорим про интерфейсы: Figma — одна из первых компаний, которая анонсировала сотрудничество с Anthropic и работу с новой Sonnet 4.5, тут можно посмотреть подробности в часовом эфире)
#ux@toolusing #generativeui@toolusing #gesture@toolusing #experimentalux@toolusing
Поэтому очень любопытно было посмотреть, увы, пока только на видео, на демо генеративного интерфейса от компании Anthropic — всё-таки это серьезный сдвиг парадигмы (хоть и собранный из привычных кубиков WIPM: windows, icons, menus, pointers).
https://www.youtube.com/watch?v=dGiqrsv530Y
То самое software 3.0, которое пишется на лету, под ваш запрос и из вашего контекста.
Любопытный эксперимент, который руки чешутся реплицировать. У такого UX есть любопытные побочные эффекты — например, обучить такому софту человека очень сложно, ведь он разный каждый раз, ещё и персонализирован!
И тут у меня огромный вопрос — как вообще понять, что такое оптимальное software? Если культурно-детерминированные и генетические особенности восприятия, физические ограничения и многие другие параметры у нас разные? Кто задает эти стандарты, на которых учится модель?
Я экспериментирую с самыми дикими репрезентациями данных, всерез пересматриваю Minority Report — сейчас, с новым EMG wristband компании Meta, их вполне возможно реализовать (хотя и не факт, что это будет удобно).
Уверен, что в области HCI (human-computer interaction) может быть много относительно быстрых побед. Модели уже сейчас могут тестировать интерактивные интерфейсы, оценивать и классифицировать изображения, а значит могут генерировать новые интерфейсы и находить новые UX решения, или оптимизировать существующие.
К тому же самим моделям существующие интерфейсы могут оказаться в долгосрочной перспективе не самыми эффективными, и конструировать новые интерфейсы (как API, так графические) тоже может быть задачей агентов.
(И, раз уже мы говорим про интерфейсы: Figma — одна из первых компаний, которая анонсировала сотрудничество с Anthropic и работу с новой Sonnet 4.5, тут можно посмотреть подробности в часовом эфире)
#ux@toolusing #generativeui@toolusing #gesture@toolusing #experimentalux@toolusing
YouTube
An experimental new way to design software
We’ve been experimenting with a new way to generate software. In this research preview, Claude builds whatever you can imagine, on the fly, without writing any code first. What you see is Claude creating software in real time, responding and adapting to your…
❤1⚡1🔥1