dev optozorax
4.22K subscribers
346 photos
53 videos
10 files
275 links
По деловым предложениям: optozorax.work@gmail.com.

Связь с админом через личку канала (кнопка в канале слева снизу).

Ютуб: https://www.youtube.com/@optozorax

Сайт: optozorax.github.io
Download Telegram
Что-то давно новостей не было, давайте немного проспойлерю новую программу))

Значит это интерактивный редактор сцен, похожий на мой Portal Explorer, в котором я все 3D портальные сцены делал руками. Но в этот раз он 2D, и он сильно мощнее и лучше Portal Explorer. И он может вычислять не только такие анимации, но ещё и много чего ещё (ради чего эта программа и делалась и что пока секрет).

Я это сделал на основе системы компонентов, где каждый компонент может использовать другие компоненты, что-то типо нод в blender, но по-своему реализованное и без визуального отображения нод. И перевычисляется только то что изменилось, и у всего есть кэш. Мне невероятно нравится эта система, через неё столько классных фичей уже реализовал. Там очень много рассказывать, это заслуживает отдельного видео. Все свои будущие программы буду делать на этой системе компонентов, потому что через неё очень классно делать процедурные сцены и анимации и симуляции.

Вот например следующие две анимации отрендерил из этой сцены.

Ах да по прогрессу видео: сценарий написан, большую часть анимаций уже сделал. Надо ещё раз прогнаться по сценарию, переписать его. И остаётся самое сложное - монтаж, затем ревью, переделки итд. Сценарий вышел на 30 минут, я не представляю как я это буду монтажить 💀. Для справки - обычно у меня первая версия сценария выходит на 17 минут, и после правок разрастается на 20+ минут.
🔥7718👍7🥰4❤‍🔥2🆒2🐳1
Через пару часов сегодня начнётся лунное затмение.

Чтобы посмотреть когда в вашем городе начнётся затмение, советую открыть сайт https://www.timeanddate.com/eclipse/in/russia/moscow-city?iso=20250907. Введите в поиск ваш город и там покажет всё интерактивно и в вашем локальном времени. Так же там показывается направление луны (direction), чтобы понять будет видна луна из вашего окна или нет, можете открыть компас на телефоне и сравнить угол.

Затмение особенно хорошо будет видно в Казахстане и средней части России.

Так же советую скачать приложение Stellarium, оно показано в видео в этом посте, по нему ещё удобно посмотреть когда луна восходит из-за горизонта. Например благодаря ему я узнал что в Москве луна будет восходить изначально очень низко, поэтому стал искать локацию где будет хороший обзор именно на это направление. Оптимальная локация - парк Коломенское, а именно это место. Или например в Алмате луна будет очень высоко во время старта затмения, поэтому его можно смотреть с любой точки в городе.

Так же ТехноШаман устраивает сходку на ВДНХ в Москве в честь этого лунного затмения) Я подъеду и буду под главной аркой где-то к 19:00. Но затмение мы можем и не увидеть, из-за того что луна будет низко.
34👍7🔥5🆒2🥰1🍓1
Друзья, нужен ваш фидбэк по этому куску из моего последнего видео: https://youtube.com/clip/UgkxZnB1bqgfprNAcxXPtyQF194WKdSU-8Ps, кусочек длится всего 50с. Фидбэк нужен, так как пытаюсь понять что делать в новом сценарии.

Здесь я рассказываю про то как найти такое положение плоскостей негативного портала с математической точки зрения, чтобы они не пересекались. Показываю всякие матрицы, затем собственные числа, в общем университетский материал. Я сказал ещё "если вы не поймёте, то ничего страшного, это не очень важно".

Мне это было важно показать во-первых для себя, потому что реально мне впервые в жизни пригодились собственные числа и я хотел высказаться. И в том числе важно для коммьюнити, потому что я знаю что мои порталы воспроизводят (даже в скратче), и я нигде инфу не публикую, и это важный кусок информации.

И сейчас при написании нового сценария я столкнулся с такой же ситуацией, что мне надо не просто показать, а даже объяснить университетский материал, но я не знаю в каком формате это делать, или может вообще его выкинуть и упомянуть только вскользь без объяснений.

Поэтому вопросы:
* Вы знаете линейную алгебру, матрицы, собственные числа?
* Что вы почувствовали в этот момент времени? Честные эмоции, фрустрация, нейтральность?
* Скипали ли вы эту часть видео?
* Вам понравилось или нет? Если хотелось бы чтобы я это сделал как-то иначе, как именно?
* Ну и в общем любой фидбек по этому куску видео.

UPD: друзья, всем большое спасибо за фидбэк! 🧡 💙
42👍4🥰4🍓4🆒4
Я попал в СПИСОК... Но благо не Эпштейна, а список научно-популярных каналов от SciTopus: https://scitopus.com/youtube-list (рис. 1). Меня отнесли к разделу физика 😭😭😭. Видимо буду отдуваться за этот раздел в следующем видео...

Прикольно что есть люди, которые вот так вот следят за всем русским научпопом на ютубе и объединяют его.

Я довольно долго тыкался во все графики, очень прикольно. И вот например нашёл себя в одном из графиков (рис. 2), мой канал немного выбивается.

Так же я написал автору этого списка и через сырые данные навайбкодил (конечно же на расте) визуализацию хитмапа всех видео по их длительности и просмотрам (рис. 3). Здесь чётко выделяются два вида видео: видео до 1 минуты (вероятно это шортсы) и видео длиной около 100 минут (как вы думаете что это такое и почему их так много?). Ответ будет в комментариях.

Так же в комментарии приложу ещё несколько своих исследований и других подобных графиков.

А если вам интересно следить за всеми русскоязычными научно-популярными видео из этого списка, то можете заценить канал: @SciTopus. Например, последний пост там про видео от Онигири.
1👍74🔥3512❤‍🔥7🥰4😭3🆒3🤯2🍓1
Forwarded from Onigiri
Так как там можно генерировать других пользователей, оптозоракс сгенерировал, как я ем его аватарку, получилось это😅

Перед этим я как раз переснял себя с нормальным звуком и светом, и теперь совпадение почти идеальное
1❤‍🔥71🔥18😁15🤣9👀21👍1🥰1😱1🆒1
Оказывается в Sora 2 можно загонять очень длинные тексты 🤔. И я взял все сценарии всех моих видео (на разных языках) и решил посмотреть что получится. Местами выглядит довольно неплохо. Причём прикольно что оно берёт элементы не только из начала сценария, но из середины и конца. А как вам?

И это всё генерит слабенькая модель для юзеров. Интересно, что будет если дать мои сценарии самой мощной модели, которой пользуются сами OpenAI 🤔
55🔥21👍9🥴6💩5👎4🤪4🆒3🥰1😁1🤨1
Зацените как я себе улучшил монтажную жизнь. Теперь у меня текст фраз пишется прямо в программе для монтажа!!! Я вот только только пару часов монтажу с этой фичей, но уже понимаю что она увеличила удобство монтажа в 100 раз.

Сделал я это следующим образом: беру аудио и собираю его транскрипцию через whisper (скрипт написал через ChatGPT) и сохраняю в json файлик. Затем в Davinci Resolve вызываю другой скрипт (тоже написанный через ChatGPT), который берёт этот json и меняет название у фраз на то, какой текст под ними находится.

Да, я описал это очень просто, но под этим описанием столько подводных камней лежит, вы не представляете. Whisper невероятно криво работает, и я наверное натолкнулся на все возможные грабли:
* Не смог установить нужные cuda дрова, послал всех в жопу, запускаю на процессоре.
* Неправильно вычисляет тайминги слова, захватывает паузу до следующей фразы (никак не чинится).
* Автоматически удаляет неудачные дубли из текста, а они мне нужны чтобы удалить их в виде аудио. Не чинится вообще никак, даже другие модели такой фигнёй занимаются.
* Галлюцинирует в конце фразы "подписывайтесь и ставьте лайки", или "субтитры добавил DimaTorzok".

Кстати, это не всё что я улучшил в своей работе с аудио.

Раньше я вырезал вот эти мелкие фразы РУКАМИ. И тратил на это часы и миллионы нервных клеток. Теперь же я нашёл софтину под названием ReCut, которая делает это автоматически и сохраняет в виде таймлайна.

Затем я использую скрипт на python (опять же написанный ChatGPT), который вставляет вот эти бежевые паузы между каждой фразой, чтобы не подбирать паузы на глаз.

И кстати раскраска вот этих пауз тоже делается через отдельный скрипт в Davinci Resolve. Не спрашивайте кто этот скрипт написал.

В общем если раньше обработка аудио была страшным страданием, то теперь большую часть этого страдания я автоматизировал, чему безмерно рад.

А ещё безмерно рад существованию нейронок, потому что без них я бы все эти говноскрипты на говнопитоне с говноапишкой никогда бы не стал своими руками писать. Я послал ChatGPT гуглить подробности апишки Davinci Resolve, когда что-то не работает и все страдания перекладываются на неё.

Когда разберусь с новым видео, хочу создать второй канал и выложить видео об этой моей системе обработки аудио, чтобы каждый мог пользоваться.
🔥9829👍19🤡3🆒3🥰2🤮1
Я попробовал программирующего агента Codex от OpenAI и он впечатляет.

У меня в дискорде очень много просили добавить новую фичу в Portal Explorer - чтобы можно было дублировать объект/матрицу итд.

К сожалению это нетривиальная фича, потому что каждый объект может ссылаться на матрицу не только по имени, но и иметь свою встроенную матрицу без имени. И проблема в том что эта встроенная матрица хранится во внешнем хранилище матриц, и при простом дублировании объекта он и его копия будут ссылаться на одну матрицу по её айдишнику, и в интерфейсе это будет выглядеть как одна матрица меняется из двух мест. А хочется чтобы было две независимые матрицы. То есть нужно делать рекурсивное копирование, и каждый раз обращаться к правильному хранилищу, ибо есть не только матрицы такие...

И сделать это геморройно, потому что у меня не самая удобная архитектура, и вообще там довольно кривоватый код (я тогда его изобретал впервые, и не знал как лучше), тестов конечно же нет, ибо всё визуальное.

Я открещивался от этой фичи, говорил что очень очень геморройно, не хочу её делать.

Но сегодня я установил Codex CLI - это официальная программа от OpenAI, которая под капотом вызывает GPT-5 особым образом, чтобы та могла модифицировать код в твоём репозитории на твоём компе, запускать, проверять компиляцию тесты итд, то есть итеративно работать. И далее попросил его сделать эту фичу. Совсем немного описал проблематику.

Спустя 4 минуты он прочитал весь необходимый код и составил план. Я особо не вчитывался и говорю: ну действуй, я не знаю.

Спустя другие 4 минуты он реализовал этот код. Я прихожу, запускаю, проверяю фичу и оно работает с первого раза...

Честно, я офигел что этот Codex смог разобраться в моей кривой архитектуре, без тестов, без документации. И реализовал нетривиальную фичу которая работает с первого раза...

Кто хочет посмотреть на код и промт, добро пожаловать сюда: https://github.com/optozorax/portal/commit/69fbbfb926b446040ef48af8f08742ce091a8a81

Мы реально в будущем, друзья.
82🔥21👍9🤯9😭5💔2❤‍🔥1🥰1🆒1
Ещё более впечатляющие способности Codex.

В последнее время я стал его очень активно использовать в своей новой программе (/818) для кодинга относительно простых или сложных фич. Меня каждый раз поражает как он способен с нуля разбираться в моей кодовой базе (хоть в этот раз она намного лучше Portal Explorer).

Поэтому я решил натравить его на чужую кодовую базу. В Audacity есть одна фича, которая очень бесит: когда двигаешь мышкой с зажатой левой клавишей по таймлайну, то начинает строиться какая-то петля, и она проигрывается. Очень бесит, потому что в программах для монтажа точно такое же действие просто проигрывает аудио со скоростью движения мыши. И причём в audacity выключить текущее поведение нельзя, петля всегда будет создаваться. А я хочу чтобы менялась голова текущего положения на таймлайне (про проигрывание молчу, видимо это слишком сложно сделать).

Так как у Audacity открытый исходный код, я решил попробовать изменить это поведение. Создаю пустую папку и говорю codex'у склонировать этот репозиторий, затем заставить его компилироваться, и затем сделать эту фичу. Описал фичу только высокоуровнево, я даже не смотрел на этот код.

Он долго пыхтел, но кое-как заставил это компилироваться (что уже бесконечно полезно для любого человека, кто контрибьютит в опен-сорс, не надо тратить на это целый день), а затем сделал фичу, изменив один файлик.

Я просто пушу коммит в github, и там запускается автоматическая сборка бинаря для винды через CI (а codex у меня живёт под WSL). Я жду её, скачиваю, и вижу что в целом фича работает как нужно, но петля всё ещё создаётся. Я предложил кодексу вообще нафиг удалить её, так как мне она не нужна.

Он сделал, и на вторую итерацию я имею бинарь audacity, который имеет нужный мне функционал. И я даже ни разу не смотрел на код, только высокоуровнево описывал что нужно сделать.

Лично у меня просто на компиляцию ушёл бы может день или несколько часов, а затем на то чтобы разобраться в чужой огромнейшей кодовой базе не меньше. И ещё думать как добавить туда фичу. А эта нейронка видимо воспринимает код как свою вторую натуру, она видит стену текста и сразу понимает кучу связей в ней, за счёт чего может выплёвывать куски кода очень быстро и легко.

И это меня и поражает. Сейчас каждый способен немного изменить почти любой open-source софт под себя просто используя этого агента. И это только в 2025, я не могу представить что будет через 5-10 лет...

Если кому интересно, то вот список коммитов что сделал codex: https://github.com/optozorax/audacity/commits/audacity3/
👍64🔥1914🥰2👏1😁1🤡1🆒1💊1
This media is not supported in your browser
VIEW IN TELEGRAM
А вот так выглядит четырёхмерная фигура под названием 120-cell.

Это аналог нашего трёхмерного додекаэдра, который состоит из пятиугольников. Только эта фигура состоит из 120 додекаэдров.
3🔥10113👍7🥰5🤯5😱4🆒3💘2
dev optozorax
Вышла новая версия Gemini, которая умеет генерить картинки прямо в виде токенов, нативно (ну то есть одна модель понимает картинку и генерит картинку, а не как у OpenAI, когда ChatGPT пишет промт для Dalle) (инфа). Ну и я попросил её сгенерировать что будет…
Тестирую на новой Nano Banana Pro, которая вышла буквально вчера. Это самая мощная модель для генерации картинок в мире. Подаю всё точно так же. И она пока тоже не справляется. Вот 5 разных генераций.
❤‍🔥51👍7🔥7🥰21🆒1💘1