optorepost
407 subscribers
19 photos
5 videos
136 links
@optozorax_dev рассказывает про очередную интересную штуку, которую откопал в интернете. Скорее всего на английском! Простите, кто не понимает английский(
Download Telegram
Самораскрывающийся механизм. Примерно таким занимается профессиональный математик в своё свободное (или рабочее 🤔) время.

Очень хорошее объяснение, в качестве объяснений используются физически распечатанные детали вместо анимаций на компьютере, это такой жирный флекс конечно.

https://youtu.be/iWknov3Xpts
👍83
Мороженое в форме песка... В этом видео чувак смог сделать такое. Ещё в начале рассказывается информация про то как делается мороженое, что тоже очень интересно, я об этом не знал!

Вспомнил что в детстве покупал Растишку со специальной ложечкой, вставлял ложечку туда и замораживал и получал мороженое. После этого видео понимаю что получалось не совсем хорошее мороженое (ибо были кристаллы льда).

https://youtu.be/LWBdKPkU4rE
🍓4🔥1
У ТехноШамана вышло новое видео, и в нём упор делается на биологию и популяризацию науки. Он закопался в то как реальные организмы развиваются из эмбриона и очень интересно рассказал об этом, попутно приводя примеры из своей симуляции, которую тоже адаптировал под такое размножение.

Я узнал из этого видео много нового, и это несмотря на то, что я посмотрел все лекции Маркова про эволюцию (где в том числе такие темы тоже затрагивались).

https://youtu.be/Pp1y8FpifSE
7🔥3👍1
Хорошая статья про ограничения LLM.

"LLM пытаются реконструировать мозг человека через тень, которую он отбрасывает на интернет" - очень классная формулировка из статьи.

https://sergeylevine.substack.com/p/language-models-in-platos-cave
👍75
Очень хорошее видео про настольную игру для двух игроков, на которую недавно у меня появилась небольшая одержимость.

Анимации прям крутые, и правила объясняются быстро и визуально.

Вышло всего 30 минут назад и пока что там только 12 просмотров, так что бегом смотреть.

https://youtu.be/-_CT8cgOR5Q
7🙏2🔥1
Видео о том как сделать шестерёнку с математической точки зрения. Очень красивый метод, который использует математический анализ.

https://youtu.be/eG-z-791_ak
5
У вас есть камера с разрешением 1 пиксель, которая смотрит на белую стену рядом с объектом, который вы хотите сфотографировать. Вы можете только освещать объект. Возможно ли получить его изображение? Да! Для этого нужно всего-лишь...

https://youtu.be/dMH6VUs5u8k
👍54😁2
Please open Telegram to view this post
VIEW IN TELEGRAM
optorepost
Если есть годная рекомендация, можете скидывать в директ канала
👍9
Все мы любим фракталы, а ещё мы любим двойные маятники. А может вам интересно как будет выглядеть не просто фрактал двойного маятника, а фрактал СТАБИЛЬНОСТИ двойного маятника? А что если там есть островки стабильности? Как они выглядят? Данное видео именно про это.

https://youtu.be/dtjb2OhEQcU
👍8🤩31🔥1
Посмотрел это видео 2 раза чтобы лучше понять мысль. Интересная критика современного мира о том как всё стало удобно и как это разрушает нашу связь с обществом и с миром вообще.

Конечно, заказывать еду домой удобно, но если не заказывать, а выйти на улицу и дойти пешком, то может это будет более богатый опыт? Хотя бы траву потрогаешь. Можно сэкономить время? А на что? Чтобы эти 40 минут посидеть в тиктоке или ютубчике?...

Я раньше обо всём этом не задумывался...

https://youtu.be/o4OOLmvjzjs
🤔7🤓3👍1🔥1
Отличное видео про судьбу математика, придумавшего геометрию, названного его именем (иначе называется: гиперболическая геометрия).

Больше всего мне понравилось: как Лобачевского никто не понял, НО Гаусс сказал что готов выучить русский язык только чтобы прочитать труды Лобачевского. Я столько эмоций испытал в этот момент. И круто и грустно, что его никто не понял, но хоть кто-то смог осознать его гения. Я тоже недавно столкнулся с этим, когда встретил 4D китайца, про которого писал в своём основном канале, который сделал гениальнейшую программу по визуализации 4D и написал кучу 4D статей. Его НИКТО не понял и не принял. И вот я нашёл его работу и сразу оценил её по достоинству и начал переводить итд. Я, конечно, не Гаусс, но очень классно что я прошёл через подобные эмоции, я очень переживал в процессе за Лобачевского, как не переживал ни за одного героя фильма. Жаль что у него такая печальная судьба :(((.

https://youtu.be/MmY37HxCsVQ
210🔥7
Слышали про эксперимент когда наводят камеру на пакет с чипсами и восстанавливают звук по микродвижениям упаковки? Это видео про все такие жёсткие способы получения данных и прослушки. После него как-то тревожно оттого насколько просто тебя прослушать чтобы ты даже ничего не подозревал...

https://youtu.be/KC9iFo40v2Y
👍8😱1
Видео про AlphaGeometry (модель, решающая олимпиадные задачи по геометрии). Упор делается на историческое развитие подходов к автоматическому решению геометрических задач с помощью компьютера. Как эти подходы развивались, и как они достигли вершин с приходом DeepMind и LLM.

https://youtu.be/4NlrfOl0l8U
👍4🔥42🤨1
У вас есть выбор:
* Получить 1M$ прям щас
* Получить 1B$ с шансом 1/500

Второй в среднем в 2 раза выгоднее, но почему вы скорее всего выберите первый вариант? Данное видео объясняет это с математической точки зрения.

https://youtu.be/o-ovbHxSmuk
4
Ключевые различия между мозгом и LLM

В последнее время я довольно часто вижу споры о сходстве ИИ с биологическим мозгом, порой подогреваемые научно-популярными пересказами статей про "удивительные параллели между мозгом и нейросетями". Однако, без понимания основ того, чем биологический мозг и искусственная нейросеть принципиально отличаются друг от друга, невозможно трезво судить и о том, в чём они действительно похожи. Конечно, для многих читателей эти основы хорошо известны, но, учитывая разнообразие аудитории, думаю, кому-то их разбор будет полезен.

1️⃣ Биологический нейрон - это полноценная живая клетка, которая обрабатывает и передаёт информацию с помощью сложных биохимических процессов. В отличие от нее, искусственный "нейрон" в LLM реализует простую математическую операцию: на вход он принимает набор чисел, затем умножает каждое на свой коэффициент, складывает результаты и пропускает полученное число через функцию активации f (три популярных варианта такой функции показаны на рис. 1). В итоге, искусственный нейрон считает значение f(a₁x₁ + a₂x₂ + ... + aₙxₙ + b), где x₁, x₂, ... , xₙ - числа, пришедшие на вход и a₁, a₂, ... , aₙ, b - веса, настроенные в процессе обучения, а затем передает это значение дальше, на вход другим нейронам (см. рис. 2). Таким образом, искусственный нейрон тоже принимает и передает информацию, но делает это по простому алгоритму.
2️⃣ Работа нейронов в биологическом мозге регулируется множеством нейромедиаторов (дофамин, серотонин и др.), которые меняют их режим работы - например, заставляют их легче возбуждаться или сильнее тормозиться в зависимости от ситуации. В LLM прямых аналогов нейромедиаторов нет, хотя есть механизмы вроде dropout и layer normalization, которые в некотором смысле управляют активностью нейронов.
3️⃣ Биологические нейроны получают и посылают импульсы асинхронно, в произвольные моменты времени. Искусственные нейроны в LLM организованы в группы - слои (матрицы Query, Key, Value в механизме внимания тоже можно условно назвать "слоями"). Все элементы каждого слоя активируются одновременно - именно поэтому при обсуждении современных нейросетей чаще говорят о слоях или матрицах весов, чем об отдельных нейронах. А еще эта синхронность позволяет свести вычисления активаций к операциям над матрицами, что позволяет делать быстрые расчеты на видеокартах и NPU.
4️⃣ Биологические нейроны функционируют непрерывно, даже когда человек или животное спит. Искусственные нейроны в LLM активируются дискретно - только тогда, когда нужно сгенерировать новый токен. Если в качестве мысленного эксперимента представить у LLM наличие какой-то формы "сознания", такое "сознание" существовало бы лишь в краткие мгновения генерации токенов, исчезая между ними - что принципиально отличается от "непрерывного" сознания, которым обладает человек.
5️⃣ Биологические нейроны в мозгу способны образовывать новые синаптические связи в течение всей жизни. В LLM же архитектура связей фиксирована: каждый нейрон может получать сигналы только от заранее заданного набора предыдущих нейронов. На этапе обучения веса существующих связей (числа a₁, a₂, ... , aₙ), конечно, меняются, но новые связи самопроизвольно появиться не могут.
6️⃣ Биологический мозг учится и перестраивается непрерывно. LLM же после обучения "замораживается" - все веса фиксируются. После этого "память" LLM об общении с каждым пользователем ограничивается контекстом текущего диалога. Что касается "постоянной памяти" в ChatGPT, которая сохраняется между диалогами - по всей видимости, она хранится во внешнем хранилище, содержимое которого просто заново подаётся модели на вход при новом разговоре. Реальная интеграция новых знаний в веса ChatGPT происходит только тогда, когда OpenAI собирают достаточно новых данных, обучают на них новую версию модели и заменяют ею предыдущую.

Возможно, будущие архитектуры ИИ смогут преодолеть какие-то из перечисленных ограничений, но пока что различия фундаментальны. Это не делает сравнения искусственных и биологических нейросетей бесполезными, но заставляет быть аккуратнее с аналогиями и антропоморфизацией. #ликбез
8👍3💩1