Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
❤145🔥54👍32🤯4🏆2👨💻1
Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️ В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции…
Но самое прекрасное в новом подходе из поста выше – это установка 😍
P.S. За мем спасибо нашему чату🤍
P.S. За мем спасибо нашему чату
Please open Telegram to view this post
VIEW IN TELEGRAM
😁145🔥19😍10🙈4👍2❤1🕊1🏆1😎1
Data Secrets
iPhone? – прошлый век. Встречайте: AiPhone! Такое изобретение показали на выставке CES 2024. В его основе – Rabbit OS на голосовом управлении, которая сама рулит всеми программами: может заказать еду, вызвать такси и еще много всего. Что-то вроде супер-умной…
История про гениев маркетинга 😂
Помните тот милый оранжевый девайс Rabbit R1 с ИИ? Напоминаем: это что-то вроде супер-умной карманной голосовой станции. В его основе – Rabbit OS на голосовом управлении, которая сама рулит всеми программами: может заказать еду, вызвать такси и еще много всего.
Так вот. Когда создатели рассказывали про изобретение три месяца назад, они утверждали, что операционка Rabbit OS уникальна, такой вообще нигде нет и в ней сила. Тогда даже никому не пришло в голову проверить.
А сейчас выяснилось, что никакой уникальности нет. Милый кролик основан на немного подшаманеной Android. Это означает, что систему можно установить на смартфон, и функционировать она при этом будет точно так же.
Вот такой анекдот.
Помните тот милый оранжевый девайс Rabbit R1 с ИИ? Напоминаем: это что-то вроде супер-умной карманной голосовой станции. В его основе – Rabbit OS на голосовом управлении, которая сама рулит всеми программами: может заказать еду, вызвать такси и еще много всего.
Так вот. Когда создатели рассказывали про изобретение три месяца назад, они утверждали, что операционка Rabbit OS уникальна, такой вообще нигде нет и в ней сила. Тогда даже никому не пришло в голову проверить.
А сейчас выяснилось, что никакой уникальности нет. Милый кролик основан на немного подшаманеной Android. Это означает, что систему можно установить на смартфон, и функционировать она при этом будет точно так же.
Вот такой анекдот.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁63👍13❤8🤯2🍌1🤓1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман: «GPT-4 это самая глупая из моделей, которую вам предстоит использовать».
Такой нескончаемый хайп вокруг новых моделей OpenAI кончится либо тем, что GPT-5 будет шокирующе хороша, либо тем, что словам Альтмана больше никто не поверит.
Надеемся на первый вариант
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76❤18🔥7🤔6👀5
Привет всем тем, кто хотел поглубже познакомиться с новым хайповым KAN, но осилить статью на 50 страниц с формулами не сумел
Для вас, любимые подписчики, мы менее чем за сутки с момента выхода статьи написали на нее обзор! В нем вы найдете:
– Легкое и непринужденное объяснение теоремы Колмогорова-Арнольда
– Ответ на вопрос «а почему до этого раньше никто не додумался?»
– Объяснение архитектуры KAN на пальцах
– Сравнение KAN с перцептроном
– Туториал по запуску KAN из коробки на Python
Прочитать разбор можно на нашем сайте: https://datasecrets.ru/articles/9
Для вас, любимые подписчики, мы менее чем за сутки с момента выхода статьи написали на нее обзор! В нем вы найдете:
– Легкое и непринужденное объяснение теоремы Колмогорова-Арнольда
– Ответ на вопрос «а почему до этого раньше никто не додумался?»
– Объяснение архитектуры KAN на пальцах
– Сравнение KAN с перцептроном
– Туториал по запуску KAN из коробки на Python
Прочитать разбор можно на нашем сайте: https://datasecrets.ru/articles/9
🔥124❤26👍17🤯7😎3🗿2
Да, мы запускаем сайт Data Secrets!
Там мы будем публиковать еще больше новостей, статей, разборов, полезных материалов, туториалов... В общем, все, что только может быть нужно Data Scientist'у.
Для нас это большой шаг в развитии проекта. Мы надеемся, что теперь будем вносить еще больший вклад в сообщество.
В знак поддержки принимаются 🔥
Там мы будем публиковать еще больше новостей, статей, разборов, полезных материалов, туториалов... В общем, все, что только может быть нужно Data Scientist'у.
Для нас это большой шаг в развитии проекта. Мы надеемся, что теперь будем вносить еще больший вклад в сообщество.
В знак поддержки принимаются 🔥
🔥649❤37👍23🤯12🗿10🤨7👏2🐳2😨2🎄2
OpenAI, возможно, скоро выйдут на рынок с собственным поисковиком. Работать будет на основе GPT, конечно же. Движок будет анализировать источники, уточнять информацию и составлять на основе всего это суммаризированный ответ.
Такой опыт для OpenAI не первый. Прошлым летом они уже внедрили в своего бота ответ на базе поиска в Bing, то есть полноценный сёрчер станет просто расширением уже существующей технологии.
Сочувствуем акциям Google
Такой опыт для OpenAI не первый. Прошлым летом они уже внедрили в своего бота ответ на базе поиска в Bing, то есть полноценный сёрчер станет просто расширением уже существующей технологии.
Сочувствуем акциям Google
datasecrets.ru
OpenAI разрабатывает поисковик | Data Secrets
Новый сервис от создателей ChatGPT может стать прямым конкурентом Google. Как оказалось, OpenAI уже даже выкупила домен search.openai.com.
👍52❤9🔥8🤯5🦄2
Как собрать свой GPU с нуля за две недели, не имея никакого опыта:
Если вы подумали, что мы сошли с ума, то (пока еще) нет. Это реальная история инженера по имени Адам Маджмудар. Он действительно с нуля, без опыта проектирования GPU, за две недели разработал мини-видеокарту.
Полное описание всех этапов разработки можно найти в репозитории или в треде на X.
Вы знаете, что делать.
Шаг 1: Изучить фундаментальную теорию устройства GPU
Шаг 2: Разработать собственную архитектуру GPU
Шаг 3: Написать собственный низкоуровневый язык для своей GPU
Шаг 4: Написать на этом языке два мат.ядра
Шаг 5: Забилдить GPU в Verilog и запустить ядра
Шаг 6: Спроектировать микросхему и верифицировать ее в OpenLane EDA
Шаг 7: Вы великолепны
Если вы подумали, что мы сошли с ума, то (пока еще) нет. Это реальная история инженера по имени Адам Маджмудар. Он действительно с нуля, без опыта проектирования GPU, за две недели разработал мини-видеокарту.
Полное описание всех этапов разработки можно найти в репозитории или в треде на X.
Вы знаете, что делать.
😁76🔥30🤯19👍15❤10🍌3
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший подарок другу дата сайентисту
Это👆 доска Гальтона. Она состоит из набора штырьков, о которые случайно отталкиваются засыпанные сверху мелкие шарики. Каждое столкновение шарика со штыком – это испытание Бернулли (отлетит влево или вправо).
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
Это
Симметричное построение доски Гальтона обеспечивает удивительное: при достаточно небольшом количестве рядов препятствий биномиальное распределение в соответствии с центральной предельной теоремой становится нормальным гауссовским колоколом.
Случайности не случайны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥140👍21🤯14❤9🤔2
Помните, недавно в США образовался новый совет по безопасности использовании ИИ, в котором нет ни одного человека из опенсорса? Туда пригласили представителей OpenAI, Microsoft, Nvidia, Adobe, IBM, владельцев мелких авиалиний (?) и еще много-много мало относящихся к ИИ людей. А вот Цукерберга, Лекуна и Маска на фан-встречу не позвали.
Случайность? Вряд ли. Буквально на днях по Твиттеру разлетелась схема, которую нарисовал один влиятельный дядя инвестор. По его мнению это то, что на самом деле происходит за кулисами спектакля «регуляризация ИИ».
Именно так крупные игроки сосредотачивают власть над технологией в своих руках и, что главное, избавляются от опенсорс конкурентов. А от реальной регуляризации тут одно слово.
Случайность? Вряд ли. Буквально на днях по Твиттеру разлетелась схема, которую нарисовал один влиятельный дядя инвестор. По его мнению это то, что на самом деле происходит за кулисами спектакля «регуляризация ИИ».
Именно так крупные игроки сосредотачивают власть над технологией в своих руках и, что главное, избавляются от опенсорс конкурентов. А от реальной регуляризации тут одно слово.
🤔75👍22❤8🤨4🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ваш вариант в комментарии 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁70❤11👍7🔥2
Data Secrets
MT-bench и почему это важно Последнее время при сравнении разных LLM все в основном доверяют Chat Arena, хотя оценивание LLM там происходит не по метрикам, а просто на основе слепого голосования людей. А что, по метрикам теперь уже не модно? Да, не модно…
Недавно мы с вами обсуждали MT-bench – бенчмарк, который напрямую коррелирует с результатами моделей на LMSYS Arena. Однако, как замена оценки на основе человеческих мнений от все же не идеален.
В связи с этим создатели арены решили создать что-то посвежее – и выкатили Arena Hard v.0.1. Этот бенчмарк тоже проверяет способность модели вести сознательный диалог, но делает это качественнее.
В частности, его ответы почти в три раза чаще, чем у MT-bench, мэтчатся с тем, что предпочитают люди на самом деле. Оказалось, с его помощью можно отсортировать модели гораздо точнее, и получится с приемлемой погрешностью примерно так же, как это делает человеческое голосование.
Но это не все. Создатели арены запустили конкурс на Kaggle "Chatbot Arena Human Preference Predictions". Участникам нужно создать модель, которая будет предсказывать, какой ответ из нескольких, данных разными LLM, будет предпочтен человеком.
Призовой фонд – $100тыс. Можно внести мощный вклад в оценивание LLM и неплохо заработать. Любителям RL точно стоит попробовать.
В связи с этим создатели арены решили создать что-то посвежее – и выкатили Arena Hard v.0.1. Этот бенчмарк тоже проверяет способность модели вести сознательный диалог, но делает это качественнее.
В частности, его ответы почти в три раза чаще, чем у MT-bench, мэтчатся с тем, что предпочитают люди на самом деле. Оказалось, с его помощью можно отсортировать модели гораздо точнее, и получится с приемлемой погрешностью примерно так же, как это делает человеческое голосование.
Но это не все. Создатели арены запустили конкурс на Kaggle "Chatbot Arena Human Preference Predictions". Участникам нужно создать модель, которая будет предсказывать, какой ответ из нескольких, данных разными LLM, будет предпочтен человеком.
Призовой фонд – $100тыс. Можно внести мощный вклад в оценивание LLM и неплохо заработать. Любителям RL точно стоит попробовать.
👍28🔥11❤6