Data Secrets
Новоиспеченный Нобелевский лауреат Джеффри Хинтон и его прозрачные намеки «Я горжусь тем, что один из моих студентов уволил Сэма Альтмана» – невозмутимо заявил он 😁
Media is too big
VIEW IN TELEGRAM
Кстати, история знакомства Хинтона и Суцкевера была хрестоматийной. Вот как об этом рассказывал сам Хинтон:
«Это случилось в моем кабинете, в выходные. В дверь очень нетерпеливо постучали и вошел молодой студент. Он сказал, что все лето жарил картошку фри, но теперь предпочел бы работать в моей лаборатории.
Я спросил: «Почему же ты не записался, чтобы поговорить со мной?», на что он ответил «Хорошо, могу я записаться на сейчас?». Это полностью отражает характер Ильи.
Мы поговорили и я дал ему прочитать статью про обратное распространение ошибки. Он пришел через неделю и сказал, что ничего не понял. Я был разочарован и сказал ему, что там нет ничего сложного, это просто цепочка вычислений. От ответил: «О, нет-нет, это я понял. Я не понял, почему вы не используете разумный оптимизатор для градиентов». Над этим вопросом я думал следующие несколько лет. »
👍86😁53❤16🤪5🤯1 1
Forbes: аналитики предсказали, что Microsoft выкупит OpenAI в течение трех лет
Эксперты объясняют это тем, что скоро хайп вокруг ИИ начнет спадать, и инвесторы уже не будут так щедры. Тем временем стартапам нужно будет все больше и больше денег, которых у них самих не хватит.
В итоге крупные компании, для которых ИИ имеет большую ценность (такие как Microsoft и Amazon) начнут скупать успешные стартапы вроде OpenAI и Anthropic.
Вот это поворот...
Эксперты объясняют это тем, что скоро хайп вокруг ИИ начнет спадать, и инвесторы уже не будут так щедры. Тем временем стартапам нужно будет все больше и больше денег, которых у них самих не хватит.
В итоге крупные компании, для которых ИИ имеет большую ценность (такие как Microsoft и Amazon) начнут скупать успешные стартапы вроде OpenAI и Anthropic.
Вот это поворот...
🫡79😁23👍7🔥4🤨4🤔3❤1🐳1🤪1
Крутая статья от Microsoft: Differential Transformer
Трансформеры склонны аллоцировать внимание на нерелевантный контекст (в статье это называют шумом), и это приводит к проблемам с извлечением информации и, как следствие, к галлюцинациям и потерям в точности. Это известная проблема.
Microsoft предложили изящное решение: вместо одной attention мапы они создают две, дублируя keys и queries, а затем легким движением руки... вычитают их друг из друга, тем самым нивелируя шум в attention scores.
Такой подход сразу повышает аттеншен к релевантным деталям: эксперименты показали, что трансформеры с таким diff вниманием лучше обычных справляются с задачами на длинном контексте (вроде известной задачи иголки в стоге сена). Кроме того подход еще и уменьшает количество выбросов в активациях модели, что упрощает ее квантование.
Статья полностью – здесь
Трансформеры склонны аллоцировать внимание на нерелевантный контекст (в статье это называют шумом), и это приводит к проблемам с извлечением информации и, как следствие, к галлюцинациям и потерям в точности. Это известная проблема.
Microsoft предложили изящное решение: вместо одной attention мапы они создают две, дублируя keys и queries, а затем легким движением руки... вычитают их друг из друга, тем самым нивелируя шум в attention scores.
Такой подход сразу повышает аттеншен к релевантным деталям: эксперименты показали, что трансформеры с таким diff вниманием лучше обычных справляются с задачами на длинном контексте (вроде известной задачи иголки в стоге сена). Кроме того подход еще и уменьшает количество выбросов в активациях модели, что упрощает ее квантование.
Статья полностью – здесь
👍103⚡12🔥9✍3❤1🦄1
Media is too big
VIEW IN TELEGRAM
Завершаем марафон мемов по нобелевке этим шедевром
😁186🔥26🤓5🦄4👻2👾2
Новая аналитика от любимых Epoch AI: с 2022 Nvidia продала около 3 млн GPU H100 💵
При этом большинство продаж пришлось всего на 4 комапнии: Google, Microsoft, Meta и Amazon (не удивляйтесь, что тут нет OpenAI: они арендуют компьют у Microsoft).
При этом все перечисленные гиганты дополнительно разрабатывают собственные чипы, которые, правда, в основном не продают, а просто используют внутри компании или сдают в аренду в облаках.
При этом большинство продаж пришлось всего на 4 комапнии: Google, Microsoft, Meta и Amazon (не удивляйтесь, что тут нет OpenAI: они арендуют компьют у Microsoft).
При этом все перечисленные гиганты дополнительно разрабатывают собственные чипы, которые, правда, в основном не продают, а просто используют внутри компании или сдают в аренду в облаках.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33👍13⚡6🔥1🍌1🎄1
Кстати, смотрите, какой супер-симпатичный гайд The Nobel Prize подготовили по статье про AlphaFold
Блогпост полностью можно почитать здесь
Блогпост полностью можно почитать здесь
👍38❤17😍7❤🔥1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Вопросы, которые нельзя задавать
😁116👍10🔥8
На Kaggle закончилось соревнование, в котором нужно было предсказывать пользовательские предпочтения
Это именно те предпочтения, которые определяют места моделей на Арене. Кстати, Kaggle как раз и проводила соревнование вместе с LMSYS. Разборы решений победителей уже выложили на YouTube и в виде райтапа вот здесь. Что там было интересного:
⚙️ Среди используемых моделей внезапно лучше всех оказалась способна понимать человеческие предпочтения Gemma-2-9b
⚙️ Среди тех участников, кто использовал модели побольше, наиболее успешные решение получились у тех, кто использовал дистилляцию
⚙️ Многие также использовали специальные Reward/ranking модели вместо базовых или instruct: они оказывались эффективнее
⚙️ Псевдо-лейбелинг снова показал себя как главный инструмент победителей
⚙️ Выигрышной стратегией оказалось усреднение оценок нескольких LoRA
Вот так как-то, принимаем к сведению🔑
Это именно те предпочтения, которые определяют места моделей на Арене. Кстати, Kaggle как раз и проводила соревнование вместе с LMSYS. Разборы решений победителей уже выложили на YouTube и в виде райтапа вот здесь. Что там было интересного:
Вот так как-то, принимаем к сведению
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥12❤6
Media is too big
VIEW IN TELEGRAM
Tesla показала нового робота Optimus
В целом, изменилось мало что: роботы все так же ходят, машут, танцуют. Единственное: в этот раз некоторых из них еще поставили в качестве барменов за стойку, но о том, что при этом они управляются людьми, опять тактично умолчали...
В продажу обещают к 2027 году (чему, зная Маска, не очень-то стоит верить). Роботы будут стоит 20-30 тысяч долларов и смогут справляться со всеми бытовыми задачами, интегрируясь с системами умного дома.
В целом, изменилось мало что: роботы все так же ходят, машут, танцуют. Единственное: в этот раз некоторых из них еще поставили в качестве барменов за стойку, но о том, что при этом они управляются людьми, опять тактично умолчали...
В продажу обещают к 2027 году (чему, зная Маска, не очень-то стоит верить). Роботы будут стоит 20-30 тысяч долларов и смогут справляться со всеми бытовыми задачами, интегрируясь с системами умного дома.
👍31🔥16👾6🦄5😁3🐳3❤1
OpenAI снова выпустили новый открытый бенчмарк: его назвали MLE-bench
Бенчмарк, как можно догадаться из названия, проверяет, насколько хорошо ИИ справляется с задачами по ИИ😭
Технически, исследователи взяли 75 соревнований с Kaggle, прогнали по ним агентов и сравнили результаты с человеческими бейзлайнами из лидерборда. Лучше всего на этом бенчмарке себя показала (ни за что не поверите) модель o1-preview: она в 16.9% процентах случаях вошла в тройку лидеров.
Напоминаем, что это уже второй опенсорсный бенчмарк от OpenAI за месяц. До этого они выложили MMMLU – мультиязычную версию MMLU.
Исходный код выложили здесь, а полный текст статьи – тут
Бенчмарк, как можно догадаться из названия, проверяет, насколько хорошо ИИ справляется с задачами по ИИ
Технически, исследователи взяли 75 соревнований с Kaggle, прогнали по ним агентов и сравнили результаты с человеческими бейзлайнами из лидерборда. Лучше всего на этом бенчмарке себя показала (ни за что не поверите) модель o1-preview: она в 16.9% процентах случаях вошла в тройку лидеров.
Напоминаем, что это уже второй опенсорсный бенчмарк от OpenAI за месяц. До этого они выложили MMMLU – мультиязычную версию MMLU.
Исходный код выложили здесь, а полный текст статьи – тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👏33😁10👍2👌2
This media is not supported in your browser
VIEW IN TELEGRAM
Многие говорят, что LLM никогда не сможет перерасти в AGI, потому что «эти модели всего лишь предсказывают следующее слово»
Так ли это? Наткнулись на интересную цитату Ильи Суцкевера, которая может заставить переосмыслить такую позицию:
Think about it🤔
Так ли это? Наткнулись на интересную цитату Ильи Суцкевера, которая может заставить переосмыслить такую позицию:
«Я попытаюсь объяснить, почему предсказание следующих слов требует глубокого понимания. Допустим, вы читаете детектив: сложная линия повествования, запутанные детали, разные герои, загадки, события. Представим последнюю страницу книги, на которой автор говорит: «преступление совершил…». Попробуйте предсказать это слово»
Think about it
Please open Telegram to view this post
VIEW IN TELEGRAM
👍117🔥32❤10🤪8🤔6🤯5💯2🤨2🍌1👨💻1
Сэм Альтман видимо задал тренд на эссе: CEO Anthropic только что выкатил оду ИИ на 15000 слов
Чтиво называется «Machines of
Loving Grace: How AI Could Transform the World for the Better», и кажется, название говорит само за себя. Основные поинты из эссе выложим совсем скоро, а пока вот вам ссылка на оригинал.
Чтиво называется «Machines of
Loving Grace: How AI Could Transform the World for the Better», и кажется, название говорит само за себя. Основные поинты из эссе выложим совсем скоро, а пока вот вам ссылка на оригинал.
🔥47👍12❤7😁5🤪3
Итак, главное из эссе Дарио Амодеи, CEO Anthropic:
⚪️ Powerful AI (не AGI, обратите внимание) появится примерно в 2026. В понимании Дарио Powerful AI – это ИИ, который умнее лауреата Нобелевской премии по биологии и инженерии, который может доказывать не доказанные человечеством теоремы, писать очень хорошие романы и управлять любым ПО и оборудованием.
⚪️ По мнению Амодеи, многие ИИ-компании (пальцем он не показывает, но все все поняли) переоценивают возможности своих технологий. Даже лучший ИИ сегодня все еще не может «думать». Модели по-прежнему не столько рассуждают, сколько воспроизводят закономерности, которые наблюдали в трейне.
⚪️ В течение следующих 7–12 лет ИИ может помочь найти лекарство от рака, почти всех инфекционных заболеваний, генетических расстройств и болезни Альцгеймера. А в течение 5–10 лет ИИ уже будет способен вылечить депрессию, шизофрению, наркоманию и даже совершенствовать человеческий мозг.
⚪️ В итоге средняя продолжительность жизни человека удвоится и достигнет 150 лет. «Мой основной прогноз заключается в том, что биология и медицина с поддержкой ИИ позволят нам сжать прогресс, которого биологи-люди достигли бы за следующие 50–100 лет, до 5–10 лет».
⚪️ Что касается экономики и социума: ИИ может решить проблему голода в мире, переломить ход изменения климата, кратно увеличить ВВП на душу населения, снизить предвзятость в правовой системе. Опасностей ИИ Дарио касается совсем вкратце, и говорит, что основной трудностью для человечества будет переосмысление экономики в новых реалиях.
Напоминаем, что в оригинале эссе можно прочитать здесь
Напоминаем, что в оригинале эссе можно прочитать здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍81🦄62😁25❤10🔥8🤨4🤯3🍌2
OpenAI выпустили библиотеку Swarm для облегченного построения мультиагентных систем
Библиотека использует только верхнеуровневые абстракции, так что ей может пользоваться даже человек, который не разбирается в LLM. Нужно просто определить нескольких агентов с их ролями, определить логику, по которой они перекидывают запросы друг другу и запустить все с нужным начальным состоянием. Все!
Фреймфорк экспериментальный и выпустили его по-тихому. Вероятно, это нужно для сбора отзывов, и так OpenAI понемногу начинает переход от ризонеров (o1) к агентным системам (это следующая ступень развития ИИ, по мнению Альтмана).
В любом случае – отличная песочница, чтобы поиграться. Код открыт и лежит со всеми примерами использования вот в этом репозитории.
Библиотека использует только верхнеуровневые абстракции, так что ей может пользоваться даже человек, который не разбирается в LLM. Нужно просто определить нескольких агентов с их ролями, определить логику, по которой они перекидывают запросы друг другу и запустить все с нужным начальным состоянием. Все!
Фреймфорк экспериментальный и выпустили его по-тихому. Вероятно, это нужно для сбора отзывов, и так OpenAI понемногу начинает переход от ризонеров (o1) к агентным системам (это следующая ступень развития ИИ, по мнению Альтмана).
В любом случае – отличная песочница, чтобы поиграться. Код открыт и лежит со всеми примерами использования вот в этом репозитории.
👍60🔥17❤5 1
This media is not supported in your browser
VIEW IN TELEGRAM
Ученые из университетов Женевы и Эдинбурга вместе с Microsoft разработали модель, генерирующую CS:GO в реальном времени
Вот демо: можно попробовать побегать самостоятельно. Видео генерируется исходя из ваших действий – поворотов, прыжков, выстрелов.
Сама модель называется DIAMOND (DIffusion As a Model Of eNvironment Dreams) – внутри у нее RL агент, обученный в полностью сгенерированной диффузией модели мира. Вот страничка соответствующей статьи.
Весь код, кстати, тоже в опенсорсе, так что можно такую CS’ку и локально запустить😎
Вот демо: можно попробовать побегать самостоятельно. Видео генерируется исходя из ваших действий – поворотов, прыжков, выстрелов.
Сама модель называется DIAMOND (DIffusion As a Model Of eNvironment Dreams) – внутри у нее RL агент, обученный в полностью сгенерированной диффузией модели мира. Вот страничка соответствующей статьи.
Весь код, кстати, тоже в опенсорсе, так что можно такую CS’ку и локально запустить
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56🤯29🔥17
В Твиттере завирусился промпт, в котором вы просите GPT на основе всех ваших взаимодействий cказать о вас что-нибудь, чего вы о себе не знаете
В оригинале текст промпта такой:
Пользователи говорят, что ChatGPT действительно отвечает очень интересно (даже Альтману понравилось). А некоторые даже идут дальше и просят составить по истории диалогов свой психологический портрет.
Пробуем?
В оригинале текст промпта такой:
From all of our interactions what is one thing that you can tell me about myself that I may not know about myself
Пользователи говорят, что ChatGPT действительно отвечает очень интересно (даже Альтману понравилось). А некоторые даже идут дальше и просят составить по истории диалогов свой психологический портрет.
Пробуем?
❤56👍28😁10🔥1🤪1
Контекст 33К токенов, цены: $4.2 / M input, $6.9 / M output. Цена на инпут несколько завышена (для сравнения на последнюю gpt-4o это $2.50 / M input, а на Claude 3.5 Sonnet – $3 / M), зато на аутпут наоборот ниже обычного (для gpt-4o цена на output составляет $10.00 / M output, на Sonnet – $15 / M)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍6❤2