"Это будет не GPT-5 и не поисковик, но это выглядит как чудо для меня"
Так отозвался Альтман о том, что собирается показать OpenAI на презентации в понедельник в 20:00 по мск. Из анонсов по крайней мере понятно, что будут какие-то новые примочки для GPT-4.
Кстати, изначально презентация должна была состояться 9 мая, однако ее перенесли на 13. Случайность ли это, учитывая, что 14 мая состоится конференция Google I/O, на которой корпорация обычно показывает новые технологии?
Так отозвался Альтман о том, что собирается показать OpenAI на презентации в понедельник в 20:00 по мск. Из анонсов по крайней мере понятно, что будут какие-то новые примочки для GPT-4.
Кстати, изначально презентация должна была состояться 9 мая, однако ее перенесли на 13. Случайность ли это, учитывая, что 14 мая состоится конференция Google I/O, на которой корпорация обычно показывает новые технологии?
❤55👍10🤯4🙈2🔥1😁1🍌1
Data Secrets
Исследователи, которые изобрели LSTM, выкатили «обновление» Называется архитектура xLSTM и содержит в себе два главных нововведения: 1. Экспоненциальный гейтинг (прочитать про это больше можно тут ) с нормализацией и стабилизацией 2. Измененная структура…
В комьюнити все не смолкают разговоры про новенькую xLSTM, вышедшую несколько дней назад. Некоторые утверждают, что эта модель может стать достойной альтернативой трансформеру.
По крайней мере, модель показывает классный скейлинг и не уступает трансформерам в perplexity на 15B и 300B. Код, кстати, исследователи так и не выкатили, но эстузиасты уже успели что-то наимплементировать (github).
Интересно, как исследователи добились такого буста LSTM? Хотели бы прочитать понятный обзор и во всем разобраться? Накидайте 🔥, и мы выложим его уже сегодня!
По крайней мере, модель показывает классный скейлинг и не уступает трансформерам в perplexity на 15B и 300B. Код, кстати, исследователи так и не выкатили, но эстузиасты уже успели что-то наимплементировать (github).
Интересно, как исследователи добились такого буста LSTM? Хотели бы прочитать понятный обзор и во всем разобраться? Накидайте 🔥, и мы выложим его уже сегодня!
🔥355👍12❤3🤩2
Итак, разбор статьи про xLSTM уже можно найти на нашем сайте! В тексте вы найдете:
➡️ Пошаговое объяснение того, как работает ванильная LSTM. Разберетесь, даже если вы ничего не слышали про эту архитектуру до этого.
➡️ Структурированный разбор каждого улучшения, которое предложили ученые в xLSTM.
➡️ Множество схем и примеров.
➡️ Сравнение xLSTM с трансформерами.
➡️ Рассуждение на тему "имеют ли xLSTM шансы стать будущим LLM?"
Сохраняйте и читайте, не пожалеете: https://datasecrets.ru/articles/10
Сохраняйте и читайте, не пожалеете: https://datasecrets.ru/articles/10
Please open Telegram to view this post
VIEW IN TELEGRAM
datasecrets.ru
Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера | Data Secrets
Исследователи, которые в 1997 году изобрели архитектуру LSTM, спустя 27 лет выпустили «обновление». Разбираемся, как это работает, и почему может стать прорывом для больших языковых моделей.
🔥72👍18❤10❤🔥1
В этой шумихе с презентациями OpenAI и Google все вообще забыли про Apple 🤩
Ладно-ладно, не так уж они и в стороне. Инсайдеры сообщают, что корпорация договорилась с OpenAI об интеграции ChatGPT в iOS 18. По информации от Bloomberg, компании уже находятся на финальной стадии согласования.
Ладно-ладно, не так уж они и в стороне. Инсайдеры сообщают, что корпорация договорилась с OpenAI об интеграции ChatGPT в iOS 18. По информации от Bloomberg, компании уже находятся на финальной стадии согласования.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34🤯12🗿6👍5⚡1
Data Secrets
Сэм Альтман в своем свежем интервью отвечает на вопрос «Как много стартапов еще убьет OpenAI» Если кратко: есть два варианта развития событий. Первый: модели OpenAI больше не развиваются, и те стартапы, которые занимались надстройками над моделью, живут и…
This media is not supported in your browser
VIEW IN TELEGRAM
А ведь он предупреждал…
👍36😁21🤪14👻5🫡1
Альтман и компания продолжают разжигать интерес перед завтрашней презентацией:
– В самом боте они переименовали модель GPT-4 из «the most advanced model» (самая продвинутая модель) в просто «advanced» (продвинутая)
– Лид команды аудио-ресерчера OpenAI поменял заставку в Твиттер на кадр из фильма «Она»
– Сэм ретвитнул пост, в котором пользователь пошутил, что пересматривает «Она» перед презентацией
Ну так что вы делаете завтра вечером?😏
– В самом боте они переименовали модель GPT-4 из «the most advanced model» (самая продвинутая модель) в просто «advanced» (продвинутая)
– Лид команды аудио-ресерчера OpenAI поменял заставку в Твиттер на кадр из фильма «Она»
– Сэм ретвитнул пост, в котором пользователь пошутил, что пересматривает «Она» перед презентацией
Ну так что вы делаете завтра вечером?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60🔥18❤15😁6
Илон Маск: «Лидары это тупо, они дорогие и вообще не нужны»
Также Маск: «Лидары? Заверните на $2 млн»
Для справки: лидары – это датчики, которые способны с помощью лазера измерять расстояние до объекта. Сегодня это основной ингредиент в беспилотных автомобилях.
Так вот оказалось, что основным покупателем лидаров производителя Luminar является Tesla. В этом квартале они обеспечили аж 10% выручки компании, что составляет $2 млн.
Тем временем на конференции еще в 2019 году Маск назвал лидары «костылем» и сказал, что использовать их «тупо». Хотяяя… на той же конференци он обещал, что Tesla выпустит беспилотники в продажу до начала 2021. Этого до сих пор не случилось. Вместо этого Илон продолжает скупать костыли.
Также Маск: «Лидары? Заверните на $2 млн»
Для справки: лидары – это датчики, которые способны с помощью лазера измерять расстояние до объекта. Сегодня это основной ингредиент в беспилотных автомобилях.
Так вот оказалось, что основным покупателем лидаров производителя Luminar является Tesla. В этом квартале они обеспечили аж 10% выручки компании, что составляет $2 млн.
Тем временем на конференции еще в 2019 году Маск назвал лидары «костылем» и сказал, что использовать их «тупо». Хотяяя… на той же конференци он обещал, что Tesla выпустит беспилотники в продажу до начала 2021. Этого до сих пор не случилось. Вместо этого Илон продолжает скупать костыли.
😁69❤11👍8
This media is not supported in your browser
VIEW IN TELEGRAM
Еще немного мемов перед предстоящей презентацией 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
😁64🔥13❤6👍5🗿3🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
Meta взяла пример с Cognition (или наоборот) и тоже запустила протестируй-и-разработай хакатон
Участвовали более 500 разработчиков, которым нужно было взять Llama3 и сделать из нее что-то прИкОльНОе (и конечно с открытым кодом).
Победили ребята с проектом Open Glass AI, который позволяет превратить любые очки в очки с ИИ за 20$.
На втором месте платформа для дебатов ИИ-моделей, на третьем – ресерч про то, как обнулить цензуру сеточки. А лично нам очень понравился проект с CRM системой.
Оцените✨ вайбы✨ на видео
Участвовали более 500 разработчиков, которым нужно было взять Llama3 и сделать из нее что-то прИкОльНОе (и конечно с открытым кодом).
Победили ребята с проектом Open Glass AI, который позволяет превратить любые очки в очки с ИИ за 20$.
На втором месте платформа для дебатов ИИ-моделей, на третьем – ресерч про то, как обнулить цензуру сеточки. А лично нам очень понравился проект с CRM системой.
Оцените
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46🥰10🎉6❤1🔥1
Breaking! На презентации OpenAI показали новую модель GPT-4o, которая заткнула за пояс все и вся
Особенно мощно модель показала себя в коде: просто посмотрите на разрыв в перформансе с предыдущими моделями! И, кстати, теперь еще будет режим стриминга для MacOS. Подключаете приложение, выделяете прямо на экране код, модель его обрабатывает на месте.
Но это не главное. Главное: это настоящая мультимодальная модель, то есть она реально обучалась одновременно на тексте, картинках и звуках, не по отдельности.
Теперь общаться с ботом можно голосом и даже по видео, при этом вообще без задержек. А еще GPT-4o понимает интонации, может шутить и переводить в режиме реального времени. Как и говорил Альтман: прямо фильм “Her”.
Модель в 2 раза быстрее и на 50% дешевле, чем GPT-4 Turbo, имеет контекст в 128к, уже доступна в API и скоро засшарится на всех фри-юзеров.
🕺 🕺 🕺
Особенно мощно модель показала себя в коде: просто посмотрите на разрыв в перформансе с предыдущими моделями! И, кстати, теперь еще будет режим стриминга для MacOS. Подключаете приложение, выделяете прямо на экране код, модель его обрабатывает на месте.
Но это не главное. Главное: это настоящая мультимодальная модель, то есть она реально обучалась одновременно на тексте, картинках и звуках, не по отдельности.
Теперь общаться с ботом можно голосом и даже по видео, при этом вообще без задержек. А еще GPT-4o понимает интонации, может шутить и переводить в режиме реального времени. Как и говорил Альтман: прямо фильм “Her”.
Модель в 2 раза быстрее и на 50% дешевле, чем GPT-4 Turbo, имеет контекст в 128к, уже доступна в API и скоро засшарится на всех фри-юзеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤95🔥36👍14🤯14🎉3👀2😁1🤔1👻1
Написали про новую GPT-4o большую и информативную статью на Хабр:
– Раскрыли все пасхалки и отсылки, которые оставляли Альтман и его команда.
– Рассказали обо всем, что умеет модель.
– Объяснили, почему GPT-4o одновременно и мощнее, и быстрее, и дешевле.
– Сравнили тру и не тру мультимодальность.
– Разложили по полочкам, каким юзерам, когда и что будет доступно.
Один текст, чтобы увидеть всю картину целиком: https://habr.com/ru/articles/814161/
– Раскрыли все пасхалки и отсылки, которые оставляли Альтман и его команда.
– Рассказали обо всем, что умеет модель.
– Объяснили, почему GPT-4o одновременно и мощнее, и быстрее, и дешевле.
– Сравнили тру и не тру мультимодальность.
– Разложили по полочкам, каким юзерам, когда и что будет доступно.
Один текст, чтобы увидеть всю картину целиком: https://habr.com/ru/articles/814161/
Хабр
GPT-4o: больше мощи, но меньше цены. Почему так и что на самом деле умеет модель?
Вчера в 20:00 по московскому времени OpenAI в прямом эфире показали свою революционную модель GPT-4o. Общаться с ней можно голосом и даже по видео , при этом вообще...
🔥58❤12🥰5🤯5💋1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Google такие: «стойте стойте, мы тоже в теме!»
Для тех, кто забыл или не успел отойти от презентации OpenAI напоминаем: сегодня состоится конференция Google I/O, на которой корпорация собирается показать свое обновление Gemini.
И это будет… работа с видео. Тизер почти 1в1 совпадает с тем, что показывали вчера OpenAI: модели в реальном времени показывают обстановку вокруг и спрашивают «как ты думаешь, что тут происходит?».
Правда сегодня, после вчерашнего шоу, таким шоу уже почти никого не удивишь. Видимо, Альтман что-то знал…
Для тех, кто забыл или не успел отойти от презентации OpenAI напоминаем: сегодня состоится конференция Google I/O, на которой корпорация собирается показать свое обновление Gemini.
И это будет… работа с видео. Тизер почти 1в1 совпадает с тем, что показывали вчера OpenAI: модели в реальном времени показывают обстановку вокруг и спрашивают «как ты думаешь, что тут происходит?».
Правда сегодня, после вчерашнего шоу, таким шоу уже почти никого не удивишь. Видимо, Альтман что-то знал…
❤40😁34👍7
Такс-такс-такс, Google I/O. Вот краткое саммари того, что было показано:
➡️ Обновление Gemini: обновленная LLM Gemini 1.5 Pro с гигантским контекстом в 1млн токенов (а для закрытой группы юзеров 2 млн), более легкая и быстрая Gemini 1.5 Flash и крошка Gemini Nano, которая станет локальной мультимодальной моделью для Android.
➡️ Поиск: компания испугалась, что OpenAI отнимет у них хлеб, и теперь там заявляют, что тоже будут добавлять в серчер ИИ. Кроме того, с помощью Gemini можно будет искать информацию внутри видео на YouTube.
➡️ Картинки, видео и музыка: показали аналог SORA для генерации видео (по виду сильно отстает), новую модель для генерации картинок и music2music модель для музыкантов.
➡️ Железо и тулзы для разработчиков: Google показали новый чип TPU v6 Trillium, который в 4.7 раз быстрее предыдущей версии, и разработали Arm CPU для датацентов. Также был анонсирован Firebase Genkit - опенсорс фреймворк для встраивания ИИ в приложения. А еще похвастались опенсорсом: выложили веса Gemma 2 и пообещали открыть PaliGemma.
➡️ Другое: скоро появится Gems – аналог GPTs от OpenAI. Там пользователи смогут с помощью промптов создавать собственные персонализированные версии Gemini. Ну и, чтобы не отставать от всяких этих ваших стартапов, показали черновик Project Astra, способного анализировать видео в реальном времени. Показали, как ассистент встраивается в AR-очки, но больше ничего ни о модели, ни о гаджете не раскрыли.
Детальный разбор с описанием каждой фичи мы уже написали у нас на сайте, читать тут: https://datasecrets.ru/news/10.
Детальный разбор с описанием каждой фичи мы уже написали у нас на сайте, читать тут: https://datasecrets.ru/news/10.
Please open Telegram to view this post
VIEW IN TELEGRAM
datasecrets.ru
Google I/O 2024: аналог SORA, новые чипы, обновленная Gemini и многое другое | Data Secrets
14 мая, на следующий день после прогремевшей презентации OpenAI, прошла ежегодная конференция Google I/O. Чем же удалось корпорации удивить искушенного зрителя?
👍24🔥11❤6
Media is too big
VIEW IN TELEGRAM
На случай, если вы еще не прочитали наш обзор, мы нашли видео, которое обобщает все, что было на Google I/O
Планируем зациклить и сделать 10-часовую версию, что думаете?
Планируем зациклить и сделать 10-часовую версию, что думаете?
😁58🔥17🏆6👍3❤1