Выпускники Центрального университета могут изучать несколько направлений одновременно
На Дне открытых дверей Центрального университета, на котором собралось более 700 участников, рассказали, что студенты вуза могут изучать не одну узкую специализацию, а три направления одновременно: «Разработка», «Искусственный интеллект» и «Бизнес и аналитика». Сначала они изучают все дисциплины вместе, чтобы попробовать разные специальности и понять, что им на самом деле нравится.
Кстати, в рамках отбора, который Центральный университет запустил 6 ноября, абитуриенты могут получить гранты в размере 50%, 75% и даже 100% стоимости обучения. Для этого будущим студентам нужно показать свои знания на образовательных мероприятиях: олимпиадах, конкурсах и других активностях.
p.s. Вуз не ограничивается образовательной программой: в этом году российские школьники под руководством преподавателей Центрального университета выиграли первую в мире Международную олимпиаду по искусственному интеллекту в Болгарии. В следующем году эксперты Центрального университета совместно с Альянсом ИИ будут готовить ребят для олимпиады в Китае.
На Дне открытых дверей Центрального университета, на котором собралось более 700 участников, рассказали, что студенты вуза могут изучать не одну узкую специализацию, а три направления одновременно: «Разработка», «Искусственный интеллект» и «Бизнес и аналитика». Сначала они изучают все дисциплины вместе, чтобы попробовать разные специальности и понять, что им на самом деле нравится.
Кстати, в рамках отбора, который Центральный университет запустил 6 ноября, абитуриенты могут получить гранты в размере 50%, 75% и даже 100% стоимости обучения. Для этого будущим студентам нужно показать свои знания на образовательных мероприятиях: олимпиадах, конкурсах и других активностях.
p.s. Вуз не ограничивается образовательной программой: в этом году российские школьники под руководством преподавателей Центрального университета выиграли первую в мире Международную олимпиаду по искусственному интеллекту в Болгарии. В следующем году эксперты Центрального университета совместно с Альянсом ИИ будут готовить ребят для олимпиады в Китае.
👍44🗿20🍌8😁4🌚3
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня на стриме OpenAI релизят то, чего мы все так долго ждали: SORA уже здесь!
Это версия turbo: ускоренная и улучшенная. Можно генерировать видео до 20 секунд (пока что, вообще обещали до минуты). Согласованность промптов, моушен персонажей, детализация – кайф, однозначно достойный уровень относительно сегодняшних моделей, но, конечно, до генерации фильмов еще далеко, физика иногда страдает. Сэм сравнивает SORA c GPT-1: это ранняя разработка, поэтому ждать что вы зайдете и сгенерируете Гарри Поттера не стоит, и тем не менее, это крутой инструмент для тестирования идей и "щупанья".
Попробовать можно по плюс-подписке (20$). По плюсу доступно 50 генераций, а за ту самую подписку за 200$ вы получите безлимитный доступ. Как и было объявлено, доступны режимы text-to-video, text+image-to-video и text+video-to-video.
Кроме того, OpenAI анонсировали целый кастомный видео-редактор (сториборд): можно объединять кадры в таймлайн, добавлять разные действия, персонажей, редактировать детали и тд. Доступно три разрешения, до 1080. Будем ждать больше пользовательских генераций.
Где посмотреть примеры генераций:
– Обзор техноблогера, которому давали SORA на тест (вышел сегодня)
– Наш сегодняшний пост
– Наш пост про утечку модели с примерами, которые успели нагенерить юзеры
Уже доступно здесь: https://sora.com/ (включите VPN США)
Это версия turbo: ускоренная и улучшенная. Можно генерировать видео до 20 секунд (пока что, вообще обещали до минуты). Согласованность промптов, моушен персонажей, детализация – кайф, однозначно достойный уровень относительно сегодняшних моделей, но, конечно, до генерации фильмов еще далеко, физика иногда страдает. Сэм сравнивает SORA c GPT-1: это ранняя разработка, поэтому ждать что вы зайдете и сгенерируете Гарри Поттера не стоит, и тем не менее, это крутой инструмент для тестирования идей и "щупанья".
Попробовать можно по плюс-подписке (20$). По плюсу доступно 50 генераций, а за ту самую подписку за 200$ вы получите безлимитный доступ. Как и было объявлено, доступны режимы text-to-video, text+image-to-video и text+video-to-video.
Кроме того, OpenAI анонсировали целый кастомный видео-редактор (сториборд): можно объединять кадры в таймлайн, добавлять разные действия, персонажей, редактировать детали и тд. Доступно три разрешения, до 1080. Будем ждать больше пользовательских генераций.
Где посмотреть примеры генераций:
– Обзор техноблогера, которому давали SORA на тест (вышел сегодня)
– Наш сегодняшний пост
– Наш пост про утечку модели с примерами, которые успели нагенерить юзеры
Уже доступно здесь: https://sora.com/ (включите VPN США)
👍28🔥9❤8🤔1
Media is too big
VIEW IN TELEGRAM
Впервые в истории у кого-то получилось создать логические кубиты, которые перформят ниже границы Quantum Error Correction. Это метод, при котором данные сохраняются путем распределения информации по нескольким кубитам. Дело в том, что обычно ошибки вычислений – ключевая проблема квантовых машин. Кубиты слишком быстро обмениваются информацией и имеют тенденцию терять ее. Обычно чем больше кубитов вы используете, тем больше ошибок возникает, и квантовая система вырождается в классическую. Но в Willow все наоборот: с ростом кубитов ошибки уменьшаются экспоненциально. Это поразительный результат, которого люди пытались добиться последние 30 лет.
А теперь приготовьтесь: Willow в септилион раз быстрее классического вычислительного чипа. То есть Willow может за 300 секунд решить задачу, на которую у обычного чипа бы ушло 10,000,000,000,000,000,000,000,000 лет (и это было доказано во время тестов).
А еще у чипа рекордное количество кубитов – 105. Конечно, это все еще мало (например, чтобы взломать биткоин, потребуется где-то 300-400 миллионов кубитов), но по сравнению с предыдущими квантовыми компьютерами – вау.
Блогпост Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉178🔥36👍26❤8🤔7👏5😁3🤨2
Media is too big
VIEW IN TELEGRAM
Еще у Google в дополнение к блогпосту вышло интересное короткое видео про историю квантовых вычислений и Willow. Основная мысль:
Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.
Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.
А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.
Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.
А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
🔥41👍11❤6
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁81👍9🔥8🤯3
EpochAI запустили собственную арену для сравнения LLM
Это те самые ребята, которые постоянно делают крутые исследования (пост со списком их самых интересных ресерчей), а недавно катнули крутой математический бенчмарк (пост об этом).
Включать обещают только новые сложные бенчмарки, как раз такие как FrontierMath и SWE-Bench-Verified. Пока что доступны GPQA Diamond и MATH Level 5. А еще будет визуализация, открытые данные, анализы скорости и стоимостей.
Здорово, что появляется все больше таких платформ: так оценки становятся более независимыми и сложными.
Это те самые ребята, которые постоянно делают крутые исследования (пост со списком их самых интересных ресерчей), а недавно катнули крутой математический бенчмарк (пост об этом).
Включать обещают только новые сложные бенчмарки, как раз такие как FrontierMath и SWE-Bench-Verified. Пока что доступны GPQA Diamond и MATH Level 5. А еще будет визуализация, открытые данные, анализы скорости и стоимостей.
Здорово, что появляется все больше таких платформ: так оценки становятся более независимыми и сложными.
🔥35👌10❤4👍4
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о
На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные поставили елку 🎄
Теперь гадаем, кто это сделал
На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные поставили елку 🎄
Теперь гадаем, кто это сделал
🎄113❤24🤯12🤨3🔥2🤪2
Data Secrets
Вахид Каземи – PhD, сотрудник OpenAI и бывший сотрудник Apple и Google: По моему мнению мы уже достигли AGI, с o1 это очевидно. Возможно, мы еще не добрались до «лучше, чем любой человек в любой задаче», но то, что у нас есть, это уже «лучше, чем большинство…
Зацените уровень пасхалок: в офисе Anthropic хранится йодаргирит, химическая формула которого – AgI 🧐
Информацией, кстати, поделился один из разработчиков стартапа в ответ на тот самый «мы уже достигли AGI» твит ресерчера OpenAI. «Мы тоже уже достигли AgI и держим его за стеклом» – иронично написал он.
Информацией, кстати, поделился один из разработчиков стартапа в ответ на тот самый «мы уже достигли AGI» твит ресерчера OpenAI. «Мы тоже уже достигли AgI и держим его за стеклом» – иронично написал он.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁111🔥16🤯11🕊6❤1
4 день стримов OpenAI из 12: сегодня показали интерпретатор кода и еще несколько очень кайфовых фич для Canvas
Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.
Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.
Напоминаем, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками (подробнее в этом нашем посте).
В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).
Ссылка на стрим
Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.
Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.
Напоминаем, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками (подробнее в этом нашем посте).
В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).
Ссылка на стрим
❤38👍15⚡5
Media is too big
VIEW IN TELEGRAM
Помните Model Context Protocol от Anthropic?
Это открытый протокол, который позволяет интегрировать любую LLM в любой источник данных. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Побробности – в этом нашем посте.
Так вот, MCP вызвал настолько широкий и позитивный отклик а сообществе, что стартап даже решил провести хакатон именно на основе этой технологии. Он прошел на выходных: всего за 3 часа участникам нужно было выдать какую-то интересную идею применения MCP и воплотить ее. Вот победители:
– Приз зрительских симпатий: Santa Claude – сервис для автоматического серчинга новогодних подарков и их заказа с amazon.
– Productivity award: Clauduct Manager – ИИ-продакт, который создает, сортирует и пишет таски и тикеты в Linear.
– Code award: Claude Voyager – соединение клода с окружением, в котором он может полностью автономно управлять проектом.
Все эти проекты кажутся привычными. Но их смысл в том, что это НЕ кастомные решения по интеграции модельки в сервис, а реализованные всего за пару часов идеи применения готового протокола, и это очень круто. Если хотите попробовать поиграть с MCP сами, то наверху мы прикрепили краткий видео-гайд из Твиттера с объяснением того, как это сделать
Это открытый протокол, который позволяет интегрировать любую LLM в любой источник данных. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Побробности – в этом нашем посте.
Так вот, MCP вызвал настолько широкий и позитивный отклик а сообществе, что стартап даже решил провести хакатон именно на основе этой технологии. Он прошел на выходных: всего за 3 часа участникам нужно было выдать какую-то интересную идею применения MCP и воплотить ее. Вот победители:
– Приз зрительских симпатий: Santa Claude – сервис для автоматического серчинга новогодних подарков и их заказа с amazon.
– Productivity award: Clauduct Manager – ИИ-продакт, который создает, сортирует и пишет таски и тикеты в Linear.
– Code award: Claude Voyager – соединение клода с окружением, в котором он может полностью автономно управлять проектом.
Все эти проекты кажутся привычными. Но их смысл в том, что это НЕ кастомные решения по интеграции модельки в сервис, а реализованные всего за пару часов идеи применения готового протокола, и это очень круто. Если хотите попробовать поиграть с MCP сами, то наверху мы прикрепили краткий видео-гайд из Твиттера с объяснением того, как это сделать
👍42🔥13❤11
Data Secrets
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные…
Тайна елочки на бечмарке раскрыта: это новые мощные модели от Т-Технологий, куда входит Т-Банк
В релиз вошли две языковые модели – новая T-Pro на 32B параметров и обновленная T-Lite на 7В. Обе стали SOTA русского языка среди открытых моделей на индустриальных бенчмарках (MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval).
Под капотом обеих моделей Qwen-2.5, который дообучали с помощью Continual Pretraining. Это чтобы модель прокачалась на русском, но не забыла свои базовые навыки и не просела на метриках, как это часто бывает. К тому же, такой подход на 80-90% сокращает косты.
Интересно, что это именно узконаправленные открытые модели. То есть, в отличие от универсального ChatGPT, они специализируются на решении конкретных задач. Соответственно, у них отдельно прокачан уровень доменных знаний и умение выполнять практические задачи бизнеса. Получается, теперь все могут абсолютно бесплатно брать T-Pro и T-Lite и идти прикручивать их к своим голосовым помощникам, агентам поддержки и пр. Б – буст!
Веса уже лежат на HuggingFace
В релиз вошли две языковые модели – новая T-Pro на 32B параметров и обновленная T-Lite на 7В. Обе стали SOTA русского языка среди открытых моделей на индустриальных бенчмарках (MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval).
Под капотом обеих моделей Qwen-2.5, который дообучали с помощью Continual Pretraining. Это чтобы модель прокачалась на русском, но не забыла свои базовые навыки и не просела на метриках, как это часто бывает. К тому же, такой подход на 80-90% сокращает косты.
Интересно, что это именно узконаправленные открытые модели. То есть, в отличие от универсального ChatGPT, они специализируются на решении конкретных задач. Соответственно, у них отдельно прокачан уровень доменных знаний и умение выполнять практические задачи бизнеса. Получается, теперь все могут абсолютно бесплатно брать T-Pro и T-Lite и идти прикручивать их к своим голосовым помощникам, агентам поддержки и пр. Б – буст!
Веса уже лежат на HuggingFace
🎄64👍28☃7❤🔥5😐2🤝2👀1🤪1
В Meta показали метод Coconut, который позволяет моделям строить цепочки ризонинга не на ествественном языке, а в латентном пространстве
Забавное название Coconut – это сокращение от Chain of Continuous Thought. В целом, это та же цепочка мыслей, просто не на естественном языке, а внутри скрытого слоя. Конкретнее: в CoT для ризонинга шаг за шагом в инпут модели добавляются сами токены аутпута один за одним, а в работе Meta вместо токенов используются недекодированные эмбеддинги с последнего слоя.
Это немного похоже на недавнюю работу Microsoft (разбор мы делали здесь), за исключением того, что там рассматривались агентские системы, а тут модель вместо других экземпляров общается как бы сама с собой.
Результаты получились неоднозначные: например, на GSM8k Coconut выбил 34,1%, когда как ванильный CoT достиг 42,9%. Но вот на бенчмарке логических рассуждений ProntoQA разрыв был на 1пп уже в пользу Coconut, а на ProsQA метод показал себя лучше СoT аж на 20пп! Ну и плюсом ко всему Coconut, естественно, быстрее.
Статья полностью тут
Забавное название Coconut – это сокращение от Chain of Continuous Thought. В целом, это та же цепочка мыслей, просто не на естественном языке, а внутри скрытого слоя. Конкретнее: в CoT для ризонинга шаг за шагом в инпут модели добавляются сами токены аутпута один за одним, а в работе Meta вместо токенов используются недекодированные эмбеддинги с последнего слоя.
Это немного похоже на недавнюю работу Microsoft (разбор мы делали здесь), за исключением того, что там рассматривались агентские системы, а тут модель вместо других экземпляров общается как бы сама с собой.
Результаты получились неоднозначные: например, на GSM8k Coconut выбил 34,1%, когда как ванильный CoT достиг 42,9%. Но вот на бенчмарке логических рассуждений ProntoQA разрыв был на 1пп уже в пользу Coconut, а на ProsQA метод показал себя лучше СoT аж на 20пп! Ну и плюсом ко всему Coconut, естественно, быстрее.
Статья полностью тут
👍34🔥13❤9😁3
Best Paper Awards – вообще очень престижная награда, тем более на NeurIPS, которая считается лучшей ML-конференцией в мире. Вот кто получил награду в этот раз:
Вы, кстати, удивитесь, но один из авторов этой статьи – тот самый стажер, который два месяца вставлял палки в колеса соседней команды, загружая порченные Pickle-файлы, полные вредоносного кода, удаляя чекпоинты, специально добавляя баги в корпоративный форк PyTorch и тд. Бывает же.
Немного раньше, в конце ноября, также объявляли победителей премии Test of Time Paper Awards NeurIPS 2024. Эта награда выдается старым статьям, которые прошли испытание временем. В прошлом году награду получил word2vec (пост), а в этом году она досталась GAN'у (Ян Гудфеллоу и Йошуа Бенджио) и Sequence to Sequence Learning (Илья Суцкевер).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥10❤4
Siri теперь будет использовать модели OpenAI (прямо так и пишется, working with chatgpt). А еще на айфонах в Apple Intelligence будет доступно дополнительное расширение ChatGPT. Например, в Visual Intelligence в камере тоже будет непосредственный доступ к GPT-4o, можно будет показывать модельке видео в реальном времени.
Для маков тоже добавили расширение ChatGPT в настройках. Можно будет использовать writing tools почти в любом приложении, анализировать документы прямо внутри finder с ChatGPT и задавать по ним вопросы.
Неужели теперь от Siri будет толк?
Please open Telegram to view this post
VIEW IN TELEGRAM
👀55🔥19❤11👍5
Media is too big
VIEW IN TELEGRAM
Google наконец-то докрутили свою Gemini до вау-эффекта. Что там интересного:
⚪️ Новая экспериментальная модель Gemini 2.0 Flash. Работает быстрее своего предшественника Flash 1.5 и соображает лучше по большинству бенчмарков. Доступна всем уже сейчас. Также докручены агентные способности: понимание файлов, например.
⚪️ Realtime мультимодальный API. На вход принимает текст, голос и даже видео в онлайне! То есть с ней можно разговаривать и одновременно показывать экран устройства или мир вокруг с камеры. Задержка почти незаметна, отвечать тоже может голосом. При этом в любом режиме инпута доступны инструменты (поиск в интернете, интерпретатор кода). Тоже доступно бесплатно. Картинки на выход тоже может, но пока без редактирования.
⚪️ Функция Deep Research (вот она доступна только для Advanced юзеров). Это углубленный поиск в интернете на заданную тему. Перед тем, как идти в поиск, моделька составляет план и показывает его вам для правок. Потом идет и рыщет по ссылкам, находит новые источники, проверяет детали и через несколько минут выкатывает вам большой отчет. Ну супер же!
Google снова в гонке, получается🎉
Google снова в гонке, получается
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥108👍26❤7😁2🎉1
Тем временем соцсети уже переполнены кейсами применения нового Realtime API Gemini. А если хотите попробовать сами локально (напоминаем, это бесплатно) – то мы принесли вам код
1. Скачивайте файл отсюда
2. Запускаете pip install pyaudio websockets
3. Добавляете в строку GEMINI_API_KEY={TOKEN} свой токен
4. Вы великолепны и можете болтать с Gemini по видеосвязи
1. Скачивайте файл отсюда
2. Запускаете pip install pyaudio websockets
3. Добавляете в строку GEMINI_API_KEY={TOKEN} свой токен
4. Вы великолепны и можете болтать с Gemini по видеосвязи
🔥72👍17❤5🎉3🤔1🤪1
Что-то на шикарном: посмотрите, какие видео генерит Kandinsky 4.0 Video
Релиз представили буквально сегодня на конференции AI Journey. Нейросеть научилась делать очень качественные ролики с плавными переходами и сочной картинкой. Причем по любому описанию или стартовому кадру.
Реалистичность тоже оказалась на уровне. В публичный доступ выложат совсем скоро, в 2025 году, так что ждем и тестируем.
Релиз представили буквально сегодня на конференции AI Journey. Нейросеть научилась делать очень качественные ролики с плавными переходами и сочной картинкой. Причем по любому описанию или стартовому кадру.
Реалистичность тоже оказалась на уровне. В публичный доступ выложат совсем скоро, в 2025 году, так что ждем и тестируем.
🔥73😁28👍14🤨11🗿8❤4💅4🤪1