Привет! На связи команда МТС True Tech Talents. Мы запускаем набор на 4 поток Школы аналитиков данных🥚
Обучение проходит в онлайн-формате и длится 10 месяцев. Преподаватели — эксперты нашего центра Big Data. Вы научитесь писать на Python, прокачаетесь в математике, основах машинного обучения, ML Ops, Spark и прочих вещах, без которых не выйдет работать в Data Science. Также у студентов будет возможность попасть на стажировку в МТС Web Services.
Обучение бесплатное, но места ограничены - чтобы попасть, необходимо подать заявку до 30 октября и выполнить вступительное задание. Старт обучения - 10 ноября!
Регистрируйся по ссылке, ждём тебя!
Обучение проходит в онлайн-формате и длится 10 месяцев. Преподаватели — эксперты нашего центра Big Data. Вы научитесь писать на Python, прокачаетесь в математике, основах машинного обучения, ML Ops, Spark и прочих вещах, без которых не выйдет работать в Data Science. Также у студентов будет возможность попасть на стажировку в МТС Web Services.
Обучение бесплатное, но места ограничены - чтобы попасть, необходимо подать заявку до 30 октября и выполнить вступительное задание. Старт обучения - 10 ноября!
Регистрируйся по ссылке, ждём тебя!
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁26❤18🗿17 4🤯2
Google DeepMind выпустили занятную статью, в которой проверили, насколько хорошо Veo 3 понимает мир
Google уже долгое время говорят, что их Veo – это не просто моделька для генерации прикольных видосиков, а (потенциально) полноценная world modeling система, которую хотят использовать для обучения следующего поколения моделей, агентов и роботов.
А еще, возможно, такие модели как Veo сами по себе могут стать следующим шагом в развитии ИИ. Ведь ученые вроде Лекуна очень любят повторять, что именно отсутствие понимания материального мира – основная проблема современных LLM, которая отделяет нас от AGI.
Так вот. В Google решили проверить, насколько уже сейчас текущая версия Veo понимает физику и логику нашего мира. Ее прогнали по большому сету задач, среди которых были: лабиринты, моделирование физики, визуальные задачки на ризонинг, распознавание свойств объектов и тд и тп.
Все задачки и как с ними справилась Veo можно посмотреть тут. Если кратко:
– Модель действительно способна решать широкий набор задач, для которых ее не обучали. Пример: детекция, которой напрямую не было в трейне.
– Veo 3 решает задачи, требующие пошагового визуального мышления (которое авторы называют Chain-of-Frames (CoF), аналог Chain-of-Thought в LLM). Например, на лабиринтах 5 на 5 точность достигает 78% на pass@10. Для такой модельки это прямо неплохо.
– Хорошо понимает физику и может смоделировать сложные штуки типа плавучести, трения, отражений, преломлений и другого.
Вывод такой: подобные модели точно можно рассматривать как альтернативу обучению на тексте. Пока, конечно, их развитие все еще в зачатке. Но кто знает, что будет через год, два или три.
Статья
Google уже долгое время говорят, что их Veo – это не просто моделька для генерации прикольных видосиков, а (потенциально) полноценная world modeling система, которую хотят использовать для обучения следующего поколения моделей, агентов и роботов.
А еще, возможно, такие модели как Veo сами по себе могут стать следующим шагом в развитии ИИ. Ведь ученые вроде Лекуна очень любят повторять, что именно отсутствие понимания материального мира – основная проблема современных LLM, которая отделяет нас от AGI.
Так вот. В Google решили проверить, насколько уже сейчас текущая версия Veo понимает физику и логику нашего мира. Ее прогнали по большому сету задач, среди которых были: лабиринты, моделирование физики, визуальные задачки на ризонинг, распознавание свойств объектов и тд и тп.
Все задачки и как с ними справилась Veo можно посмотреть тут. Если кратко:
– Модель действительно способна решать широкий набор задач, для которых ее не обучали. Пример: детекция, которой напрямую не было в трейне.
– Veo 3 решает задачи, требующие пошагового визуального мышления (которое авторы называют Chain-of-Frames (CoF), аналог Chain-of-Thought в LLM). Например, на лабиринтах 5 на 5 точность достигает 78% на pass@10. Для такой модельки это прямо неплохо.
– Хорошо понимает физику и может смоделировать сложные штуки типа плавучести, трения, отражений, преломлений и другого.
Вывод такой: подобные модели точно можно рассматривать как альтернативу обучению на тексте. Пока, конечно, их развитие все еще в зачатке. Но кто знает, что будет через год, два или три.
Статья
👍77🔥37❤12 5😁2
Новое с OpenAI DevDay 2025 (будет несколько постов):
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
➖ скинуть боту набросок дизайна и вызвать Figma -> агент построит готовый проект;
➖ попросить найти квартиру и вызвать Booking -> он сам будет искать по вариантам и уточнять, что вы хотите;
➖ вызвать Canva и описание -> получите готовую презентацию;
➖ попросить систавить плейлист и вызвать Spotify -> агент скинет сформированный плейлист;
➖ попросить объяснить что-то и вызвать Coursera -> вы сможете смотреть обучающие видео прямо в чате и в режиме лайв спрашивать модель о происходящем.
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:
Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤74🤯38😁12👍6⚡5😎2🕊1
2. Тот самый вау-конструктор для агентов, о котором мы писали утром – Agent Builder.
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.
Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.
Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
1❤65⚡17👍14🤝2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того:
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.
– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.
Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
❤53👍14⚡6🤯2😁1
Ждем цен (которые будут, очевидно, конскими)
UPD: дождались
– GPT-5 Pro: 15$/M input, 125$/M output.
– Sora 2: 0.10$ за секунду видео в 720x1280.
Sora-2 pro за такое же разрешение – 0.30$ за секунду.
За 1024x1792 – 0.50$ за секунду.
Есть тут у нас миллионеры?
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡98🤯30👍21🔥11❤9😁8👨💻1
OpenAI заключили многомиллиардную сделку с AMD
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%🤦♂️
Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.
Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.
Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.
Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.
То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.
Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.
Акции Nvidia, кстати, при этом упали на 2%
Please open Telegram to view this post
VIEW IN TELEGRAM
😎94🤯31❤27😁17👍12 5🔥1👀1
Пост для любителей обучать нейросети на работе, после работы, вместо работы, на выходных, в отпуске, с женой или вместо жены.
Недавно стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
Недавно стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
🤨37❤21👍10🗿3🔥2😁2🤯2
Data Secrets
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того: – Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы. – Добавили Codex SDK. Теперь агента можно прикрутить…
Еще одна интересная деталь со вчерашней презентации, которую мало кто заметил: весь код в OpenAI теперь проверяет Codex
92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.
ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так?☺️
92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.
ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁240 55❤16👍7🫡2
Data Secrets
OpenAI заключили многомиллиардную сделку с AMD Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга. Начиная с…
Ситуация на рынке примерно следующая
😁208😎27🤔10 3❤2👍1😍1
Нобелевскую премию по физике этого года присудили за открытие в области квантовых вычислений
Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.
Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.
Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).
По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.
Поздравляем!
Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.
Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.
Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).
По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.
Поздравляем!
❤212🔥90👍31 11🎉7 5💯2❤🔥1
В польском стартапе Pathway создали новую архитектуру нейросетей – Biological Dragon Hatchling
Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.
В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.
С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.
И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.
Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.
Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:
1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.
2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.
3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.
Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.
Код | Статья
Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.
В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.
С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.
И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.
Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.
Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:
1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.
2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.
3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.
Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.
Код | Статья
❤127👍37🔥21 6👏2😁2 1