О, CEO Perplexity объявил, что стартап скоро выпустит собственный ИИ-браузер
Релиз уже готов, сейчас даже можно подать заявку на ранний доступ. Судя по всему, сейчас проводят последние тесты, и продукт выйдет уже со дня на день.
Ожидать стоит чего-то вроде Operator, но (возможно) с более удобным и нативным интерфейсом. Суть: агент, который может выполнять за вас любые действия в браузере. Это не только поиск, но и оплата счетов, бронирования, работа с документами и тд.
Жутко любопытно
Релиз уже готов, сейчас даже можно подать заявку на ранний доступ. Судя по всему, сейчас проводят последние тесты, и продукт выйдет уже со дня на день.
Ожидать стоит чего-то вроде Operator, но (возможно) с более удобным и нативным интерфейсом. Суть: агент, который может выполнять за вас любые действия в браузере. Это не только поиск, но и оплата счетов, бронирования, работа с документами и тд.
Жутко любопытно
3❤143👍57🔥31 17🤔8🐳3👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Далеко ли до будущего, где рекомендации — это ещё одна модальность LLM наравне с текстом и визуалом, которая может подсказать тебе не только, что посмотреть, но и будущую профессию — рассказал в подкасте инженер рекомендательных систем Яндекса Николай Савушкин.
Пока основная сложность, с которой столкнулись разработчики, — это настоящее проклятие. Оно так и называется: «the curse of quality saturation», то есть проклятие качественного насыщения.
Пока основная сложность, с которой столкнулись разработчики, — это настоящее проклятие. Оно так и называется: «the curse of quality saturation», то есть проклятие качественного насыщения.
1 66😁19❤9👍7🗿3🤨2 2🔥1👌1
Apple выпустили модель для кодинга, но не простую, а диффузионную
Напоминаем, что фишка диффузионных языковых моделей в том, что, в отличие от классических авторегрессионных трансформеров, в них генерация может происходить не обязательно слева-направо, а в произвольном порядке.
Отсюда и название – потому что модель, как в диффузионных генераторах картинок, как бы расшумляет замаскированную последовательность, а не просто генерирует ее токен за токеном.
Такой подход намного быстрее и порой эффективнее по качеству. Сейчас диффузионные LM мощно набирают популярность, даже Google недавно выпустили Gemini Diffusion (пост). Вот и Apple решили попробовать себя на модном поприще.
Если кратко, они взяли Qwen-2.5-Coder и с помощью марковских представлений научили его работать с масками.
Правда, без доп тюнинга модель все равно в большинстве скатывается в авторегрессию, то есть подсаживается на левосторонние токены. Но это регулируется с помощью RL и настройки температуры.
Прирост по метрикам от базовой модели составил +4,4 % по метрике EvalPlus. При этом генерация стала вдвое быстрее. Как видите, потенциал у подхода есть: особенно в коде, где для модели очень важна как раз эта диффузионная способность видеть наперед и планировать свои генерации.
Да, бывают и у Apple хорошие технические статьи. Модель, кстати, выложили в опенсорс
Напоминаем, что фишка диффузионных языковых моделей в том, что, в отличие от классических авторегрессионных трансформеров, в них генерация может происходить не обязательно слева-направо, а в произвольном порядке.
Отсюда и название – потому что модель, как в диффузионных генераторах картинок, как бы расшумляет замаскированную последовательность, а не просто генерирует ее токен за токеном.
Такой подход намного быстрее и порой эффективнее по качеству. Сейчас диффузионные LM мощно набирают популярность, даже Google недавно выпустили Gemini Diffusion (пост). Вот и Apple решили попробовать себя на модном поприще.
Если кратко, они взяли Qwen-2.5-Coder и с помощью марковских представлений научили его работать с масками.
Правда, без доп тюнинга модель все равно в большинстве скатывается в авторегрессию, то есть подсаживается на левосторонние токены. Но это регулируется с помощью RL и настройки температуры.
Прирост по метрикам от базовой модели составил +4,4 % по метрике EvalPlus. При этом генерация стала вдвое быстрее. Как видите, потенциал у подхода есть: особенно в коде, где для модели очень важна как раз эта диффузионная способность видеть наперед и планировать свои генерации.
Да, бывают и у Apple хорошие технические статьи. Модель, кстати, выложили в опенсорс
3❤127🔥41👍27🤯11🤔2🗿1
Смотрите, какая любопытная статья вышла на Хабре
Прочитали про разработку YDB — распределенной СУБД с открытым исходным кодом. Она предназначена для высоконагруженных систем, поддерживает федеративные запросы и может работать с внешними источниками данных.
Пожалуй, самое интересное: YDB помогают развивать студенты российских IT-вузов. Благодаря ним уже появилась интеграция с PostgreSQL, ClickHouse, MySQL, и MS SQL Server. На очереди – добавление поддержки MongoDB и Redis. Крутые опен-сорс кейсы в портфолио на старте карьеры.
Все подробности тут: https://habr.com/ru/companies/yandex/articles/919120/
Прочитали про разработку YDB — распределенной СУБД с открытым исходным кодом. Она предназначена для высоконагруженных систем, поддерживает федеративные запросы и может работать с внешними источниками данных.
Пожалуй, самое интересное: YDB помогают развивать студенты российских IT-вузов. Благодаря ним уже появилась интеграция с PostgreSQL, ClickHouse, MySQL, и MS SQL Server. На очереди – добавление поддержки MongoDB и Redis. Крутые опен-сорс кейсы в портфолио на старте карьеры.
Все подробности тут: https://habr.com/ru/companies/yandex/articles/919120/
1❤55 40🔥15👍9❤🔥6🗿3🤯2
Data Secrets
Цукерберг предлагал сотрудникам OpenAI 100 миллионов долларов за переход в Meta Об этом рассказал Сэм Альтман в свежем подкасте с его участием. По его словам, пока никто из инженеров и ученых компании не согласился на предложение Цука. «Мне кажется, наши…
«Миссионеры все равно победят наемников» – Сэм Альтман
CEO OpenAI (несмотря на значительные потери сотрудников, которые перешли к Цукербергу) продолжает настаивать на том, что это ничего не значит, и у OpenAI все равно гораздо больше потенциала для роста.
Он заявил журналистам, что вообще-то Цукербергу пришлось спуститься «довольно далеко по списку сотрудников», потому что топовых ученых ему, вопреки долгим попыткам, схантить не удалось.
Ну так что: высокая культура или все-таки 100 миллионов долларов?🤓
CEO OpenAI (несмотря на значительные потери сотрудников, которые перешли к Цукербергу) продолжает настаивать на том, что это ничего не значит, и у OpenAI все равно гораздо больше потенциала для роста.
Он заявил журналистам, что вообще-то Цукербергу пришлось спуститься «довольно далеко по списку сотрудников», потому что топовых ученых ему, вопреки долгим попыткам, схантить не удалось.
Подход Цукерберга приведет к очень глубоким культурным проблемам в компании. А пока Meta будет пытаться с этим справиться, мы будем здесь, днем за днем, год за годом, искать пути делать то, что мы делаем, лучше всех.
Ну так что: высокая культура или все-таки 100 миллионов долларов?
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁270👍29😎24❤13 8🔥2☃1
Data Secrets
«Миссионеры все равно победят наемников» – Сэм Альтман CEO OpenAI (несмотря на значительные потери сотрудников, которые перешли к Цукербергу) продолжает настаивать на том, что это ничего не значит, и у OpenAI все равно гораздо больше потенциала для роста.…
Альтман: да Цукербергу все равно не удалось захантить тех, кого он на самом деле хотел
Тем временем мемы, которые постит один из главных девелоперов API из OpenAI:
Тем временем мемы, которые постит один из главных девелоперов API из OpenAI:
1😁528😎32❤25 9 5👍3🔥2🤝2
Крупная американская финансовая компания Robinhood объявила, что начинает продавать электронные акции OpenAI. Но есть нюанс…
В понедельник Robinhood официально заявили, что они начинают продавать гражданам ЕС так называемые токенизированные акции OpenAI, SpaceX и других частных компаний. Целью миссии они обозначили «возможность дать обычным людям доступ к капиталам самых ценных компаний через блокчейн» (как звучит то!).
Новость быстро облетела весь интернет и начался настоящий ажиотаж. Еще бы: это же эксклюзивная возможность купить акции частных компаний.
Вот только частными эти компании делает как раз то, что они никогда не продают свои акции открыто, а раздают их на свое усмотрение инвесторам.
И, ожидаемо, вчера вечером OpenAI заявили, что не имеют к этим токенам никакого отношения😐
Но как так вышло? А очень просто: Robinhood владеют частью акций компании SPV, а та владеет частью акций OpenAI. Ну и они почему-то подумали, что по транзитивности могут эти акции продавать. Вот только так делать незаконно: фактические цены могут отличаться, и на продажу действительно требуется разрешение OpenAI.
Сколько людей успели купить недоакции – неизвестно. Зато на настоящий момент акции самих Robinhood уже успели взлететь до исторического максимума, а сейчас (после заявления OpenAI) начинают драматически рушится.
К успеху шли🤠
В понедельник Robinhood официально заявили, что они начинают продавать гражданам ЕС так называемые токенизированные акции OpenAI, SpaceX и других частных компаний. Целью миссии они обозначили «возможность дать обычным людям доступ к капиталам самых ценных компаний через блокчейн» (как звучит то!).
Новость быстро облетела весь интернет и начался настоящий ажиотаж. Еще бы: это же эксклюзивная возможность купить акции частных компаний.
Вот только частными эти компании делает как раз то, что они никогда не продают свои акции открыто, а раздают их на свое усмотрение инвесторам.
И, ожидаемо, вчера вечером OpenAI заявили, что не имеют к этим токенам никакого отношения
«Мы не связывались с Robinhood и не давали разрешения на продажу. Эти токены не являются доступом к капиталу OpenAI»
Но как так вышло? А очень просто: Robinhood владеют частью акций компании SPV, а та владеет частью акций OpenAI. Ну и они почему-то подумали, что по транзитивности могут эти акции продавать. Вот только так делать незаконно: фактические цены могут отличаться, и на продажу действительно требуется разрешение OpenAI.
Сколько людей успели купить недоакции – неизвестно. Зато на настоящий момент акции самих Robinhood уже успели взлететь до исторического максимума, а сейчас (после заявления OpenAI) начинают драматически рушится.
К успеху шли
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁150❤18 8🔥6👍5☃3❤🔥2👏1
OpenAI подписали сделку с Oracle на 30 миллиардов долларов
Об этом заявили сами Oracle. Они, правда, напрямую не назвали заказчика, но обозначили, что сделка подписана в рамках проекта Stargate, так что всем и так все понятно.
OpenAI будет арендовать у Oracle 4.5 гигаватта. Такая мощность могла бы обеспечить энергией порядка 3.5 миллиона домов.
При этом, судя по всему, у корпорации столько пока даже нет: они сообщают, что им придется развернуть несколько датацентров на территории США, чтобы удовлетворить «дополнительный спрос» со стороны клиента.
Где-то потирает руки Дженсен Хуанг
Об этом заявили сами Oracle. Они, правда, напрямую не назвали заказчика, но обозначили, что сделка подписана в рамках проекта Stargate, так что всем и так все понятно.
OpenAI будет арендовать у Oracle 4.5 гигаватта. Такая мощность могла бы обеспечить энергией порядка 3.5 миллиона домов.
При этом, судя по всему, у корпорации столько пока даже нет: они сообщают, что им придется развернуть несколько датацентров на территории США, чтобы удовлетворить «дополнительный спрос» со стороны клиента.
Где-то потирает руки Дженсен Хуанг
1😁104❤39⚡15👍7🔥2🤯2👏1
Amazon расширили свой робо-парк и теперь на их заводах работает 1 миллион железных трудяг
Это делает компанию крупнейшим мировым оператором мобильных роботов. Они также сообщают, что теперь используют ИИ-технологии для оптимизации их работы.
Технология называется DeepFleet, она полностью контролирует передвижение роботов по центрам выполнения заказов. На данный момент DeepFleet уже помог сократить суммарную продолжительность маршрутов железных на 10%. В деньгах это, кажется, довольно много.
В компании говорят, что к концу года количество роботов на их предприятиях превзойдет количество людей. А уже сегодня, если заказываете что-то с амазона, знайте: с вероятностью 75% в доставке вашего заказа был задействован ИИ-робот.
Это делает компанию крупнейшим мировым оператором мобильных роботов. Они также сообщают, что теперь используют ИИ-технологии для оптимизации их работы.
Технология называется DeepFleet, она полностью контролирует передвижение роботов по центрам выполнения заказов. На данный момент DeepFleet уже помог сократить суммарную продолжительность маршрутов железных на 10%. В деньгах это, кажется, довольно много.
В компании говорят, что к концу года количество роботов на их предприятиях превзойдет количество людей. А уже сегодня, если заказываете что-то с амазона, знайте: с вероятностью 75% в доставке вашего заказа был задействован ИИ-робот.
1❤86🤨22👍20 13👏5🔥4😁2🤯2🗿2 1 1
Карьера в Meta такая типа:
Никогда не сдавайся, усердно учись и трудись, заложи основы ИИ, изобрети сверточные нейросети, которыми будут пользоваться все и повсюду, получи премию Тьюринга, стань главным профессором Нью-Йоркского университета и признанным отцом ML и однажды…
ты сможешь работать под начальством 28-летнего миллиардера.
Ладно, сам Лекун оправдывает сложившую иерархию тем, что он любит оставаться ученым, а не руководителем, и заниматься непосредственно рисерчем и генерацией идей. «Люди все равно слушают меня, но не потому что я босс, а потому что им нравятся мои идеи».
Никогда не сдавайся, усердно учись и трудись, заложи основы ИИ, изобрети сверточные нейросети, которыми будут пользоваться все и повсюду, получи премию Тьюринга, стань главным профессором Нью-Йоркского университета и признанным отцом ML и однажды…
ты сможешь работать под начальством 28-летнего миллиардера.
Ладно, сам Лекун оправдывает сложившую иерархию тем, что он любит оставаться ученым, а не руководителем, и заниматься непосредственно рисерчем и генерацией идей. «Люди все равно слушают меня, но не потому что я босс, а потому что им нравятся мои идеи».
1😁241 60🤯35❤31👍13🫡9🤔5🐳5🔥4💯4 3
Компанию Ильи Суцкевера покинул генеральный директор
Место CEO с самого момента зарождения проекта занимал Дэниел Гросс – очень известный (и достаточно молодой) предприниматель, инвестор и ex-директор по ML в Apple.
Но сегодня стало известно, что он покидает Safe Superintelligence. Куда он уходит – неизвестно. Место CEO теперь займет непосредственно Суцкевер, а должность президента отойдет к третьему со-основателю – Дэниелу Леви.
Вот записка от Ильи, которую он разослал своим сотрудникам и инвесторам, и разместил на официальном сайте SSI в связи с увольнением Дэниела:
Последний абзац – 💀
Место CEO с самого момента зарождения проекта занимал Дэниел Гросс – очень известный (и достаточно молодой) предприниматель, инвестор и ex-директор по ML в Apple.
Но сегодня стало известно, что он покидает Safe Superintelligence. Куда он уходит – неизвестно. Место CEO теперь займет непосредственно Суцкевер, а должность президента отойдет к третьему со-основателю – Дэниелу Леви.
Вот записка от Ильи, которую он разослал своим сотрудникам и инвесторам, и разместил на официальном сайте SSI в связи с увольнением Дэниела:
Как вы знаете, время Дэниела Гросса с нами подошло к концу, с 29 июня он официально больше не является частью SSI. Мы благодарны за его ранний вклад в компанию и желаем ему всего наилучшего в его следующем начинании.
Теперь я официально являюсь генеральным директором SSI, а Дэниел Леви - президентом. Техническая команда также продолжает подчиняться мне.
Возможно, вы слышали слухи о компаниях, которые хотят нас приобрести. Мы польщены их вниманием, но сосредоточены на том, чтобы довести нашу работу до конца.
У нас есть вычисления, у нас есть команда, и мы знаем, что делать. Вместе мы продолжим создавать безопасный суперинтеллект.
Последний абзац – 💀
1🕊101 36 32❤17👍8😁4 3🔥1👏1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите: вот такой LLM-анализ нашего канала нам внезапно прилетел от подписчика 😍
Его в качестве пет-проекта сделал автор канала Neural Deep Валерий Ковальский. Причем сделал на собственных видеокартах с использованием локального qwen2.5-32b-instruct+SO.
Самое прекрасное – это, конечно, вот эта симпатичная кластерная визуализация на видео. Чтобы такую получить, надо:
1. Сначала классифицировать и извлечь метаданные из всех постов
2. Векторизовать все сообщения и запихнуть это в векторную БД
3. Визуализировать распределение по методу UMAP
В общем, мы в восторге. Давайте накидаем Валерию огонечков 🔥 за такую красоту.
Пост с канала Neural Deep с подробностями
Его в качестве пет-проекта сделал автор канала Neural Deep Валерий Ковальский. Причем сделал на собственных видеокартах с использованием локального qwen2.5-32b-instruct+SO.
Самое прекрасное – это, конечно, вот эта симпатичная кластерная визуализация на видео. Чтобы такую получить, надо:
1. Сначала классифицировать и извлечь метаданные из всех постов
2. Векторизовать все сообщения и запихнуть это в векторную БД
3. Визуализировать распределение по методу UMAP
В общем, мы в восторге. Давайте накидаем Валерию огонечков 🔥 за такую красоту.
Пост с канала Neural Deep с подробностями
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥685 44❤21🤝8😁4❤🔥3👍3🤔3🤯2
Пользуясь случаем, не можем еще раз не подсветить замечательный канал Валерия Neural Deep
Во-первых, автор большой спец по RAG, LLMOps, локальному инференсу и всему, что связано с AI Infrastructure (отсюда и такие частые и глубокие разборы кейсов с локальными LLM на канале).
За весь свой опыт Валерий успел построить рексис в Билайне, кучу RAG-платформ для крупных заказчиков, а теперь работает Head of AI в red_mad_robot.
Пишет он про железо, RAG, реальный опыт внедрения LLM в прод и запуск ИИ-продуктов. Инженерно, интересно, иногда хардово.
Из последнего – обязательно почитайте пост про вайб-кодинг. Это, пожалуй, наиболее трезвое мнение по поводу этого явления: просто потому что это слова не вайб-кодера из X, которому «Ааа, ИИ сгенерировал приложение за 5 минут», а технически подкованного человека с кучей лет опыта, который видит в коде любые косяки и понимает важность системного подхода.
Советуем от души: @neuraldeep
Во-первых, автор большой спец по RAG, LLMOps, локальному инференсу и всему, что связано с AI Infrastructure (отсюда и такие частые и глубокие разборы кейсов с локальными LLM на канале).
За весь свой опыт Валерий успел построить рексис в Билайне, кучу RAG-платформ для крупных заказчиков, а теперь работает Head of AI в red_mad_robot.
Пишет он про железо, RAG, реальный опыт внедрения LLM в прод и запуск ИИ-продуктов. Инженерно, интересно, иногда хардово.
Из последнего – обязательно почитайте пост про вайб-кодинг. Это, пожалуй, наиболее трезвое мнение по поводу этого явления: просто потому что это слова не вайб-кодера из X, которому «Ааа, ИИ сгенерировал приложение за 5 минут», а технически подкованного человека с кучей лет опыта, который видит в коде любые косяки и понимает важность системного подхода.
Советуем от души: @neuraldeep
1👍50😁41🔥20❤12 9🤨5🤯1
Внезапно: ИИ повысил вероятность пандемий в 5 раз
К такому выводу, по словам Time, пришли эксперты-биологи. В основном дело в биооружии: если мы достигнем AGI, возможность намеренно вызвать новую пандемию будет почти у каждого.
И даже при текущем уровне искусственного интеллекта вероятность возникновения массовой эпидемии уже в 5 раз выше, чем год назад. В 2024 эта величина равнялась 0.3%, сейчас же приближается к 1.5%😐
time.com/7298645/ai-pandemic-5-times-more-likely/#
К такому выводу, по словам Time, пришли эксперты-биологи. В основном дело в биооружии: если мы достигнем AGI, возможность намеренно вызвать новую пандемию будет почти у каждого.
И даже при текущем уровне искусственного интеллекта вероятность возникновения массовой эпидемии уже в 5 раз выше, чем год назад. В 2024 эта величина равнялась 0.3%, сейчас же приближается к 1.5%
time.com/7298645/ai-pandemic-5-times-more-likely/#
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯101 50 29😁17 11🔥5❤4👍2🤓2 2
Forwarded from Data Secrets | Карьера
Мира Мурати в погоне за талантами: сколько получают сотрудники секретного стартапа?
🔷 В Thinking Machines Lab — секретном стартапе бывшей сооучредительницы OpenAI Миры Мурати тех.специалисты получают от 450.000 до 500.000$ в год.
🔷 При этом это только базовая зарплата, без учета всех бонусов, акций и премий. По примерным подсчетам, средняя зарплата в стартапе у Мурати выше, чем у ее бывших коллег.
🔷 OpenAI платит в среднем 292.115$ своим 29 техническим сотрудникам, при этом самая высокооплачиваемая должность приносит 530.000$, а самая низкооплачиваемая — 200.000$.
🔷 Anthropic платит в среднем 387.500$ 14 техническим сотрудникам, при этом самая высокая зарплата составляет 690.000$, самая низкая — 300.000$.
🔷 Также известно, что в начале этого года компания TML устроила массовый набор сотрудников, наняв Боба МакГрю (бывшего главного научного сотрудника OpenAI), Джона Шульмана (одного из руководителей ChatGPT), Баррета Зофа (одного из создателей ChatGPT) и Александра Кириллова, который тесно сотрудничал с Мурати над голосовым режимом ChatGPT.
Как бы Цукерберг не нацелился на таланты Мурати😰
Как бы Цукерберг не нацелился на таланты Мурати
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁93🔥29❤19👍18 7 3🦄2❤🔥1🎉1
Как обучение математике влияет на другие способности модели – новое исследование от крупнейших университетов США и Китая
Уже долго в области LLM по умолчанию считается, что если затюнить модель на математику и кодинг, ее способности улучшаться и в других областях. Якобы, улучшаем общее научное мышление. Но так ли это?
Ученые из университетов Гонконга, Карнеги-Меллона, Пенсильвании и Вашингтона специально брали модель, обучали ее математике и замеряли так называемый Transferability Index – то есть относительный прирост метрик в новой группе задач относительно прироста в математике.
В итоге эмпирически доказано: математика действительно бустит общий интеллект, все как у людей. Но вот насколько сильно – зависит от того, как тюним.
Если с помощью обычного SFT, то TI получается около 40%. Неплохо, но с RL все интереснее. Там TI аж под 80%.
Почему так? PCA показывает, что SFT просто слишком сильно меняет латентное пространство моделей, и это ухудшает гибкость относительно новых задач.
А вот RL редактирует лишь ключевые предметно-важные распределения токенов, а нерелевантные слои не трогает. Получается синергия: сохраняем общие знания и усиливаем их техническими.
Вот так. На самом деле очень важный для практики результат. В статье, кстати, еще много интересных визуализаций и графиков: arxiv.org/pdf/2507.00432
Уже долго в области LLM по умолчанию считается, что если затюнить модель на математику и кодинг, ее способности улучшаться и в других областях. Якобы, улучшаем общее научное мышление. Но так ли это?
Ученые из университетов Гонконга, Карнеги-Меллона, Пенсильвании и Вашингтона специально брали модель, обучали ее математике и замеряли так называемый Transferability Index – то есть относительный прирост метрик в новой группе задач относительно прироста в математике.
В итоге эмпирически доказано: математика действительно бустит общий интеллект, все как у людей. Но вот насколько сильно – зависит от того, как тюним.
Если с помощью обычного SFT, то TI получается около 40%. Неплохо, но с RL все интереснее. Там TI аж под 80%.
Почему так? PCA показывает, что SFT просто слишком сильно меняет латентное пространство моделей, и это ухудшает гибкость относительно новых задач.
А вот RL редактирует лишь ключевые предметно-важные распределения токенов, а нерелевантные слои не трогает. Получается синергия: сохраняем общие знания и усиливаем их техническими.
Вот так. На самом деле очень важный для практики результат. В статье, кстати, еще много интересных визуализаций и графиков: arxiv.org/pdf/2507.00432
❤176🔥63👍32🍾3👨💻2🤔1 1