J'son & Partners показали свежее исследование, где сравнивают, как разные страны готовят будущих ML-инженеров. Главная проблема – спрос на ИИ-спецов везде растёт быстрее, чем универы успевают адаптироваться😳
Каждая страна выкручивается по-своему.
Например, в Китае всё максимально централизовано. Государство задаёт жёсткие требования к программам и масштабирует их на всю систему образования.
В Штатах, наоборот, рулят университеты. Они автономны, сильны в исследованиях и сами пересобирают свои программы под рынок. Красиво, но есть нюансы: обучение дорогое, а выпускники часто получают очень разнородные компетенции.
В России ИИ-образование строят на стыке вузов и бигтехов – компании участвуют в запуске бакалавриатов и магистратур. Причем делают это давно: яндексовский ШАД, например, готовит ML-щиков с 2007 года и его курсы легли в основу ряда программ в МФТИ, ИТМО, Вышке и других университетах.
Помимо этого, бигтехи участвуют и в процессе обучения: практикующие инженеры приходят преподавать на IT-программы. И вряд ли для них это про доп заработок, скорее про то, чтобы внести свой вклад в новое поколение ML-инженеров.
Такая вот модель – аналитики говорят, вполне устойчивая в долгосроке.
Каждая страна выкручивается по-своему.
Например, в Китае всё максимально централизовано. Государство задаёт жёсткие требования к программам и масштабирует их на всю систему образования.
В Штатах, наоборот, рулят университеты. Они автономны, сильны в исследованиях и сами пересобирают свои программы под рынок. Красиво, но есть нюансы: обучение дорогое, а выпускники часто получают очень разнородные компетенции.
В России ИИ-образование строят на стыке вузов и бигтехов – компании участвуют в запуске бакалавриатов и магистратур. Причем делают это давно: яндексовский ШАД, например, готовит ML-щиков с 2007 года и его курсы легли в основу ряда программ в МФТИ, ИТМО, Вышке и других университетах.
Помимо этого, бигтехи участвуют и в процессе обучения: практикующие инженеры приходят преподавать на IT-программы. И вряд ли для них это про доп заработок, скорее про то, чтобы внести свой вклад в новое поколение ML-инженеров.
Такая вот модель – аналитики говорят, вполне устойчивая в долгосроке.
1❤63😁21👍8☃5🗿5🔥3 2❤🔥1
HuggingFace и их бесплатные курсы по ML – отличный вариант, чем заняться на новогодних
За последние пару лет HF существенно расширили свою библиотеку бесплатных курсов, и теперь все они собраны вот тут.
Некоторые совсем свежие, другим 2-4 года, но они обновляются. Всего их 12:
– LLM Course (советуем от души)
– Robotics
– MCP
– a smol course по пост-трейнингу
– Agents
– Deep RL
– Computer Vision
– Audio
– Open-Source Cookbook (не совсем курс, но штука полезная, чтобы поизучать)
– ML for games
– Diffusion Course
– ML for 3D
Хватит на все январские, в общем. Забирайте: https://huggingface.co/learn
За последние пару лет HF существенно расширили свою библиотеку бесплатных курсов, и теперь все они собраны вот тут.
Некоторые совсем свежие, другим 2-4 года, но они обновляются. Всего их 12:
– LLM Course (советуем от души)
– Robotics
– MCP
– a smol course по пост-трейнингу
– Agents
– Deep RL
– Computer Vision
– Audio
– Open-Source Cookbook (не совсем курс, но штука полезная, чтобы поизучать)
– ML for games
– Diffusion Course
– ML for 3D
Хватит на все январские, в общем. Забирайте: https://huggingface.co/learn
☃82❤37🔥13👍8🤗3✍2😁2
Data Secrets
Приятно: Anthropic удвоили все лимиты в платных тарифах на время праздников 🎁
OpenAI вслед за Anthropic удвоили лимиты на Codex до конца года!
Собираемся с силами и работаем, пока аттракцион щедрости не закончился🎄
Собираемся с силами и работаем, пока аттракцион щедрости не закончился
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥100😁42🎄18👍8⚡1❤1
OpenAI завезли новогоднего настроения: они выпустили новую версию Codex под названием GPT-5.2-Codex-XMas
По качеству это ровно та же самая GPT-5.2-Codex (к сожалению), но личность модели выкручена в соответствии с сезоном. Так что кто хочет покодить с Санта Кодексом – вперед, модельку уже раскатили🎄
$ codex -m gpt-5.2-codex-xmas
По качеству это ровно та же самая GPT-5.2-Codex (к сожалению), но личность модели выкручена в соответствии с сезоном. Так что кто хочет покодить с Санта Кодексом – вперед, модельку уже раскатили
$ codex -m gpt-5.2-codex-xmas
Please open Telegram to view this post
VIEW IN TELEGRAM
😁92🎄19👍9🔥1🕊1
За последние два года OpenAI потеряла половину своей доли enterprise рынка
Menlo опубликовали свой ежегодный отчет об ИИ-рынке. Они насчитали, что с 2023 доля OpenAI на рынке LLM API драматично упала с 50 до 27 процентов.
В лидеры сейчас выбились Anthropic, у них 40% рынка (хотя в 2023 было почти в три раза меньше). Дальше OpenAI со своими оставшимися 27%, и на третьем месте Google (~21).
🔵
Menlo опубликовали свой ежегодный отчет об ИИ-рынке. Они насчитали, что с 2023 доля OpenAI на рынке LLM API драматично упала с 50 до 27 процентов.
В лидеры сейчас выбились Anthropic, у них 40% рынка (хотя в 2023 было почти в три раза меньше). Дальше OpenAI со своими оставшимися 27%, и на третьем месте Google (~21).
Please open Telegram to view this post
VIEW IN TELEGRAM
😁82🔥44 26 13❤6👍5💯3
В 2026 у каждого из нас появится... ИИ-патронус
Стало известно, что Яндекс разрабатывает эмпатичных AI-ассистентов, которые будут принимать форму животных и призваны стать настоящими полезными приятелями. Их назвали "люмены" и планируется, что они станут частью развлекательных сервисов: будут советовать фильмы и сериалы, обсуждать с вами разный контент и тд.
Главная фича всего проекта – эмпатия. Кейс с GPT-4o явно показал, что многие пользователи выбирают ИИ-ассистента именно по критерию «человечности», и только потом смотрят на уровень способностей. Есть все основания полагать, что этот тренд сохранится при переходе от чат-ботов к агентам, то есть мультимодальным системам с текстом, голосом, экраном, сенсорами и специальными функциями.
При этом разработчики подчеркивают, что люмены не будут притворяться друзьями для пользователя (это важно). Это будет скорее виртуальное тандемное животное.
Люмен каждого юзера будет уникален, и своего собственного уже можно разбудить на лендинге lumen.yandex.ru – тогда вы войдете в список тех, кто первыми получит доступ к скрытым функциям ассистентов.
Стало известно, что Яндекс разрабатывает эмпатичных AI-ассистентов, которые будут принимать форму животных и призваны стать настоящими полезными приятелями. Их назвали "люмены" и планируется, что они станут частью развлекательных сервисов: будут советовать фильмы и сериалы, обсуждать с вами разный контент и тд.
Главная фича всего проекта – эмпатия. Кейс с GPT-4o явно показал, что многие пользователи выбирают ИИ-ассистента именно по критерию «человечности», и только потом смотрят на уровень способностей. Есть все основания полагать, что этот тренд сохранится при переходе от чат-ботов к агентам, то есть мультимодальным системам с текстом, голосом, экраном, сенсорами и специальными функциями.
При этом разработчики подчеркивают, что люмены не будут притворяться друзьями для пользователя (это важно). Это будет скорее виртуальное тандемное животное.
Люмен каждого юзера будет уникален, и своего собственного уже можно разбудить на лендинге lumen.yandex.ru – тогда вы войдете в список тех, кто первыми получит доступ к скрытым функциям ассистентов.
😁66🗿54❤23 10🤨9⚡5🔥3👏3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
А вы знали, что Disney разрабатывают аква-роботов?
Сегодня наткнулись вот на такое видео. Стало интересно, мы погуглили, и оказывается, что:
– История аква-роботов в Disney началась еще 20 лет назад, и тогда это были базовые подводные дроны с моторчиками для вертикального/горизонтального контроля. Они были больше похожи на что-то радиоуправляемое.
– Недавно, примерно в 2020, начали появляться уже более новые биомиметрические прототипы, которые имитировали дельфинов. У них уже были плавники вместо пропеллеров, чтобы движения были более плавные.
– И в 2025 у них вышли почти автономные гидрофойлы с GPS, ультразвуковыми сенсорами и системами самобалансировки. Пока они предназначены в основном для шоу в парках Disney. В компании говорят, что их вдохновляли реальные водные животные и (внимание) существа из второй части Аватара🤔
Короче, вы видите перед собой будущее дельфинариев
Сегодня наткнулись вот на такое видео. Стало интересно, мы погуглили, и оказывается, что:
– История аква-роботов в Disney началась еще 20 лет назад, и тогда это были базовые подводные дроны с моторчиками для вертикального/горизонтального контроля. Они были больше похожи на что-то радиоуправляемое.
– Недавно, примерно в 2020, начали появляться уже более новые биомиметрические прототипы, которые имитировали дельфинов. У них уже были плавники вместо пропеллеров, чтобы движения были более плавные.
– И в 2025 у них вышли почти автономные гидрофойлы с GPS, ультразвуковыми сенсорами и системами самобалансировки. Пока они предназначены в основном для шоу в парках Disney. В компании говорят, что их вдохновляли реальные водные животные и (внимание) существа из второй части Аватара
Короче, вы видите перед собой будущее дельфинариев
Please open Telegram to view this post
VIEW IN TELEGRAM
Создатели ARC-AGI объявили, что начали работать над четвертой и пятой версиями бенчмарка
Напоминаем:
– ARC-AGI 1: простенькие для человека пазлы в формате "дано несколько примеров цветных сеток, продолжи логический ряд". Проверяется способность к минимальному абстрактному рассуждению и обобщению. Примеры тут.
– ARC-AGI 2: тот же формат цветных сеток, но задачи заметно сложнее даже для человека (средний уровень людей – 60%). Выше композиционная сложность + есть защита от простого перебора. Примеры.
– ARC-AGI 3: уже не статичные паззлы, а интерактивные игровые среды (тестируют уже не LLM, а агентов). И агент должен воспринимать, планировать и действовать много шагов подряд в новых незнакомых условиях. Проверяется способность к адаптации и гибкости мышления. Примеры.
! Официально ARC-AGI 3 еще не вышел, его выпускали только в превью. Вчера создатели наконец объявили, что собираются запустить бенчмарк в марте, а также рассказали, что начинают работать над следующими версиями 4 и 5. Пока нет ни слова о том, что это будет. Но, вероятно, нужно снова ожидать какую-то игровую историю, только еще более усложненную.
Напоминаем:
– ARC-AGI 1: простенькие для человека пазлы в формате "дано несколько примеров цветных сеток, продолжи логический ряд". Проверяется способность к минимальному абстрактному рассуждению и обобщению. Примеры тут.
– ARC-AGI 2: тот же формат цветных сеток, но задачи заметно сложнее даже для человека (средний уровень людей – 60%). Выше композиционная сложность + есть защита от простого перебора. Примеры.
– ARC-AGI 3: уже не статичные паззлы, а интерактивные игровые среды (тестируют уже не LLM, а агентов). И агент должен воспринимать, планировать и действовать много шагов подряд в новых незнакомых условиях. Проверяется способность к адаптации и гибкости мышления. Примеры.
! Официально ARC-AGI 3 еще не вышел, его выпускали только в превью. Вчера создатели наконец объявили, что собираются запустить бенчмарк в марте, а также рассказали, что начинают работать над следующими версиями 4 и 5. Пока нет ни слова о том, что это будет. Но, вероятно, нужно снова ожидать какую-то игровую историю, только еще более усложненную.
1😁78🔥27👍18❤11🤔1
Авито переходит от локальных кейсов использования LLM к полноценным агентам
Стало известно, что технологическая платформа начала тестирование двух ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов.
➖ Ави станет полноценным помощником в выборе товаров. Агент подбирает релевантные предложения по описанию задачи и помогает разобраться в различиях между вариантами. Его специально обучали понимать даже размытые промпты, и, судя по статистике, эффект от внедрения должен быть огромный: 59% пользователей приходят на платформу без четкого запроса, а 43% уже готовы доверить выбор цифровому ассистенту.
➖ Ави Pro для продавцов будет помогать вести бизнес эффективнее. В частности, в нем хорошо прокачали tool use, и агент сможет детально анализировать статистику объявлений с учетом действий покупателей и других игроков, выявлять причины изменений в показателях и подсказывать, как повысить эффективность продаж. Опять же, по стататистике, 24% продавцов уже используют внешние ИИ-сервисы, так что спрос на агента, вероятно, будет немалый.
В Авито, кстати, намекают, что это мультиагентная система. Оба сервиса уже начинают тестировать на ограниченных группах пользователей, а в 2026 на их развитие выделят 1 млрд руб.
Стало известно, что технологическая платформа начала тестирование двух ИИ-ассистентов: Ави для покупателей и Ави Pro для продавцов.
В Авито, кстати, намекают, что это мультиагентная система. Оба сервиса уже начинают тестировать на ограниченных группах пользователей, а в 2026 на их развитие выделят 1 млрд руб.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿43❤30👍19🔥5😁4🎄3
«В ближайшие 12-18 месяцев ВВП вырастет более, чем на 10 процентов» – заявил Илон Маск.
Также, по его мнению, если прикладной ИИ окажется прокси-метрикой для экономического роста, то примерно за 5 лет возможен уже «triple-digit», то есть рост свыше 100% в год.
В комментариях объявляется конкурс: нужно вспомнить хотя бы одно предсказание/обещание Илона Маска, которое сбылось🤔
Также, по его мнению, если прикладной ИИ окажется прокси-метрикой для экономического роста, то примерно за 5 лет возможен уже «triple-digit», то есть рост свыше 100% в год.
В комментариях объявляется конкурс: нужно вспомнить хотя бы одно предсказание/обещание Илона Маска, которое сбылось
Please open Telegram to view this post
VIEW IN TELEGRAM
😁269❤14👍13🔥7🗿4 3🤨2 2
Андрей Карпаты заявил, что чувствует себя отстающим программистом в мире ИИ
Вот что он написал:
Кажется, на Новый Год Андрей решил подарить нам экзистенциальный кризис и приступ тревожности✌️
Вот что он написал:
Я никогда не чувствовал себя настолько отстающим как программист. Профессия радикально переписывается: вклад человека в код становится все более разреженным и фрагментарным. Возникает ощущение, что я мог бы быть в десять раз эффективнее, если бы действительно научился связывать воедино все то, что появилось за последний ~год, и неспособность открыть для себя этот буст ощущается откровенно как skill issue.
Появился новый программируемый уровень абстракции, который нужно освоить (в дополнение ко всем привычным уровням ниже): агенты и субагенты, их промпты, контексты, память, режимы, права доступа, инструменты, плагины, навыки, хуки, MCP, LSP, слэш-команды, воркфлоу, интеграции с IDE – и необходимость выстроить всеобъемлющую ментальную модель сильных и слабых сторон сущностей, которые по своей природе стохастичны, ошибочны, неинтерпретируемы и постоянно меняются, но при этом внезапно переплетаются с тем, что раньше было просто старым добрым инжинирингом.
Нам всем как будто раздали мощный инопланетный инструмент, но без инструкции. Каждый вынужден сам разбираться, как его держать и как им пользоваться, в то время как профессия переживает землетрясение магнитудой 9. Засучивайте рукава, если не хотите остаться позади.
Кажется, на Новый Год Андрей решил подарить нам экзистенциальный кризис и приступ тревожности
Please open Telegram to view this post
VIEW IN TELEGRAM
5😁307 103💯75❤25👍18🔥6 5🎄4❤🔥3🤯1🤩1
За этот год ИИ в России стал заметно приземлённее
И это, пожалуй, главный сдвиг. Всё меньше разговоров «про потенциал» и всё больше решений, которые встраиваются в уже работающие процессы и дают быстрые результаты.
Вот несколько российских ИИ-стартапов из этой сферы:
CyberPhysics научили ИИ предсказывать поломки оборудования без установки дополнительных датчиков, только по данным, которые уже есть у завода.
Bitrobotics создали CV-роботов, которые помогают автоматизировать рутину на производстве.
«Синтелли» разработали ИИ‑платформу, которая быстро анализирует для химиков и фармацевтов колоссальные объёмы молекул и реакций.
Slider AI запустили ИИ для сбора презентаций из данных пользователя.
HiveTrace придумали, как в режиме реального времени защищать GenAI-приложения от атак и утечек.
Эти кейсы показывают текущее состояние рынка: ИИ становится частью инфраструктуры. Подробный разбор этих проектов и общей логики рынка — в блоге Яндекса.
Кстати, для команд с рабочими прототипами это ещё и сигнал, что вокруг таких решений постепенно формируется поддержка — в том числе через индустриальные программы и акселераторы.
И это, пожалуй, главный сдвиг. Всё меньше разговоров «про потенциал» и всё больше решений, которые встраиваются в уже работающие процессы и дают быстрые результаты.
Вот несколько российских ИИ-стартапов из этой сферы:
CyberPhysics научили ИИ предсказывать поломки оборудования без установки дополнительных датчиков, только по данным, которые уже есть у завода.
Bitrobotics создали CV-роботов, которые помогают автоматизировать рутину на производстве.
«Синтелли» разработали ИИ‑платформу, которая быстро анализирует для химиков и фармацевтов колоссальные объёмы молекул и реакций.
Slider AI запустили ИИ для сбора презентаций из данных пользователя.
HiveTrace придумали, как в режиме реального времени защищать GenAI-приложения от атак и утечек.
Эти кейсы показывают текущее состояние рынка: ИИ становится частью инфраструктуры. Подробный разбор этих проектов и общей логики рынка — в блоге Яндекса.
Кстати, для команд с рабочими прототипами это ещё и сигнал, что вокруг таких решений постепенно формируется поддержка — в том числе через индустриальные программы и акселераторы.
🗿77❤38😁17🔥14👍8🆒2
Data Secrets
Андрей Карпаты заявил, что чувствует себя отстающим программистом в мире ИИ Вот что он написал: Я никогда не чувствовал себя настолько отстающим как программист. Профессия радикально переписывается: вклад человека в код становится все более разреженным…
Ну и добивочка от Андрея под тем же постом: «Если вы не следите за новостями хотя бы 30 дней, ваши взгляды уже устарели»
Это вам на случай, если вы хотели устроить диджитал детокс на январских🙄
P.S. Эти два сообщения пахнут, как еще +20 миллиардов к стоимости Anthropic
Это вам на случай, если вы хотели устроить диджитал детокс на январских
P.S. Эти два сообщения пахнут, как еще +20 миллиардов к стоимости Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
😁211❤36🔥24👍9🤯4🗿4🐳2🤝1
Meta* под конец года выпустили прекрасную статью, в которой предложили новый способ обучения агентов
Современный ИИ все еще напрямую зависит от человеческой разметки и человеческих данных в целом. И с этим куча проблем: дорого, долго, "данные кончаются" и тд.
В Meta к тому же уверены, что это в принципе жеский потолок на пути к AGI: если учить агентов только на человеческом следе, то обучение сводится к шлифовке человеческого опыта. Тогда можно ли быть на 100% уверенным, что такие системы могут научиться чему-то вне распределения и стать умнее нас? Особенно это относится к таким областям, как кодинг, о котором дальше и пойдет речь.
Исследователи предложили Self-Play SWE-RL – способ обучать агентов так, чтобы они самосовершенствовались на своих же данных.
Состоит Self-Play SWE-RL из двух сущностей: Bug-injector и Bug-solver. На вход системе поступает какой-то репозиторий с кодом, Bug-injector изучает его, ломает код и ослабляет тесты так, чтобы баг спрятался.
Задача Bug-solver очевидна: починить код, и при этом без issue-текста, без подсказок, без готовых тест-раннеров. И если в процессе он сам что-то поломал, этот кейс тоже становится частью датасета и расширяет выборку.
Нужно понимать, что это не просто синтетические баги. Тут ломает и чинит код одна и та же политика (то есть это просто разные роли одного агента). В этом смысле подход чем-то напоминает GAN: солвер учится за счет того, что инджектор становится умнее, и наоборот.
Результаты следующие:
– Code World Model (CWM) на 32B, которая уже прошла этап sft и которую обучали таким образом, вышла на +10.4% на SWE-bench Verified и на +7.8% на SWE-bench Pro
– Если сравнивать с обычным RL, то такой подход дает +2.4% на SWE-bench Verified и на +3.6% на SWE-bench Pro
Не прорыв, конечно, но редко какой пайплайн сегодня дает такие ощутимые приросты, так что довольно интересно (но код, к сожалению, не дали).
https://arxiv.org/pdf/2512.18552
Современный ИИ все еще напрямую зависит от человеческой разметки и человеческих данных в целом. И с этим куча проблем: дорого, долго, "данные кончаются" и тд.
В Meta к тому же уверены, что это в принципе жеский потолок на пути к AGI: если учить агентов только на человеческом следе, то обучение сводится к шлифовке человеческого опыта. Тогда можно ли быть на 100% уверенным, что такие системы могут научиться чему-то вне распределения и стать умнее нас? Особенно это относится к таким областям, как кодинг, о котором дальше и пойдет речь.
Исследователи предложили Self-Play SWE-RL – способ обучать агентов так, чтобы они самосовершенствовались на своих же данных.
Состоит Self-Play SWE-RL из двух сущностей: Bug-injector и Bug-solver. На вход системе поступает какой-то репозиторий с кодом, Bug-injector изучает его, ломает код и ослабляет тесты так, чтобы баг спрятался.
Задача Bug-solver очевидна: починить код, и при этом без issue-текста, без подсказок, без готовых тест-раннеров. И если в процессе он сам что-то поломал, этот кейс тоже становится частью датасета и расширяет выборку.
Нужно понимать, что это не просто синтетические баги. Тут ломает и чинит код одна и та же политика (то есть это просто разные роли одного агента). В этом смысле подход чем-то напоминает GAN: солвер учится за счет того, что инджектор становится умнее, и наоборот.
Результаты следующие:
– Code World Model (CWM) на 32B, которая уже прошла этап sft и которую обучали таким образом, вышла на +10.4% на SWE-bench Verified и на +7.8% на SWE-bench Pro
– Если сравнивать с обычным RL, то такой подход дает +2.4% на SWE-bench Verified и на +3.6% на SWE-bench Pro
Не прорыв, конечно, но редко какой пайплайн сегодня дает такие ощутимые приросты, так что довольно интересно (но код, к сожалению, не дали).
https://arxiv.org/pdf/2512.18552
❤101👍36🔥11😁6 3⚡2👌1🗿1
OpenAI нанимает Head of Preparedness – человека, который будет готовиться к рискам ИИ
Это абсолютно новая для стартапа роль, и это будет позиция не про элаймент, а про моделирование мира после релиза моделей.
То есть Head of Preparedness будет отвечать на вопросы про будущее: что плохого может произойти после релиза модели, чего не отловишь в экспериментах, в каких неочевидных областях она может быть опасна, какие есть долгоиграющие угрозы, ну и тд.
Альтман пишет, что в 2025 году они увидели первый тревожный сигнал – влияние моделей на психическое здоровье людей (помните эти истории про самоубийства из-за ChatGPT?). Плюс модели достигли довольно серьезного уровня к кодинге, а значит представляют потенциальную опасность в сфере кибератак.
Собственно, это все и стало поводом к найму такого человека. (Хочется верить, что нанимают реально для дела, а не маркетинга ради).
Платить обещают $555k с учетом бонусов. Не Цукерберговские цифры, конечно, но на жизнь вроде хватит😐
openai.com/careers/head-of-preparedness-san-francisco/
Это абсолютно новая для стартапа роль, и это будет позиция не про элаймент, а про моделирование мира после релиза моделей.
То есть Head of Preparedness будет отвечать на вопросы про будущее: что плохого может произойти после релиза модели, чего не отловишь в экспериментах, в каких неочевидных областях она может быть опасна, какие есть долгоиграющие угрозы, ну и тд.
Альтман пишет, что в 2025 году они увидели первый тревожный сигнал – влияние моделей на психическое здоровье людей (помните эти истории про самоубийства из-за ChatGPT?). Плюс модели достигли довольно серьезного уровня к кодинге, а значит представляют потенциальную опасность в сфере кибератак.
Собственно, это все и стало поводом к найму такого человека. (Хочется верить, что нанимают реально для дела, а не маркетинга ради).
Платить обещают $555k с учетом бонусов. Не Цукерберговские цифры, конечно, но на жизнь вроде хватит
openai.com/careers/head-of-preparedness-san-francisco/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁73👍16🔥7❤4 3🤨2