эйай ньюз
84.4K subscribers
1.84K photos
979 videos
7 files
2.18K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

Ex-Staff Research Scientist в Meta Generative AI. Сейчас CEO&Founder AI стартапа в Швейцарии.

Aвтор: @asanakoy

PR: @ssnowysnow
Download Telegram
Один из аккаунтов OpenAI взломали криптоскамеры. Пожалуйста, соблюдайте правила цифровой гигиены и не переходите ни по каким ссылкам.

Хороший пример того, что в OpenAI работают такие же люди, которые тоже могут совершать ошибки.

@ai_newz
1😁158😱34👍21🫡65🦄5🤩3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
ByteDance (отец ТикТока) выпустил свою собственную модель видео генерации - PixelDance.

Все больше игроков выпускают свои video generation модели. Вот и ТикТок подоспел. Китайцы оценивают, что размер рынка инструментов для AI video-generation в Китае достигнет $1.3 млрд к 2026. Вот и суетятся.

Моделька PixelDance умеет в text2video и image2video (это анимация фото). Генерит клипы длительности до 10 сек. Архитектурно это все еще DiT трансформер.

Заявлено, что новая модель более стабильна при переходе между катами, сохраняет стиль, например, когда меняется камера и резко показывается новый объект.

Анонсировали еще мелкую, и, наверное, более быструю версию модели под названием Seaweed.

Конечно же ничего из этого не в опенсорсе, и потрогать пока нельзя. Но ждем, что в октябре выкатят что-то в апке TikTok. Скорее всего сначала выкатят мелкую модель с качеством похуже - ибо большую гонять очень дорого.

@ai_newz
177🔥42👍19🤯9🫡3🦄1
Запись большого стрима про карьеру и собесы в БигТех

Так как все спрашивали про запись недавнего стрима с коллегами из FAANG, мы все-таки ее выложили:)

Вот таймкоды, на интересные моменты:
2:00 - Интро
10:27 - Интро со мной, про мои походы в горы
11:49 - Чем я занимаюсь по работе
12:30 - Emu Flash - риалтайм генерация картинок в meta-ai, и как наша демка дошла до Цукерберга
20:40 - Кто спал днем, а кто всю ночь работал
21:45 - Как выглядят собесы на ресерч менеджера в Мету
33:20 - Про Behavioral интервью
45:22 - Какие собесы на research позиции?
48:27 - Коротко про AI Research Design интервью
49:17 - Почему нужно PhD на ресерч роли, какие скилы применяются в работе
51:05 - Будут ли умирать роли в Applied Research с приходом LLM? (нет)
55:54 - Про менторство, как это помогает расти, как найти ментора.
1:11:13 - Какая мотивация работать в БигТехе.
1:49:24 - Заключение. Финальные советы по прохождению собесов и по карьере в целом.

Как и обещал на стриме ( 1:02:25 ), я анонсировал закрытое комьюнити по подготовке к собеседованиям на AI/ML роли в FAANG и не-FAANG. Подробности и как записаться – в посте.

#personal #career #interviews
@ai_newz
378🔥45👍13🦄9❤‍🔥7😱1
Advanced Voice Mode для ChatGPT теперь доступен (почти) всем подписчикам Plus и Team

Я попробовал: низкая задержка и возможность перебивать очень впечатляют. Плюс модель сильно лучше воспринимает слова из других языков в речи. Из минусов - доступно лишь в мобильном приложении, веб версию обделили.

К сожалению, режим пока недоступен для пользователей из стран ЕС, а также ряда европейских стран, включая Великобританию и Швейцарию 😢 (пришлось использовать VPN).

А какие у вас впечатления? Делитесь в комментариях.

@ai_newz
39🔥13😁8🤩32👍2🦄1
Через минуту начнется ежегодной стрим презентации Meta Connect. Возможно покажут что-то из того, к чему я приложил руку.

Буду постить про самые интересные апдейты.

- Стрим в FB

- Расписание докладов. Будет даже мини-курс LLama 101 с основами использования моделей LLaMa.

- И в дополнение вот ссылки на мои посты с предыдущих Connect 2021 (тык) и 2022 (тык) и 2023 (тык).

@ai_newz
🔥4621👍5❤‍🔥4😁2😱1🦄1
Понеслась! Анонсировали Quest 3s

- Pass through
- Mixed Reality
- Hand tracking
- Touch plus controllers
- Spatial Sounds - для иммерсивного 3D звука
- 128/256 GB memory
- Можо подключать его к компу и создавать виртуальные дисплеи - отлично для номадов, кто не таскает с собой дисплеи.

По сути, эта штука работает лучше чем прошлогодний Quest 3 на релизе, до софтовых апдейтов, еще и дешевле.

Выходит 15 октября, цена - $299

А на Quest 3 снизили цену до $499.

@ai_newz
255🔥42😍10👍7😁3🫡1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Марк показал вот такую штуку – редактирование изображений в Meta AI.

Наша команда (и я) как раз работала над тем, чтобы достичь такой высокой скорости генерации по заданному промпту, ведь юзер не хочет долго ждать.

#personal #мойпуть
@ai_newz
112🔥82👍8🤩7❤‍🔥6🦄3💯1
Показали голосовой режим для Meta AI!

Первый прямой конкурент Advanced Voice Mode. Будет доступен уже сегодня - бесплатно!

Будет доступно куча голосов знаменитостей - John Cena, Awkwafina, etc.

Раньше OpenAI релизили перед анонсами гугла, теперь перед анонсами Meta, приятно) Теперь понятно, почему Сэма так зашевелился.

@ai_newz
68🔥33👍12❤‍🔥4😁3🦄1
🔥LLaMa 3.2 - Multimodal в опенсорсе!

Теперь в LLama официально завезли поддержку изображений! До этого мы имели в open-source только сторонние поделки вроде LLaVa и InternVL (они брали Llama3 за основу и тюнили).

Теперь модель понимает графики и диаграммы, описывает изображения и может находить на них объекты по описаниям.

Например, пользователь может спросить, в каком месяце его компания имела лучшие продажи, и модель даст ответ на основе доступных графиков.

Есть несколько размеров:
- Маленькая модель - 11B параметров
- Средняя - 90B. Обходит GPT-4o-mini по Vision бенчам.
- Более легковесные text-only модели: 1B и 3B параметров. Как раз, чтобы бегать локально на девайсах. 3B обходит Gemma 2 и Phi-3.5 - Mini.
- Контекст 128,000 токенов, как и в LLama 3.1

С легковесными моделями можно создавать персонализированые приложения с агентами в закрытой среде - например, резюмировать ваши сообщения, емейлы или отправлять приглашения в календарь.

И теперь с Llama 3.2 ждём очередной большой скачок качества Multimodal LLM в опенсорсе!

Блогпост
Веса на HF

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30838👍27😱17🤩2❤‍🔥1😁1🦄1
CTO OpenAI, Мира Мурати уходит из OpenAI.

Пишет, что все было круто и всем благодарна, особенно Сэму и Грэгу, но хочет заняться своим exploration, что бы это ни значило.

Уйти с позиции CTO в одной из самых хайповых компаний от того, что все было очень хорошо - это прям наглый шаг. Что думаете?

@ai_newz
3🤯166🦄39🔥16😁1411👍11🫡9❤‍🔥5
OpenAI может перестать быть нонпрофитом

Судя по источникам Reuters, в компании планируют большую реструктуризацию - дочернюю коммерческую компанию, которая и так занимается большинством дел, собираются вывести из-под контроля некоммерческой организации. Некоммерческая всё ещё будет владеть минимальной частью акций, но не большинством. Сэм Альтман получит акции в коммерческой компании (впервые, до этого он отказывался из брать).

Изменение, скорее всего, привязано к следующему раунду финансирования - 6 миллиардов долларов по оценке в 150 миллиардов. После прошлых раундов Microsoft и так владеет 49% дочерней компании, единственный способ привлечь инвестиции, не продавая акции нонпрофита – это размыть долю Microsoft, на что вряд ли кто-то пойдёт.

После ухода Ильи Суцкевера из OpenAI в интернете полгода спрашивали - "what did Ilya see?". Ответ мы получили лишь недавно - ранние результаты того что в итоге стало o1. Ответ на вопрос "what did Mira see?" пришёл почти моментально.

@ai_newz
1🤯87😁46😱21👍1912🫡7🦄3❤‍🔥22🔥1
Загадочная Blueberry 🫐 рвёт всех на Text to Image арене

На арене засветилось две новые модели на уровне SOTA. Кто их натренировал - непонятно. У обеих ELO выше чем у остальных моделей на арене, но из-за малого размера выборки позиции могут ещё слегка поменяться. Как думаете, чья?

https://artificialanalysis.ai/text-to-image/arena

@ai_newz
5👍78🔥28🦄127
🙂Возможность делать PhD в Mete в Париже - это то, о чем я говорил на стриме.

Никита, с которым мы делали стрим 2 недели назад сейчас как раз на такой программе в Мете. Просто топ возможнсть, я бы и сам пошел второй раз на такое PhD, если бы уже не работал в Мете:)

Тут позиция в команде, которая работает кроме всего прочего над генерацией кода, discrete search & continuous optimization methods for long-term planning, large-scale RL. Тему можно будет выбрать самому, дают достаточно свободы.

- С визой и переездом помогают. Можно подавать даже если вы уже успели пару лет поработать после магистратуры.

- Платят хорошую денюжку и есть очень много GPU ресурсов brrrr.

- Бесплатная еда 😁

Так что дерзайте - подавайте и проходите собеседования!

Твит
Подавать тут

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥123🤩2619👍13🦄5😁3🫡2😱1
О компенсации в FAANG+ (часть 1)

В MAANG и прочих Биг-Техах существует четкая иерархия инженерных уровней, которая определяет ваш карьерный рост и компенсацию. Подробнее о левелах от L3 до L8 и различиях между ними я писал в этой серии постов. Сейчас же поговорим про компенсацию (зп в простонародии) и из чего она обычно состоит.

Зп как правило зависит от грейда, но грейды в FAANG не 1 к 1 совпадают между компаниями, ну и компенсация тоже может варьироваться. Как вы видите на картинке с levels.fyi, есть различия между фирмами, например Senior - это L5 в Мете, L6 в Амазоне и L4 в Эппл. Поэтому в этом посте мы рассмотрим линейку грейдов Гугла/Меты как хрестоматийную, от нее и будем отталкиваться.

Total comp (полная компенсация) в FAANG обычно состоит из базовой компенсации (кеш), equity (стоков) и бонусов.

- Base (кеш) - это то, что вы получаете на свою банковский счет ежемесячно. Кешевые вилки обычно строго определены для каждого уровня. Эти деньги вы получаете всегда, независимо от вашего перформанса. Обычно указывется как Gross (до налогов) в год.
- Еquity - это как правило частичка компании в виде акций (stocks) или опционов, которые вам выдают как часть компенсации. Обычно пакет акций выделяется на 4 года, и они попадают вам в руки (vesting) раз в квартал – вы получаете в полное владение 1/16 от общего числа акций и можете с ними делать, что хотите. Это делается для того, чтобы замотивировать сотрудника (а) остаться подольше (б) хорошо работать, чтобы компания росла в цене.
- Refreshers - это дополнительные небольшие пакеты акций, которые вы получаете раз в год по итогам вашего перформанса. Они тоже вестятся в течение 4-х лет. Таким образом за несколько лет работы в одной компании у вас накапливается несколько пакетов акций, из каждого из которых раз в квартал вы получаете 1/16. Кумулятивный эффект может быть весьма заметным, значительно увеличивая ваш total comp.
- Бонусы - это % от Base, который вам дается по итогам перформанса за год. Размер бонуса (в % ) зависит от вашей синьорности и коэффициентов, которые высчитываются из вашего перформанса и успехов компании за год. Для L3 это обычно 10%, для L4 и L5 - 15%, для L6 - 20%.
- Sign-on bonus - разовая бонусная выплата в начале работы на новой месте. Часто используется чтобы компенсировать упущенную выгоду при смене работы кандидатом либо для покрытия расходов на переезд. Обычно от $10,000 до $100,000. У меня некоторые знакомые, с помощью таких сайн-онов закрывали долги за обучение и спокойно уезжали работать.

Размер Equity, Refreshers и бонусов сильно зависит от вашего уровня и того, насколько вы востребованный специалист. Например, Base компенсация у SWE и AI Researcher-ов не отличается, а вот размер пакета акций и сайн-он бонуса может быть совсем разным для рядового SWE и для AI Research Scientist / AI Engineer, который прям очень нужен компании.

Медианная total comp у SWE (Software Engineer) в США по статистике с Glassdoor на сентябрь 2024 - $181,000/год. Но это число может быть слегка завышено.

В FAANG+ же зарплаты стартуют от $150к для джунов и до $550к для синьоров. А грейды Staff+ могут зарабатывать от $600к до нескольких миллионов.

В Европе везде в среднем платят значительно ниже чем в США, кроме Швейцарии (там заработок +- как в США), и Англии (там выше чем в остальной Европе, но ниже чем в Швейцарии). Но все равно FAANG+ далеко в лидерах по total comp, а довольно высокий уровень жизни в Европе будет обходиться сильно дешевле чем в США или Швейцарии.

Если вы сейчас планируете сделать рывок в своей Total comp, то я как раз скоро буду в первый раз проводить интенсив по подготовке к собесам на AI/ML роли в FAANG+. Будут фишки и best practices как готовиться и чего ожидать. Подробности в этом посте или в боте @ai_newz_intensive_bot.

#bigtechlevels #карьера

@ai_newz
12🔥118👍4236🤯12😁10🦄51🤩1😍1💯1
Уже мчусь на поезде в Милан, чтобы завтра пойти на конференцию ECCV24. Впереди много классных докладов и нетворкинга!

И уже создал чат, буду организовывать тусы - это то, что я особенно люблю во время конференций. Залетайте: https://xn--r1a.website/+ovvnxsSwBXkzMzky

---

На завтра я для себя выбрал следующие туториалы и воркшопы.

Туториалы:
- Large Multimodal Foundation Models - на доклады Джитендры и Тревора Дарела грех не пойти
- Efficient Text-to-Image and Text-to-3D modeling - будет интересный доклад про Parallel decoding for token-based image generation 11:30-12:00

Воркшопы:
- AI for Visual Arts Workshop and Challenges - Мне это близко, так как много над этой темой работал во время PhD. А в 09:30 будет выступать мой доктор-батя Бьёрн Оммер, надо сходить.

- The Second Perception Test Challenge - В 10:15-10:45 выступает Abhinav Gupta из CMU, всегда нравятся его доклады.

- 50SFM:Half-century of Structure-from-Motion - SFM алгоритму уже почти пол века, хочу пойти на доклад "A historical review of SfM - 300 years and counting" (14:30 - 15:00) или "My 30-year journey with SfM" (16:00 - 16:30) от Марка Полифейса.

- Self-Supervised Learning - What is next? - организует мой товарищ Миша Доркенвальд, и тема из моего PhD. "Vision Foundation Models (with academic compute)" 11:55-12:30

- Efficient Deep Learning for Foundation Models - очень класный лайнап докладов (14:10-5:40) по интересной мне теме.

- 3rd edition of Computer Vision for Metaverse - наша команда ко-организует.

- Autonomous Vehicles meet Multimodal Foundation Models - заскочить посмотреть, как VLLM пытаются использовать в автономном вождении и как справляются с длинном хвостом распределения редких объектов.

- Workshop on Unlearning and Model Editing - интересный докдлад про контроль генерации диффузией "Prompt Sliders for Fine-Grained Control, Editing and Erasing of Concepts in Diffusion Models" в 15:10-15:30

#personal #конфа
@ai_newz
6102🔥57👍19😍14🦄10🤩3😁1💯1🫡1