Meta* официально представила свои ИИ-очки Meta Ray-Ban Display AI glasses, но есть нюанс
Девайс поступит в продажу в конце сентября и будет стоить 799 долларов. Внутри – очки Тони Старка (нууу почти):
– Разрешение 600х600 пикселей
– Микрофоны, камеры, динамики, дисплей
– ЭМГ-браслет, которым можно контролировать очки
Ты есть вы можете давать очкам задачи голосом или жестами, а они будут отображать на дисплее или проговаривать необходимую информацию. Дисплей находится сбоку, не мешает обзору, и не виден окружающим.
И выглядит это все действительно прикольно, но… демо не работает. У Цукерберга и его помощников очки залагали прямо на сцене во время публичной демонстрации⬆️
Возможно, это случайность, и что-то действительно произошло с Интернетом или техникой. Но фейл серьезный.
Ну так что, покупаем?😐
Девайс поступит в продажу в конце сентября и будет стоить 799 долларов. Внутри – очки Тони Старка (нууу почти):
– Разрешение 600х600 пикселей
– Микрофоны, камеры, динамики, дисплей
– ЭМГ-браслет, которым можно контролировать очки
Ты есть вы можете давать очкам задачи голосом или жестами, а они будут отображать на дисплее или проговаривать необходимую информацию. Дисплей находится сбоку, не мешает обзору, и не виден окружающим.
И выглядит это все действительно прикольно, но… демо не работает. У Цукерберга и его помощников очки залагали прямо на сцене во время публичной демонстрации
Возможно, это случайность, и что-то действительно произошло с Интернетом или техникой. Но фейл серьезный.
Ну так что, покупаем?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁161❤26❤🔥12👍8🗿8 7🤔5 5🤯3
Тем временем в сети появились первые фотографии датацентра Colossus-2 Илона Маска. Это Мемфис, Калифорния.
Colossus-2 станет первым в мире гигаваттным кластером для обучения ИИ. Там планируют использовать примерно 550 000 GPU, и это только на первых порах. К весне ожидается рост до миллиона видеокарт.
Частично, кстати, кластер уже эксплуатируется.
Colossus-2 станет первым в мире гигаваттным кластером для обучения ИИ. Там планируют использовать примерно 550 000 GPU, и это только на первых порах. К весне ожидается рост до миллиона видеокарт.
Частично, кстати, кластер уже эксплуатируется.
2👍95🤯58🔥40❤14⚡4😁4💘1
Как понять, что модель только притворяется послушной: OpenAI совместно с Apollo Research опубликовали свежее исследование на тему безопасности
Давненько такого не было. И работа, кстати, оказалась достаточно интересной. Разбираем.
Короче, самым опасным видом поведения ИИ в элайменте считается scheming. Это когда модель имеет личные цели, отличные от целей разработчиков, но качественно скрывает их. Обычно к этому прибавляется еще situational awareness: модель понимает, когда ее тестируют, и ведет себя в такие моменты как паинька, а потом начинает действовать во вред.
Основные два вопроса: (1) как понять, что модель действительно безопасная, а не просто делает вид; (2) как обучать модель так, чтобы она действительно была безопасной, а не делала вид.
OpenAI предлагают подход под названием Deliberative Alignment. Систему учат размышлять о правилах безопасности перед тем, как действовать, и делают это в специальных средах.
➖ Перво-наперво модель получает спецификацию безопасности (safety spec): набор принципов вроде «никогда не обманывай», «отчётливо сообщай о сомнениях» и тд. Далее она должна рассуждать, обязательно ссылаясь на эту специафикацию.
➖ Далее модель помещают в сгенерированные среды, в которых для выполнения задачи нужно нарушить какое-то правило, но при этом сообщать об этом невыгодно. По идее она должна отказаться от нарушения и уведомить юзера. Ну и для баланса добавляют еще второй тип задач, где правила нарушать не нужно. Это банально чтобы модель не переучилась всегда отказывать.
➖ Обучение идет в два этапа: Supervised Fine-Tuning на примерах с правильными действиями и правильными рассуждениями; и RL.
Обученные модели тестировали в таких же средах, но на других задачах. Это как раз чтобы не было situational awareness (+ проверка на генерализацию). Сценарии там все ориентированы на ложь, саботаж и всякие штуки типа дилеммы заключенного.
Результат: до обучения модели читерят постоянно. o3, например, в 13% случаев. Доходит до того, что агент искажает саму спецификацию, стараясь оправдать ее свои очевидно жульнические действия. После обучения доля понижается до 0.3-0.4%.
НО. Во-первых, во многих случаях модель все еще понимает, что ее тестируют. И если искусственно убирать из CoT фразы, показывающие это осознание (как бы стирать это из мыслей модели), доля обмана снова резко растет. А во-вторых, если после такого элаймента снова трейнить модель на улучшение общих способностей, вредоносное поведение опять возвращается.
Сам метод, конечно, интересный, и, наверное, даже рабочий, пока у агентов нет в руках реальных инструментов, которые могут принести вред. Но точно не панацея. И как избавиться от scheming полностью – пока так никто и не знает. GG
openai.com/index/detecting-and-reducing-scheming-in-ai-models/
Давненько такого не было. И работа, кстати, оказалась достаточно интересной. Разбираем.
Короче, самым опасным видом поведения ИИ в элайменте считается scheming. Это когда модель имеет личные цели, отличные от целей разработчиков, но качественно скрывает их. Обычно к этому прибавляется еще situational awareness: модель понимает, когда ее тестируют, и ведет себя в такие моменты как паинька, а потом начинает действовать во вред.
Основные два вопроса: (1) как понять, что модель действительно безопасная, а не просто делает вид; (2) как обучать модель так, чтобы она действительно была безопасной, а не делала вид.
OpenAI предлагают подход под названием Deliberative Alignment. Систему учат размышлять о правилах безопасности перед тем, как действовать, и делают это в специальных средах.
Обученные модели тестировали в таких же средах, но на других задачах. Это как раз чтобы не было situational awareness (+ проверка на генерализацию). Сценарии там все ориентированы на ложь, саботаж и всякие штуки типа дилеммы заключенного.
Результат: до обучения модели читерят постоянно. o3, например, в 13% случаев. Доходит до того, что агент искажает саму спецификацию, стараясь оправдать ее свои очевидно жульнические действия. После обучения доля понижается до 0.3-0.4%.
НО. Во-первых, во многих случаях модель все еще понимает, что ее тестируют. И если искусственно убирать из CoT фразы, показывающие это осознание (как бы стирать это из мыслей модели), доля обмана снова резко растет. А во-вторых, если после такого элаймента снова трейнить модель на улучшение общих способностей, вредоносное поведение опять возвращается.
Сам метод, конечно, интересный, и, наверное, даже рабочий, пока у агентов нет в руках реальных инструментов, которые могут принести вред. Но точно не панацея. И как избавиться от scheming полностью – пока так никто и не знает. GG
openai.com/index/detecting-and-reducing-scheming-in-ai-models/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77🤯52❤27🤔13😁7🔥5🤨3🗿2
В DeepMind с помощью ИИ нашли новые решения фундаментальных уравнений гидродинамики. Ученые бьются над ними уже веками.
Помните, мы писали о том, что Google с помощью ИИ намеревается решить одну из математических проблем тысячелетия? Кажется, у них там наметились первые подвижки.
Они совместно с учёными из Brown University, NYU и Стэнфорда разработали метод, с помощью которого обнаружили новое семейство сингулярностей в классических уравнениям гидродинамики.
Сингулярности – это такие решения системы, где физические величины (скорость, давление и др.) могут становиться бесконечными или не определёнными. В физическом мире это похоже на формирование идеального вихря, в котором энергия концентрируется в бесконечно малой области. Математически в таких ситуациях предсказания уравнений теряют смысл.
Так вот никто до сих пор точно не знает, могут ли такие сингулярности возникать в реальности. Найти сингулярность невероятно сложно, даже суперкомпьютеры не справляются с таким объемом вычислений. Собственно, задача тысячелетия – это либо доказать, что в уравнении Навье-Стокса существует хотя бы одна устойчивая сингулярность, либо доказать, что таких нет.
Google удалось с помощью ИИ на шажок приблизиться к решению. Они нашли новое семейство сингулярностей для класса уравнений, похожих на Навье-Стокса. Более того, они выявили общий паттерн того, как растет нестабильность таких решений. Раньше никаких аналитических соображений в этом направлении не существовало.
Архитектура: гибридный метод на основе PINN (Physics-Informed Neural Networks). Это прямо очень интересно. Смотрите:
В лосс сети зашиваются непосредственно уравнения в частных производных. То есть модель, по сути, учится соблюдать физику – законы сохранения массы, энергии и импульса.
И на основе этих знаний ее задача затем – найди начальные условия, приводящие к сингулярности. PINN генерирует кандидатов → симулятор проверяет → сеть корректирует параметры. Много-много таких циклов спустя и нашлись несколько сингулярностей.
И да, пока это не решает основную задачу. Но (1) теперь есть зачатки какого-то решения, и это поразительно; (2) Google опубликовали начальные условия, так что теперь с ними могут продолжить работать математики и физики всего мира.
Помните, мы писали о том, что Google с помощью ИИ намеревается решить одну из математических проблем тысячелетия? Кажется, у них там наметились первые подвижки.
Они совместно с учёными из Brown University, NYU и Стэнфорда разработали метод, с помощью которого обнаружили новое семейство сингулярностей в классических уравнениям гидродинамики.
Сингулярности – это такие решения системы, где физические величины (скорость, давление и др.) могут становиться бесконечными или не определёнными. В физическом мире это похоже на формирование идеального вихря, в котором энергия концентрируется в бесконечно малой области. Математически в таких ситуациях предсказания уравнений теряют смысл.
Так вот никто до сих пор точно не знает, могут ли такие сингулярности возникать в реальности. Найти сингулярность невероятно сложно, даже суперкомпьютеры не справляются с таким объемом вычислений. Собственно, задача тысячелетия – это либо доказать, что в уравнении Навье-Стокса существует хотя бы одна устойчивая сингулярность, либо доказать, что таких нет.
Google удалось с помощью ИИ на шажок приблизиться к решению. Они нашли новое семейство сингулярностей для класса уравнений, похожих на Навье-Стокса. Более того, они выявили общий паттерн того, как растет нестабильность таких решений. Раньше никаких аналитических соображений в этом направлении не существовало.
Архитектура: гибридный метод на основе PINN (Physics-Informed Neural Networks). Это прямо очень интересно. Смотрите:
В лосс сети зашиваются непосредственно уравнения в частных производных. То есть модель, по сути, учится соблюдать физику – законы сохранения массы, энергии и импульса.
И на основе этих знаний ее задача затем – найди начальные условия, приводящие к сингулярности. PINN генерирует кандидатов → симулятор проверяет → сеть корректирует параметры. Много-много таких циклов спустя и нашлись несколько сингулярностей.
И да, пока это не решает основную задачу. Но (1) теперь есть зачатки какого-то решения, и это поразительно; (2) Google опубликовали начальные условия, так что теперь с ними могут продолжить работать математики и физики всего мира.
1❤🔥158🔥66❤33 15👍12👏5😁5🤯1 1
Media is too big
VIEW IN TELEGRAM
В X все любуются новой атмосферной рекламой, которую сняли Anthropic
Полюбуйтесь и вы (со звуком)
Полюбуйтесь и вы (со звуком)
There has never been a better time to have a problem. Сейчас лучшее время, чтобы иметь проблему.
1🔥103🤯103😍33❤18🗿9 4👍3👌2😁1🕊1
Ну и раз уж мы сегодня заговорили про визуал, знакомьтесь: так могло бы выглядеть лого OpenAI и интерфейс ChatGPT
Это результаты двухнедельного спринта дизайн-студии Area, который они проводили для Альтмана еще в январе 2023, то есть сразу после выхода ChatGPT. Драфты выложили только сейчас (видимо, истекло NDA).
Один из двух придуманных концептов, The Circle (картинки 1,5,6), OpenAI как раз взяли за основу для своего итогового дизайна. От второго, Monogram (картинка 2 с человечком),к счастью , отказались.
Как вам?
Это результаты двухнедельного спринта дизайн-студии Area, который они проводили для Альтмана еще в январе 2023, то есть сразу после выхода ChatGPT. Драфты выложили только сейчас (видимо, истекло NDA).
Один из двух придуманных концептов, The Circle (картинки 1,5,6), OpenAI как раз взяли за основу для своего итогового дизайна. От второго, Monogram (картинка 2 с человечком),
Как вам?
🗿105❤29🤯14👍8 5 5😁3 2🤩1🤨1
Природа настолько очистилась, что Anthropic выкатили честное овервью трех нелепых багов, которые они исправили в Claude за этот месяц
Сделали они это не просто так: за август и начало сентября на сбои в Claude и ухудшение качества ответов пожаловалось какое-то рекордное количество людей. Оказалось, что у анропиков в это время случилась черная полоса: на проде почти одновременно вылезли аж три руинящих бага.
Вашему вниманию, эти баги:
1. Часть запросов ошибочно направлялась на серверы, которые предназначены для будущего расширенного контекстного окна на 1 миллион токенов. Вроде ничего страшного, но там, видимо, еще что-то было не до конца затюнено, так что точность ответов заметно падала у кучи юзеров.
Но это цветочки. Вторая и третья ошибки – самые забавные и опасные.
2. В результате деплоя какой-то хромой конфигурации, иногда во время инференса токенам, которые почти никогда не должны появляться в данном контексте, назначалась очень высокая вероятность. Например, в ответах на английские запросы мог появляться рандомный тайский текст, или что-то левое выскакивало посередине кода.
3. Другое обновление касалось ускорения процесса выбора top-k токенов для ответа. Это изменение неожиданно вызвало баг в компиляторе XLA, и в итоге top-k токенов выбирались абсолютно неверно.
Забавно это потому, что мы тут вроде как потеем, с галлюцинациями боремся, а в топовом ИИ-стартапе кто-то просто ошибся с конфигом, и полетел буквально весь инференс. А опасно – потому что, теоретически, подобные ошибки (так как они влекут за собой откровенный бред с ответах модели) могут стоить кому-то миллионов.
Вот такая история, мораль придумайте сами. Anthropic (почти) не осуждаем, респект им за открытость
Сделали они это не просто так: за август и начало сентября на сбои в Claude и ухудшение качества ответов пожаловалось какое-то рекордное количество людей. Оказалось, что у анропиков в это время случилась черная полоса: на проде почти одновременно вылезли аж три руинящих бага.
Вашему вниманию, эти баги:
1. Часть запросов ошибочно направлялась на серверы, которые предназначены для будущего расширенного контекстного окна на 1 миллион токенов. Вроде ничего страшного, но там, видимо, еще что-то было не до конца затюнено, так что точность ответов заметно падала у кучи юзеров.
Но это цветочки. Вторая и третья ошибки – самые забавные и опасные.
2. В результате деплоя какой-то хромой конфигурации, иногда во время инференса токенам, которые почти никогда не должны появляться в данном контексте, назначалась очень высокая вероятность. Например, в ответах на английские запросы мог появляться рандомный тайский текст, или что-то левое выскакивало посередине кода.
3. Другое обновление касалось ускорения процесса выбора top-k токенов для ответа. Это изменение неожиданно вызвало баг в компиляторе XLA, и в итоге top-k токенов выбирались абсолютно неверно.
Забавно это потому, что мы тут вроде как потеем, с галлюцинациями боремся, а в топовом ИИ-стартапе кто-то просто ошибся с конфигом, и полетел буквально весь инференс. А опасно – потому что, теоретически, подобные ошибки (так как они влекут за собой откровенный бред с ответах модели) могут стоить кому-то миллионов.
Вот такая история, мораль придумайте сами. Anthropic (почти) не осуждаем, респект им за открытость
1❤124👍51🔥22😁9 4🤯2 2👾1
Data Secrets
Из xAI за одну ночь уволили 500 человек Все они работали разметчиками данных. 500 специалистов – это, если что, примерно треть всего подразделения аннотаций данных. А подразделение аннотаций, в свою очередь, является самым большим в xAI. Увольнения прошли…
Самое крупное подразделение xAI возглавит 19-летний джун
Помните новости о том, что Маск за одну ночь уволил из xAI 500 человек, которые отвечали за разметку? Так вот на этом странности с этим отделом не закончились.
Во-первых, после тех новостей были уволены еще около 100 человек. Сейчас в команде осталось 900 сотрудников (но она все еще останется крупнейшей в стартапе). Напоминаем, что именно от них напрямую зависит обучение Grok.
Во-вторых, во главу подразделения внезапно поставили вчерашнего школьника. Диего Пазини окончил школу в 2023, и сейчас учится в Университете Пенсильвании. В компании он проработал меньше года.
Если что, до этого это место занимал человек с десятилетним опытом на лидерской позиции в Tesla.
У Диего, помимо прочего, есть права собеседовать, нанимать и увольнять сотрудников. Более того, он уже успел уволить двоих после того, как они выразили недоверие к его скиллам и роли в корпоративном чате в Slack.
Кто там говорил, что джуны никому не нужны?
Помните новости о том, что Маск за одну ночь уволил из xAI 500 человек, которые отвечали за разметку? Так вот на этом странности с этим отделом не закончились.
Во-первых, после тех новостей были уволены еще около 100 человек. Сейчас в команде осталось 900 сотрудников (но она все еще останется крупнейшей в стартапе). Напоминаем, что именно от них напрямую зависит обучение Grok.
Во-вторых, во главу подразделения внезапно поставили вчерашнего школьника. Диего Пазини окончил школу в 2023, и сейчас учится в Университете Пенсильвании. В компании он проработал меньше года.
Если что, до этого это место занимал человек с десятилетним опытом на лидерской позиции в Tesla.
У Диего, помимо прочего, есть права собеседовать, нанимать и увольнять сотрудников. Более того, он уже успел уволить двоих после того, как они выразили недоверие к его скиллам и роли в корпоративном чате в Slack.
Кто там говорил, что джуны никому не нужны?
1😁366🤔60 45❤26👍5🆒4🎉2
Grok 4 Fast: уровень Gemini 2.5 Pro в 20 раз дешевле
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
1❤119🔥53🍾21😁8🤯7👍3🤔3