Ну и раз уж мы сегодня заговорили про визуал, знакомьтесь: так могло бы выглядеть лого OpenAI и интерфейс ChatGPT
Это результаты двухнедельного спринта дизайн-студии Area, который они проводили для Альтмана еще в январе 2023, то есть сразу после выхода ChatGPT. Драфты выложили только сейчас (видимо, истекло NDA).
Один из двух придуманных концептов, The Circle (картинки 1,5,6), OpenAI как раз взяли за основу для своего итогового дизайна. От второго, Monogram (картинка 2 с человечком),к счастью , отказались.
Как вам?
Это результаты двухнедельного спринта дизайн-студии Area, который они проводили для Альтмана еще в январе 2023, то есть сразу после выхода ChatGPT. Драфты выложили только сейчас (видимо, истекло NDA).
Один из двух придуманных концептов, The Circle (картинки 1,5,6), OpenAI как раз взяли за основу для своего итогового дизайна. От второго, Monogram (картинка 2 с человечком),
Как вам?
🗿105❤29🤯14👍8 5 5😁3 2🤩1🤨1
Природа настолько очистилась, что Anthropic выкатили честное овервью трех нелепых багов, которые они исправили в Claude за этот месяц
Сделали они это не просто так: за август и начало сентября на сбои в Claude и ухудшение качества ответов пожаловалось какое-то рекордное количество людей. Оказалось, что у анропиков в это время случилась черная полоса: на проде почти одновременно вылезли аж три руинящих бага.
Вашему вниманию, эти баги:
1. Часть запросов ошибочно направлялась на серверы, которые предназначены для будущего расширенного контекстного окна на 1 миллион токенов. Вроде ничего страшного, но там, видимо, еще что-то было не до конца затюнено, так что точность ответов заметно падала у кучи юзеров.
Но это цветочки. Вторая и третья ошибки – самые забавные и опасные.
2. В результате деплоя какой-то хромой конфигурации, иногда во время инференса токенам, которые почти никогда не должны появляться в данном контексте, назначалась очень высокая вероятность. Например, в ответах на английские запросы мог появляться рандомный тайский текст, или что-то левое выскакивало посередине кода.
3. Другое обновление касалось ускорения процесса выбора top-k токенов для ответа. Это изменение неожиданно вызвало баг в компиляторе XLA, и в итоге top-k токенов выбирались абсолютно неверно.
Забавно это потому, что мы тут вроде как потеем, с галлюцинациями боремся, а в топовом ИИ-стартапе кто-то просто ошибся с конфигом, и полетел буквально весь инференс. А опасно – потому что, теоретически, подобные ошибки (так как они влекут за собой откровенный бред с ответах модели) могут стоить кому-то миллионов.
Вот такая история, мораль придумайте сами. Anthropic (почти) не осуждаем, респект им за открытость
Сделали они это не просто так: за август и начало сентября на сбои в Claude и ухудшение качества ответов пожаловалось какое-то рекордное количество людей. Оказалось, что у анропиков в это время случилась черная полоса: на проде почти одновременно вылезли аж три руинящих бага.
Вашему вниманию, эти баги:
1. Часть запросов ошибочно направлялась на серверы, которые предназначены для будущего расширенного контекстного окна на 1 миллион токенов. Вроде ничего страшного, но там, видимо, еще что-то было не до конца затюнено, так что точность ответов заметно падала у кучи юзеров.
Но это цветочки. Вторая и третья ошибки – самые забавные и опасные.
2. В результате деплоя какой-то хромой конфигурации, иногда во время инференса токенам, которые почти никогда не должны появляться в данном контексте, назначалась очень высокая вероятность. Например, в ответах на английские запросы мог появляться рандомный тайский текст, или что-то левое выскакивало посередине кода.
3. Другое обновление касалось ускорения процесса выбора top-k токенов для ответа. Это изменение неожиданно вызвало баг в компиляторе XLA, и в итоге top-k токенов выбирались абсолютно неверно.
Забавно это потому, что мы тут вроде как потеем, с галлюцинациями боремся, а в топовом ИИ-стартапе кто-то просто ошибся с конфигом, и полетел буквально весь инференс. А опасно – потому что, теоретически, подобные ошибки (так как они влекут за собой откровенный бред с ответах модели) могут стоить кому-то миллионов.
Вот такая история, мораль придумайте сами. Anthropic (почти) не осуждаем, респект им за открытость
1❤124👍51🔥22😁9 4🤯2 2👾1
Data Secrets
Из xAI за одну ночь уволили 500 человек Все они работали разметчиками данных. 500 специалистов – это, если что, примерно треть всего подразделения аннотаций данных. А подразделение аннотаций, в свою очередь, является самым большим в xAI. Увольнения прошли…
Самое крупное подразделение xAI возглавит 19-летний джун
Помните новости о том, что Маск за одну ночь уволил из xAI 500 человек, которые отвечали за разметку? Так вот на этом странности с этим отделом не закончились.
Во-первых, после тех новостей были уволены еще около 100 человек. Сейчас в команде осталось 900 сотрудников (но она все еще останется крупнейшей в стартапе). Напоминаем, что именно от них напрямую зависит обучение Grok.
Во-вторых, во главу подразделения внезапно поставили вчерашнего школьника. Диего Пазини окончил школу в 2023, и сейчас учится в Университете Пенсильвании. В компании он проработал меньше года.
Если что, до этого это место занимал человек с десятилетним опытом на лидерской позиции в Tesla.
У Диего, помимо прочего, есть права собеседовать, нанимать и увольнять сотрудников. Более того, он уже успел уволить двоих после того, как они выразили недоверие к его скиллам и роли в корпоративном чате в Slack.
Кто там говорил, что джуны никому не нужны?
Помните новости о том, что Маск за одну ночь уволил из xAI 500 человек, которые отвечали за разметку? Так вот на этом странности с этим отделом не закончились.
Во-первых, после тех новостей были уволены еще около 100 человек. Сейчас в команде осталось 900 сотрудников (но она все еще останется крупнейшей в стартапе). Напоминаем, что именно от них напрямую зависит обучение Grok.
Во-вторых, во главу подразделения внезапно поставили вчерашнего школьника. Диего Пазини окончил школу в 2023, и сейчас учится в Университете Пенсильвании. В компании он проработал меньше года.
Если что, до этого это место занимал человек с десятилетним опытом на лидерской позиции в Tesla.
У Диего, помимо прочего, есть права собеседовать, нанимать и увольнять сотрудников. Более того, он уже успел уволить двоих после того, как они выразили недоверие к его скиллам и роли в корпоративном чате в Slack.
Кто там говорил, что джуны никому не нужны?
1😁366🤔60 45❤26👍5🆒4🎉2
Grok 4 Fast: уровень Gemini 2.5 Pro в 20 раз дешевле
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
1❤119🔥53🍾21😁8🤯7👍3🤔3
Media is too big
VIEW IN TELEGRAM
«Я хочу себе частную LLM»: в сообществе внезапно завирусился момент из интервью Мэттью Макконахи
Пост в X с цитатой залетел на миллионы просмотров, и мнения разделились максимально (кто бы подумал, что такое количество споров вызовет голивудский актер):
– Одни говорят, что такое уже давно есть и называется Notebook LM.
– Кто-то утверждает, что NotebookLM – совсем не то, а Мэттью озвучил идею, о которой они думали и мечтали годами.
– Третьи взывают к здравому смыслу и утверждают, что создать такую LLM технически невозможно, и Макконахи абсолютно не понимает, о чем говорит (откровенно говоря, он и не обязан).
Ближе всего к правде – последнее. Конечно, мы не знаем, что имел в виду актер. Может быть, NotebookLM и правда есть то, что он описывает.
Но если нет, то пока что такая сеть может существовать только в виде вашего собственного мозга. L в аббревиатуре LLM – это Large. Чтобы трансформер заговорил, ему нужны громадные объемы текста. Вряд ли у кого-либо найдется столько любимых книг, заметок и статей. Так что прости, Мэттью, такого еще не изобрели.
Чтобы быть царем зверей, мало вести себя по царски. Надо иметь собственную LLM🚬
«Мне нужна частная LLM, содержащая только мои любимые книги, мои заметки и статьи. Чтобы я мог спросить у нее что-нибудь, и она отвечала, исходя исключительно из этой информации, без влияния внешнего мира. И по мере разговоров она бы узнавала обо мне еще больше»
Пост в X с цитатой залетел на миллионы просмотров, и мнения разделились максимально (кто бы подумал, что такое количество споров вызовет голивудский актер):
– Одни говорят, что такое уже давно есть и называется Notebook LM.
– Кто-то утверждает, что NotebookLM – совсем не то, а Мэттью озвучил идею, о которой они думали и мечтали годами.
– Третьи взывают к здравому смыслу и утверждают, что создать такую LLM технически невозможно, и Макконахи абсолютно не понимает, о чем говорит (откровенно говоря, он и не обязан).
Ближе всего к правде – последнее. Конечно, мы не знаем, что имел в виду актер. Может быть, NotebookLM и правда есть то, что он описывает.
Но если нет, то пока что такая сеть может существовать только в виде вашего собственного мозга. L в аббревиатуре LLM – это Large. Чтобы трансформер заговорил, ему нужны громадные объемы текста. Вряд ли у кого-либо найдется столько любимых книг, заметок и статей. Так что прости, Мэттью, такого еще не изобрели.
Чтобы быть царем зверей, мало вести себя по царски. Надо иметь собственную LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁326❤60🔥55 16👍13🤔8👏4 4🤨2🐳1
OpenAI в ближайшие недели запустит несколько новых «ресурсоемких» продуктов
Об этом написал Альтман. Он сообщил, что на поддержку этих новинок потребуется много компьюта, так что изначально они будут доступны только в тарифе Pro или за отдельную плату.
SORA 2?
Новый Computer Use агент?
Моделька которая выиграла IMO и ICPC?
Ваши предположения?
Об этом написал Альтман. Он сообщил, что на поддержку этих новинок потребуется много компьюта, так что изначально они будут доступны только в тарифе Pro или за отдельную плату.
Наша цель по-прежнему – максимально снижать стоимость ИИ и делать наши сервисы доступными для как можно большего числа людей, и мы уверены, что со временем этого добьемся.
В то же время мы хотим изучить, что возможно, если использовать большие объёмы вычислений по сегодняшним ценам на модели для реализации интересных новых идей.
SORA 2?
Новый Computer Use агент?
Моделька которая выиграла IMO и ICPC?
Ваши предположения?
👍58 29🤔21❤9😁8🕊3🔥1
Ученые из европейских университетов взяли трансформер и сделали из него симулятор здоровья, который может предсказывать болезни на 20 лет вперед
Наткнулись тут на крайне интересную статью в Nature. Исследователи рассказывают о своей модели Delphi-2M, которая берет медицинскую историю человека и учится предсказывать, что с ним будет дальше.
Очень похоже на LLM, только вместо токенов – состояния здоровья. Диагнозы, служебные токены вроде пола, BMI, курения и алкоголя, история лечения. В сумме в словаре 1258 состояния. И, ровно как и LLM, модель обучена по предыдущей последовательности предсказывать следующие токены: в этом случае, будущие болезни и смерть.
Немного изменен только лосс. Тут учитывается не только кросс-энтропия, но и Log-likelihood для предсказания времени до события. Обучали на огромном объеме данных: истории почти 403к человек из базы UK Biobank. Проверяли на 1.9 млн пациентов из Дании.
Что в итоге (напоминаем, что в модельке всего 2 миллиона параметров):
– ROC-AUC ≈ 0.76 в среднем по >1000 заболеваниям. То есть модель действительно неплохо понимает, у кого болезнь появится, а у кого нет. Это на горизонте 10 лет, дальше AUC чуть падает до 0.7.
– 97% диагнозов имеют AUC > 0.5 – адекватное покрытие.
– И главное: AUC = 0.97 для смерти. Это пока не черное зеркало, и точное время до смерти модель не определяет (ну, точнее, плохо). Но она почти идеально отделяет тех, кто умрёт в ближайшем будущем (несколько лет), от тех, кто не умрёт.
Метрики хорошие, но есть нюанс. Biobank – это в основном здоровые белые британцы 40–70 лет. И, естественно, модель такие перекосы тоже перенимает. Так что пока не универсально. Но подход занятный.
Наткнулись тут на крайне интересную статью в Nature. Исследователи рассказывают о своей модели Delphi-2M, которая берет медицинскую историю человека и учится предсказывать, что с ним будет дальше.
Очень похоже на LLM, только вместо токенов – состояния здоровья. Диагнозы, служебные токены вроде пола, BMI, курения и алкоголя, история лечения. В сумме в словаре 1258 состояния. И, ровно как и LLM, модель обучена по предыдущей последовательности предсказывать следующие токены: в этом случае, будущие болезни и смерть.
Немного изменен только лосс. Тут учитывается не только кросс-энтропия, но и Log-likelihood для предсказания времени до события. Обучали на огромном объеме данных: истории почти 403к человек из базы UK Biobank. Проверяли на 1.9 млн пациентов из Дании.
Что в итоге (напоминаем, что в модельке всего 2 миллиона параметров):
– ROC-AUC ≈ 0.76 в среднем по >1000 заболеваниям. То есть модель действительно неплохо понимает, у кого болезнь появится, а у кого нет. Это на горизонте 10 лет, дальше AUC чуть падает до 0.7.
– 97% диагнозов имеют AUC > 0.5 – адекватное покрытие.
– И главное: AUC = 0.97 для смерти. Это пока не черное зеркало, и точное время до смерти модель не определяет (ну, точнее, плохо). Но она почти идеально отделяет тех, кто умрёт в ближайшем будущем (несколько лет), от тех, кто не умрёт.
Метрики хорошие, но есть нюанс. Biobank – это в основном здоровые белые британцы 40–70 лет. И, естественно, модель такие перекосы тоже перенимает. Так что пока не универсально. Но подход занятный.
😁107👍79 48❤28🔥21👀5🤯4 2
Если вам в этот осенний понедельник требовалось профессиональное вдохновение, то вот оно: Джефф Дин отвечает на вопрос "Каково быть Сomputer Scientist"
Вот что ведущий ученый Google DeepMind и создатель MapReduce и TensorFlow написал в ответ на эмейл обычной школьницы, которая обратилась к нему просто в рамках учебного проекта:
Учитель информатики, которого мы заслужили
Вот что ведущий ученый Google DeepMind и создатель MapReduce и TensorFlow написал в ответ на эмейл обычной школьницы, которая обратилась к нему просто в рамках учебного проекта:
Привет, Loa,
Я не знаю, в каком ты сейчас классе, но для моего ответа это не так важно. Мне безумно нравится быть Computer Scientist!
Написание ПО – это как постоянное решение головоломок, больших и маленьких, которые тебе нужно продумать и найти лучший способ решить. Твоя работа может использоваться сотнями, тысячами, миллионами или даже миллиардами людей и приносить им настоящую пользу (подумай обо всех крупных сервисах в интернете – от поиска, электронной почты и видеошеринга до карт, перевода и AI-систем).
Я работаю с потрясающими коллегами, они умны, проницательны, амбициозны и дружелюбны. Они постоянно учат меня чему-то новому. Кроме того, я могу работать из разных мест: чаще всего из офиса, иногда из дома, а иногда даже из уютного кафе.
Если тебе нравится математика, логика и поиск наилучших решений задач, тебе определённо стоит рассмотреть компьютерные науки как карьерный путь.
Учитель информатики, которого мы заслужили
2❤307👍54🔥22🦄10😍6😁5🤨3👌1🗿1
Data Secrets
Если вам в этот осенний понедельник требовалось профессиональное вдохновение, то вот оно: Джефф Дин отвечает на вопрос "Каково быть Сomputer Scientist" Вот что ведущий ученый Google DeepMind и создатель MapReduce и TensorFlow написал в ответ на эмейл обычной…
(Есть, конечно, и обратная сторона)
😁323👾23❤10😎9💯8 3❤🔥2
OpenAI заключили масштабное партнерство с Nvidia
Главное: Nvidia инвестирует в стартап 100 миллиардов долларов. Еще раз: 100 миллиардов долларов. Но не просто так, конечно, а железом.
Вместе они планируют построить датацентров как минимум на 10 гигаватт (соответсвенно расчет – 10 миллиардов на ГВт). Это миллионы GPU. В общем, Nvidia теперь полноценный стратегический поставщик вычислений для Альтмана.
Первый кластер на платформе NVIDIA Vera Rubin планируется запустить во второй половине 2026 года.
Буквально историческая сделка
openai.com/index/openai-nvidia-systems-partnership/
Главное: Nvidia инвестирует в стартап 100 миллиардов долларов. Еще раз: 100 миллиардов долларов. Но не просто так, конечно, а железом.
Вместе они планируют построить датацентров как минимум на 10 гигаватт (соответсвенно расчет – 10 миллиардов на ГВт). Это миллионы GPU. В общем, Nvidia теперь полноценный стратегический поставщик вычислений для Альтмана.
Первый кластер на платформе NVIDIA Vera Rubin планируется запустить во второй половине 2026 года.
Буквально историческая сделка
openai.com/index/openai-nvidia-systems-partnership/
3❤144 71🤯20😁11🫡8👀6⚡4🔥2
Data Secrets
OpenAI заключили масштабное партнерство с Nvidia Главное: Nvidia инвестирует в стартап 100 миллиардов долларов. Еще раз: 100 миллиардов долларов. Но не просто так, конечно, а железом. Вместе они планируют построить датацентров как минимум на 10 гигаватт…
Интернет тем временем заполнился мемами о новой сделке OpenAI с Nvidia
Ребята изобрели вечный генератор денег, завидуем молча
Ребята изобрели вечный генератор денег, завидуем молча
😁300❤17🔥11👍9💯1
Уровень веры в ИИ: Андрей Карпаты
Когда у тебя уже не фотопленка, а датасет
«Каждый раз, когда кто-то делает фото или видео, и я случайно оказываюсь на заднем плане, я люблю помахать AGI, который увидит меня через 30 лет»
Когда у тебя уже не фотопленка, а датасет
1❤141😁43🔥29👍16🗿12🤯2⚡1👨💻1