Илон Маск и xAI подали антимонопольный иск против Apple и OpenAI
Компании, аффилированные с Маском, подали иск в Федеральный суд Техаса. Суть обвинений: Apple и OpenAI заключили антиконкурентное соглашение, которое закрепляет монополию ChatGPT внутри iOS.
Что именно пишет команда Маска:
Логика иска проста: Apple выступает «гейткипером» и пустила внутрь своей экосистемы только одного игрока. Для остальных барьеры выше, а значит конкуренция нарушается.
Компании, аффилированные с Маском, подали иск в Федеральный суд Техаса. Суть обвинений: Apple и OpenAI заключили антиконкурентное соглашение, которое закрепляет монополию ChatGPT внутри iOS.
Что именно пишет команда Маска:
1. Apple проиграла гонку за ИИ и вместо собственной системы сделала ставку на OpenAI.
2. В результате пользователи iPhone получают ChatGPT «по умолчанию» в операционке — альтернативы встроенного ИИ у них нет.
3. Это даёт OpenAI огромное преимущество: миллионы взаимодействий пользователей Apple становятся данными для дальнейшего обучения.
4. Параллельно в App Store продвигается именно ChatGPT, а X и Grok, по словам Маска, в подборки не попадают — даже несмотря на топовые позиции в рейтингах.
5. Если суд не вмешается, Apple и OpenAI продолжат подавлять конкуренцию, а проекты Маска будут «страдать от антиконкурентных последствий».
Логика иска проста: Apple выступает «гейткипером» и пустила внутрь своей экосистемы только одного игрока. Для остальных барьеры выше, а значит конкуренция нарушается.
3 146 52😁41❤15👀14👍10🤔5 5👌3
Вашему вниманию: идеальная клавиатура для разработчика
P.S. Не мем. Cursor, судя по всему, реально такую сделали
P.S. Не мем. Cursor, судя по всему, реально такую сделали
1😁238🔥30👍12❤10🗿8🐳2🦄2 2🕊1
Нейросети помогут врачам анализировать МРТ и выявлять риски развития ДЦП у младенцев за минуты вместо дней
Яндекс в сотрудничестве со специалистами СПбГПМУ и студентами ШАДа разработал решение на базе ИИ, которое анализирует МРТ мозга младенцев, радикально ускоряя постановку таких диагнозов, как риск ДЦП. Нейросеть автоматически сегментирует серое и белое вещество, вычисляет их объемы и помогает врачам принимать более точные решения.
Обычно такой анализ — это ювелирная работа, занимающая до 72 часов. Новая модель выполняет инференс за ~3 секунды на CPU. Для понимания, предыдущие существующие решения вытягивали максимум ~2.5 минуты. Это ускорение в 50 раз. В будущем, после тестирования, код разработки появится в опенсорсе, чтобы его могли использовать ученые и клиники со всего мира и для других задач в сфере медицины.
Кратко про само решение:
— Работает как веб-сервис и не требует от клиник GPU. Сырые МРТ-снимки в формате DICOM загружаются в PACS-систему, развернутую на Yandex Cloud.
— Естественно, в процессе разработчики столкнулись с проблемой нехватки размеченных данных. Использовали BIBSNet для предразметки всего архива. Процесс был распараллелен в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую врачи уже дорабатывали, а не создавали с нуля.
— Под капотом U-Net с бэкбоном ResNeXt-50 и функцией потерь DiceLoss. Эта архитектура показала себя лучшей после серии R&D-экспериментов.
Итог: быстрый инференс и высокая точность. Метрика IoU (Intersection over Union) достигла 0.703, что позволяет врачам использовать сегментацию как надежный вспомогательный инструмент.
Подробности — на Хабре.
Яндекс в сотрудничестве со специалистами СПбГПМУ и студентами ШАДа разработал решение на базе ИИ, которое анализирует МРТ мозга младенцев, радикально ускоряя постановку таких диагнозов, как риск ДЦП. Нейросеть автоматически сегментирует серое и белое вещество, вычисляет их объемы и помогает врачам принимать более точные решения.
Обычно такой анализ — это ювелирная работа, занимающая до 72 часов. Новая модель выполняет инференс за ~3 секунды на CPU. Для понимания, предыдущие существующие решения вытягивали максимум ~2.5 минуты. Это ускорение в 50 раз. В будущем, после тестирования, код разработки появится в опенсорсе, чтобы его могли использовать ученые и клиники со всего мира и для других задач в сфере медицины.
Кратко про само решение:
— Работает как веб-сервис и не требует от клиник GPU. Сырые МРТ-снимки в формате DICOM загружаются в PACS-систему, развернутую на Yandex Cloud.
— Естественно, в процессе разработчики столкнулись с проблемой нехватки размеченных данных. Использовали BIBSNet для предразметки всего архива. Процесс был распараллелен в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую врачи уже дорабатывали, а не создавали с нуля.
— Под капотом U-Net с бэкбоном ResNeXt-50 и функцией потерь DiceLoss. Эта архитектура показала себя лучшей после серии R&D-экспериментов.
Итог: быстрый инференс и высокая точность. Метрика IoU (Intersection over Union) достигла 0.703, что позволяет врачам использовать сегментацию как надежный вспомогательный инструмент.
Подробности — на Хабре.
1🔥144👍35❤26 13😁3🤨3 3😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи изучили нейросеть Evo-2 и нашли в ее активациях целое дерево жизни
Сейчас расскажем подробнее. Сама модель Evo-2 вышла еще осенью. Она может генерировать новые генетические последовательности и выявлять мутации в генах.
Обучена она была на 9 триллионах нуклеотидов из более чем 128 000 геномов. При этом датасет собирали такой, чтобы он охватывал все формы жизни, от простейших до растений и животных.
То есть эта модель знает очень-очень много о мире с точки зрения генетики. И вот сейчас, спустя почти год после выхода Evo-2, ученые из лабы Goodfire решили залезть внутрь нее и проверить, как это все выглядит изнутри.
И внезапно там обнаружилась очень интересная структура.
Оказалось, что модель кодирует эволюционную схожесть (филогению) как геометрические расстояния на специальном изогнутом многообразии в признаковом пространстве. То есть кратчайший путь по этому многообразию между двумя видами соответствует их эволюционной дистанции: чем ближе виды по филогенетическому дереву, тем ближе их представления внутри модели.
Что это значит:
1. Хотя в модель напрямую не закладывали эволюционные отношения и таксономию, она научилась улавливать статистические закономерности, отражающие эволюционные связи между видами.
2. И она не просто их понимает, а построила внутри себя целое математическое дерево видов, представив его, так скажем, по своему: в виде сложных геометрически интерпретируемых многообразий.
Это похоже на языковые модели: по факту Evo училась предсказывать последовательности геномов, а оказалось, что она может действовать как универсальный биологический переводчик.
То есть нам, возможно, не обязательно обучать под разные медицинские и био- задачки разные модели. Может быть одна, универсальная, которая сможет работать с любыми приложениями, обучаясь просто на молекулах.
Кажется, что это значимый результат.
www.goodfire.ai/papers/phylogeny-manifold
Сейчас расскажем подробнее. Сама модель Evo-2 вышла еще осенью. Она может генерировать новые генетические последовательности и выявлять мутации в генах.
Обучена она была на 9 триллионах нуклеотидов из более чем 128 000 геномов. При этом датасет собирали такой, чтобы он охватывал все формы жизни, от простейших до растений и животных.
То есть эта модель знает очень-очень много о мире с точки зрения генетики. И вот сейчас, спустя почти год после выхода Evo-2, ученые из лабы Goodfire решили залезть внутрь нее и проверить, как это все выглядит изнутри.
И внезапно там обнаружилась очень интересная структура.
Оказалось, что модель кодирует эволюционную схожесть (филогению) как геометрические расстояния на специальном изогнутом многообразии в признаковом пространстве. То есть кратчайший путь по этому многообразию между двумя видами соответствует их эволюционной дистанции: чем ближе виды по филогенетическому дереву, тем ближе их представления внутри модели.
Что это значит:
1. Хотя в модель напрямую не закладывали эволюционные отношения и таксономию, она научилась улавливать статистические закономерности, отражающие эволюционные связи между видами.
2. И она не просто их понимает, а построила внутри себя целое математическое дерево видов, представив его, так скажем, по своему: в виде сложных геометрически интерпретируемых многообразий.
Это похоже на языковые модели: по факту Evo училась предсказывать последовательности геномов, а оказалось, что она может действовать как универсальный биологический переводчик.
То есть нам, возможно, не обязательно обучать под разные медицинские и био- задачки разные модели. Может быть одна, универсальная, которая сможет работать с любыми приложениями, обучаясь просто на молекулах.
Кажется, что это значимый результат.
www.goodfire.ai/papers/phylogeny-manifold
9🤯184❤🔥66❤38🔥31👍24🗿7🤔6😁2🕊2 1
Мы как-то пропустили, но оказывается у Google недавно вышла очень интересная модель Perch 2.0 для биоакустики
Она предназначена для классификации и энкодинга всевозможных звуков природы. Работает так:
1. На вход модельке приходит аудио, которое она преобразует в спектрограмму. Это нужно для того, чтобы дальше данные в виде изображения могла съесть сверточная нейросеть.
2. Эта нейросеть выдает эмбеддинги – векторы размерности 1536, описывающие звуки.
3. Дальше эмбеддинги подаются на вход трем головам, каждая из которых отвечает за свою задачу: линейную классификацию, прототипную классификацию (это логиты для интерпретируемости) и определение источника.
Только представьте: с помощью такой модели можно отслеживать популяции и количество особей, искать новые виды и многое другое.
Кстати, все работает без GPU + в модели всего 12 миллионов параметров. Метрики при этом отличные: система точно распознает звуки 15 тысяч видов. Работает даже под водой.
Короче: Google дали каждому биологу в мире универсальный супер-слух. И это уже дало свои результаты.
Например, в Австралии Perch помог обнаружить новые популяции птиц там, где, как раньше считалось, их почти нет. А на Гавайях система в 50 раз ускорила обнаружение редких медоедов: благодаря этому ученые теперь смогут оперативно защищать их от угроз.
Всегда очень радуют такие разработки. А тут, плюсом ко всему, модель и датасеты даже выложили в опенсорс.
arxiv.org/abs/2508.04665
Она предназначена для классификации и энкодинга всевозможных звуков природы. Работает так:
1. На вход модельке приходит аудио, которое она преобразует в спектрограмму. Это нужно для того, чтобы дальше данные в виде изображения могла съесть сверточная нейросеть.
2. Эта нейросеть выдает эмбеддинги – векторы размерности 1536, описывающие звуки.
3. Дальше эмбеддинги подаются на вход трем головам, каждая из которых отвечает за свою задачу: линейную классификацию, прототипную классификацию (это логиты для интерпретируемости) и определение источника.
Только представьте: с помощью такой модели можно отслеживать популяции и количество особей, искать новые виды и многое другое.
Кстати, все работает без GPU + в модели всего 12 миллионов параметров. Метрики при этом отличные: система точно распознает звуки 15 тысяч видов. Работает даже под водой.
Короче: Google дали каждому биологу в мире универсальный супер-слух. И это уже дало свои результаты.
Например, в Австралии Perch помог обнаружить новые популяции птиц там, где, как раньше считалось, их почти нет. А на Гавайях система в 50 раз ускорила обнаружение редких медоедов: благодаря этому ученые теперь смогут оперативно защищать их от угроз.
Всегда очень радуют такие разработки. А тут, плюсом ко всему, модель и датасеты даже выложили в опенсорс.
arxiv.org/abs/2508.04665
1❤160🔥57⚡13👍11 5😁2🕊2🤯1👾1
Так, по порядку:
1. gpt-realtime – это модель специально для реализации всевозможных голосовых помощников и ботов. Ей прокачали следование инструкциям разработчиков, задержку, естественность речи и даже вызов инструментов. Получается ультимативный голосовой бот, который говорит как живой консультант, при необходимости ходит в базу знаний и не отступает от намеченных правил.
2. Модель + два дополнительных голоса (послушать) будут с этого дня доступны в Realtime API, которое наконец-то вышло из беты. Туда добавили MCP, возможность инпута картинками и несколько других интересных плюшек. Подробности.
Цены, кстати, снизили на 20% по сравнению с превью версией, а метрики при этом подросли. Подробный прайсинг.
Потестить можно тут в песочнице
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥78❤23 21👍6😁2
12 сентября Т-Банк, Яндекс, Сбер, Lamoda и X5, устроят в своих офисах настоящую ночь технологий — Big tech night. В штаб-квартире Т-Банка, например, гостям покажут внутренние разработки и разные фичи.
В программе — квартирники, на которых можно обсудить командную жизнь айтишников, разбор личных кейсов с тимлидами и СТО и
доклады про путь ИИ от проектирования до использования. Гости также получат доступ к внутренним платформам Т-Банка и смогут пообщаться с разрабами.
Чтобы попасть на ивент, нужно заранее зарегистрироваться и выбрать программу.
В программе — квартирники, на которых можно обсудить командную жизнь айтишников, разбор личных кейсов с тимлидами и СТО и
доклады про путь ИИ от проектирования до использования. Гости также получат доступ к внутренним платформам Т-Банка и смогут пообщаться с разрабами.
Чтобы попасть на ивент, нужно заранее зарегистрироваться и выбрать программу.
1❤58🗿21 8🔥6😁4👍1
Prime Intellect анонсировали Environments Hub – открытую платформу для создания и использования RL-сред
Сейчас расскажем, почему это большая новость, и зачем это нужно.
RL-среда – это окружение, в котором обучаются агенты. Грубо говоря, отдельный мир, в котором определены свои правила и система вознаграждений.
Создавать такие «миры» довольно дорого. Например, хотите вы обучить агента-программиста. Для этого вам нужны: целая виртуальная IDE с компилятором, отладкой, тестами и кучей edge-кейсов; ревард-функция; инструменты трекинга; пайплайн обучения; данные.
Большие лабы, в общем, тратят на качественные RL-среды миллионы. А в опенсорсе сопоставимых решений просто нет. Prime Intellect предлагают изменить положение и дают нам для этого готовую инфраструктуру.
Короче, Environments Hub – это первый и единственный в своем роде стор готовых RL-сред под всевозможные задачи. Сейчас там уже достаточно много решений под агентов-программистов / математиков / разные игры и прочее прочее.
Большое дело ребята делают. Очень емко, кстати, релиз и его полезность прокомментировал Андрей Карпаты, можно почитать его мысли.
Ссылка на сам Хаб: app.primeintellect.ai/dashboard/environments
Сейчас расскажем, почему это большая новость, и зачем это нужно.
RL-среда – это окружение, в котором обучаются агенты. Грубо говоря, отдельный мир, в котором определены свои правила и система вознаграждений.
Создавать такие «миры» довольно дорого. Например, хотите вы обучить агента-программиста. Для этого вам нужны: целая виртуальная IDE с компилятором, отладкой, тестами и кучей edge-кейсов; ревард-функция; инструменты трекинга; пайплайн обучения; данные.
Большие лабы, в общем, тратят на качественные RL-среды миллионы. А в опенсорсе сопоставимых решений просто нет. Prime Intellect предлагают изменить положение и дают нам для этого готовую инфраструктуру.
Короче, Environments Hub – это первый и единственный в своем роде стор готовых RL-сред под всевозможные задачи. Сейчас там уже достаточно много решений под агентов-программистов / математиков / разные игры и прочее прочее.
Большое дело ребята делают. Очень емко, кстати, релиз и его полезность прокомментировал Андрей Карпаты, можно почитать его мысли.
Ссылка на сам Хаб: app.primeintellect.ai/dashboard/environments
2❤84👍37🔥17⚡1😁1
Новость дня: Илья Суцкевер сменил аватарку в X
Жалко, конечно, селфи в панамке и очках (2 скрин), которое стояло со времен мамонтов, было лучше.
Вопрос: значит ли это, что SafeSuperintelligence начали переговоры с серьезными инвесторами?🤔
Жалко, конечно, селфи в панамке и очках (2 скрин), которое стояло со времен мамонтов, было лучше.
Вопрос: значит ли это, что SafeSuperintelligence начали переговоры с серьезными инвесторами?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤯108😁93 28❤16🗿4🔥3👍1
Такс-такс, Anthropic начнет обучать свои модели на пользовательских данных
Сюда относятся транскрипты чатов и кодинг-сессии (видимо, из Claude Code). Все пользователи должны до 28 сентября принять решение, делиться данными или нет.
По умолчанию, вроде бы, ваши данные использовать не будут: нужно обязательно тыкнуть "Accept", и только после этого новые или возобновленные чаты начнут попадать в датасет. То есть старых чатов и сессий разрешение касаться не будет.
Пока, правда, не очень понятно, можно ли будет изменить решение. Но есть еще одна важная деталь: если вы нажмете "Accept", ваши данные теперь будут так или иначе храниться 5 лет.
Новая политика касается всех, кроме коммера (то есть полностью API + Claude Gov, Claude for Work, Claude for Education).
В целом, друзья, это было вопросом времени. Надо отдать должное: Anthropic хотя бы заявили о своих намерениях открыто и дали юзерам выбор.
Ссылка на оригинальную новость | Текст без пэйвола
Сюда относятся транскрипты чатов и кодинг-сессии (видимо, из Claude Code). Все пользователи должны до 28 сентября принять решение, делиться данными или нет.
По умолчанию, вроде бы, ваши данные использовать не будут: нужно обязательно тыкнуть "Accept", и только после этого новые или возобновленные чаты начнут попадать в датасет. То есть старых чатов и сессий разрешение касаться не будет.
Пока, правда, не очень понятно, можно ли будет изменить решение. Но есть еще одна важная деталь: если вы нажмете "Accept", ваши данные теперь будут так или иначе храниться 5 лет.
Новая политика касается всех, кроме коммера (то есть полностью API + Claude Gov, Claude for Work, Claude for Education).
В целом, друзья, это было вопросом времени. Надо отдать должное: Anthropic хотя бы заявили о своих намерениях открыто и дали юзерам выбор.
Ссылка на оригинальную новость | Текст без пэйвола
1❤93 45👍16✍12😁3🔥2🤔2🦄2❤🔥1🤨1
Коллаб года: OpenAI и Anthropic протестировали модели друг друга на безопасность
В начале лета (ещё до выхода GPT-5) два крупнейших игрока устроили перекрёстное тестирование на элаймент. Каждая компания прогнала публичные модели конкурента через собственные внутренние методики оценки.
Результаты довольно показательные:
Отдельный момент: тесты проводились в ослабленных условиях, без внешних фильтров и защитных слоёв. Целью было проверить «чистое» поведение моделей и выявить слабые места, которые в обычных настройках могут быть замаскированы.
Ждем, когда кросс-тесты станут обязательным стандартом👓
Блог-пост OpenAI | Блог-пост Anthropic
В начале лета (ещё до выхода GPT-5) два крупнейших игрока устроили перекрёстное тестирование на элаймент. Каждая компания прогнала публичные модели конкурента через собственные внутренние методики оценки.
Результаты довольно показательные:
– Reasoning-модели (OpenAI o3 и o4-mini, а также Claude 4) показали заметно более устойчивое поведение. Их сложнее «сломать» джейлбрейками, они лучше справлялись с тестами на элаймент и реже поддавались на провокации.
– Классические чат-модели (GPT-4o, GPT-4.1) в ряде сценариев повели себя тревожно: помогали пользователям в потенциально опасных запросах вроде инструкций по наркотикам или оружию.
– Почти у всех, кроме o3, проявилось sycophancy — склонность поддакивать даже тогда, когда пользователь явно уводит модель в сомнительные сценарии.
– В Anthropic отметили, что их модели чаще отказываются отвечать в случае неопределённости, тогда как у OpenAI отказы редки — но риск галлюцинаций выше.
Отдельный момент: тесты проводились в ослабленных условиях, без внешних фильтров и защитных слоёв. Целью было проверить «чистое» поведение моделей и выявить слабые места, которые в обычных настройках могут быть замаскированы.
Ждем, когда кросс-тесты станут обязательным стандартом
Блог-пост OpenAI | Блог-пост Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗102❤53👍26 10 5 4😁3🔥2🤔2 1
Искали кино на выходные, а нашли золото: на YouTube вышла полуторачасовая документалка про Python
Фильм снят студией CultRepo и это большая история развития языка. В нем снялся сам создатель – Гвидо ван Россум. История, кстати, действительно достойна фильма:
– Проект начинался как стороннее хобби где-то в Амстердаме в 1990-х годах
– Сначала язык никто не понял, и в какой-то момент от чуть не изчез
– ... а сейчас на нем написана четверть всего публичного кода: это рекордная доля для любого языка за всё время существования программирования
А еще сейчас питон на первом месте по популярности в мире. Он несколько лет тусовался где-то на 3-5 местах, но в 2025 популярность ИИ и ML наконец вывела его в лидеры. Так что – смотрим
P.S. Русской озвучки, конечно, нет, но не забываем, что в Яндекс Браузере есть отличный нейросетевой перевод. Открываем видео, наводим на него курсор – там сразу появится кнопка с предложением озвучить на русском. Тыкаем и получаем очень ествественный перевод теми же голосами, что и в оригинале.
Фильм снят студией CultRepo и это большая история развития языка. В нем снялся сам создатель – Гвидо ван Россум. История, кстати, действительно достойна фильма:
– Проект начинался как стороннее хобби где-то в Амстердаме в 1990-х годах
– Сначала язык никто не понял, и в какой-то момент от чуть не изчез
– ... а сейчас на нем написана четверть всего публичного кода: это рекордная доля для любого языка за всё время существования программирования
А еще сейчас питон на первом месте по популярности в мире. Он несколько лет тусовался где-то на 3-5 местах, но в 2025 популярность ИИ и ML наконец вывела его в лидеры. Так что – смотрим
P.S. Русской озвучки, конечно, нет, но не забываем, что в Яндекс Браузере есть отличный нейросетевой перевод. Открываем видео, наводим на него курсор – там сразу появится кнопка с предложением озвучить на русском. Тыкаем и получаем очень ествественный перевод теми же голосами, что и в оригинале.
🔥129❤44🤯27 16👍13🤨3😁1
Скандалы, интриги, расследования: xAI подает в суд на своего бывшего инженера за то, что он пытался шпионить для OpenAI
Беднягу зовут Xuechen Li, а само дело было так:
– В начале лета он, работая в xAI, получил оффер от OpenAI и принял его. Сразу после этого он, кстати, продал акций xAI на 7 миллионов долларов.
– Примерно в июле он «случайно» получил доступ к каким-то закрытым файлам (к которым, судя по статье, у него не должно было быть доступов). По словам xAI, это была информация о «продвинутых ИИ-технологиях, превосходящих ChatGPT».
– 14 августа с Ли была проведена внутренняя встреча, на которой он якобы признался в краже некоторых файлов. Однако потом обнаружилось, что на его устройствах есть и другие NDA материалы, о которых он не упомянул. Вот после этого xAI и подали в суд.
В общем, теперь xAI требуют у суда компенсацию (сумма не указана), а также запрет на переход Ли в OpenAI. А иначе, говорят они, «украденные материалы могут позволить OpenAI улучшить ChatGPT с помощью более креативных и инновационных функций xAI».
Кто-то любит спорт, кто-то сериалы, а вот любимое хобби Маска, видимо, – обкладывать исками OpenAI☕️
Беднягу зовут Xuechen Li, а само дело было так:
– В начале лета он, работая в xAI, получил оффер от OpenAI и принял его. Сразу после этого он, кстати, продал акций xAI на 7 миллионов долларов.
– Примерно в июле он «случайно» получил доступ к каким-то закрытым файлам (к которым, судя по статье, у него не должно было быть доступов). По словам xAI, это была информация о «продвинутых ИИ-технологиях, превосходящих ChatGPT».
– 14 августа с Ли была проведена внутренняя встреча, на которой он якобы признался в краже некоторых файлов. Однако потом обнаружилось, что на его устройствах есть и другие NDA материалы, о которых он не упомянул. Вот после этого xAI и подали в суд.
В общем, теперь xAI требуют у суда компенсацию (сумма не указана), а также запрет на переход Ли в OpenAI. А иначе, говорят они, «украденные материалы могут позволить OpenAI улучшить ChatGPT с помощью более креативных и инновационных функций xAI».
Кто-то любит спорт, кто-то сериалы, а вот любимое хобби Маска, видимо, – обкладывать исками OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
😁141 33❤19🔥18🗿4💯2👍1🤯1
Журнал TIME опубликовал свой ежегодный список Time 100 AI
Список позиционируется как "100 самых влиятельных людей в сфере искусственного интеллекта". В топе – Альтман, Маск, Хуанг, Принс (CEO CloudFlare), Цукерберг, Амодеи, Веньфень и другие.
Но не все так однозначно: есть, как говорится, нюансы.
Например, вот кого в списке нет:
– Илья Суцкевер
– Джеффри Хинтон
– Демис Хассабис
– Ноам Браун
– Ян Лекун
– Мустафа Сулейман
– Аравинг Шринивас
А вот кто там есть:
– Папа Римский
– Чел из мема про вайбкодинг – Рик Рубин
– Художники, писатели и журналисты
В общем, как-то немного неловко получилось, что-ли🤡
А ссылка на сам список вот: time.com/collections/time100-ai-2025/
Список позиционируется как "100 самых влиятельных людей в сфере искусственного интеллекта". В топе – Альтман, Маск, Хуанг, Принс (CEO CloudFlare), Цукерберг, Амодеи, Веньфень и другие.
Но не все так однозначно: есть, как говорится, нюансы.
Например, вот кого в списке нет:
– Илья Суцкевер
– Джеффри Хинтон
– Демис Хассабис
– Ноам Браун
– Ян Лекун
– Мустафа Сулейман
– Аравинг Шринивас
А вот кто там есть:
– Папа Римский
– Чел из мема про вайбкодинг – Рик Рубин
– Художники, писатели и журналисты
В общем, как-то немного неловко получилось, что-ли
А ссылка на сам список вот: time.com/collections/time100-ai-2025/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤76😁55⚡12🍾7🗿4🎉3👍1🔥1