Илон Маск вместе с xAI и консорциумом инвесторов предложил $97.4 млрд за OpenAI. Цель - вернуть компанию к изначальной некоммерческой модели исследовательской лаборатории.
Сэм Альтман быстро отреагировал в X, предложив взамен купить Twitter за $9.74 млрд (напомню, Маск купил его за $44 млрд).
Веселье судебные разбирательства между бывшими партнёрами продолжаются. Маск требует заблокировать переход OpenAI в коммерческую компанию. Судья пока сомневается в обоснованности требований, но не исключает, что дело дойдёт до суда присяжных уже в следующем году.
Сергей Булаев AI 🤖 - об AI и не только
Сэм Альтман быстро отреагировал в X, предложив взамен купить Twitter за $9.74 млрд (напомню, Маск купил его за $44 млрд).
Сергей Булаев AI 🤖 - об AI и не только
Anthropic выпустил Economic Index - исследование реального использования ИИ, основанное на миллионах анонимизированных разговоров с Claude.
Самое интересное:
Компания не просто собрала статистику, но и использовала специальную систему Clio, которая анализирует разговоры с Claude, сохраняя приватность пользователей. Система сопоставляет каждый диалог с базой из 20 000 рабочих задач министерства труда США (O*NET).
Особенно круто, что компания открыла доступ к датасету, на основе которого проводилось исследование. Можно поковыряться самому.
Сергей Булаев AI 🤖 - об AI и не только
Самое интересное:
- 36% профессий используют ИИ хотя бы в четверти своих задач, но только 4% - в более чем трёх четвертях
- ИИ чаще дополняет человека (57%), чем заменяет (43%)
- Самое активное использование в программировании и технической документации (всего 3.4% рабочей силы, но генерируют 37.2% запросов к Claude)
- "Обучение" составляет 23.3% всех взаимодействий с ИИ - люди активно используют его для получения новых знаний
- ИИ меньше всего используют как в самых низкооплачиваемых профессиях (рыбаки и фермеры - 0,1%), так и в самых высокооплачиваемых (типа хирургов)
- На втором месте после айтишников - креативщики (10.3%), в основном писатели и редакторы
- В офисных профессиях (самая большая группа - 12.2% всех работников) ИИ используется только в 7.9% случаевКомпания не просто собрала статистику, но и использовала специальную систему Clio, которая анализирует разговоры с Claude, сохраняя приватность пользователей. Система сопоставляет каждый диалог с базой из 20 000 рабочих задач министерства труда США (O*NET).
Особенно круто, что компания открыла доступ к датасету, на основе которого проводилось исследование. Можно поковыряться самому.
Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Zyphra AI зарелизила Zonos - новую библиотеку для генерации речи, доступную по лицензии Apache 2.0.
Главные моменты:
Можно добавить аудиопрефикс к тексту и получить такие эффекты как шёпот, которые обычно сложно достичь при простом клонировании голоса.
Модель доступна на Hugging Face Hub. Качество и выразительность на высоте, при этом полностью бесплатно и для личного, и для коммерческого использования.
Сергей Булаев AI 🤖 - об AI и не только
Главные моменты:
- Клонирование голоса всего по 10-30 секундам аудио
- Поддержка нескольких языков (английский, японский, китайский, французский и немецкий)
- Тонкая настройка характеристик голоса - скорость, эмоции, тон
- Работает в 2 раза быстрее реального времени на RTX 4090
- Всего 1.6B параметров - можно запускать практически где угодноМожно добавить аудиопрефикс к тексту и получить такие эффекты как шёпот, которые обычно сложно достичь при простом клонировании голоса.
Модель доступна на Hugging Face Hub. Качество и выразительность на высоте, при этом полностью бесплатно и для личного, и для коммерческого использования.
Сергей Булаев AI 🤖 - об AI и не только
Duolingo выпустили очень интересный handbook, типа внутреннюю библию (помните внутренние инструкции Mr. Beast?) где довольно подробно рассказали о своих принципах работы. Вот несколько интересных моментов:
"Green Machine" - это их подход к разработке. Команда сравнивает его с процессором: чем выше тактовая частота (clock speed), тем быстрее выполняются инструкции. В Duolingo стараются минимизировать разрывы между действиями - время между принятием решения и его реализацией, между получением фидбека и внесением изменений.
Прикольно, что они не верят в MVP (минимально жизнеспособный продукт). Вместо этого у них V1 - первая версия, которая уже должна быть "отполирована". Да, может без всех фич, но обязательно качественная. Их аргумент - MVP часто становится оправданием для выпуска сырого продукта.
И ещё одна интересная штука - их подход к найму. "Better a hole than an a**hole" - лучше дырка в команде, чем токсичный сотрудник. Они реально отказали senior-у на позицию, которую не могли закрыть год, только потому что тот грубо общался с водителем, который вёз его из аэропорта. Жёстко, но правильно.
А знаете как они относятся к ошибкам? У них есть традиция "99 Bad Ideas" - на офсайтах они специально генерят самые безумные идеи. Например, что если бы Duo появился в рекламе на Супербоуле? (Кстати, в итоге так и случилось - в 2024 показали 5-секундную рекламу, где одна сова вылетает из... другой совы 😅, и реклама имела успех и результаты).
Но посмотрите всю книгу, там много интересного. Файл добавлю в первый комментарий.
Сергей Булаев AI 🤖 - об AI и не только
"Green Machine" - это их подход к разработке. Команда сравнивает его с процессором: чем выше тактовая частота (clock speed), тем быстрее выполняются инструкции. В Duolingo стараются минимизировать разрывы между действиями - время между принятием решения и его реализацией, между получением фидбека и внесением изменений.
Прикольно, что они не верят в MVP (минимально жизнеспособный продукт). Вместо этого у них V1 - первая версия, которая уже должна быть "отполирована". Да, может без всех фич, но обязательно качественная. Их аргумент - MVP часто становится оправданием для выпуска сырого продукта.
И ещё одна интересная штука - их подход к найму. "Better a hole than an a**hole" - лучше дырка в команде, чем токсичный сотрудник. Они реально отказали senior-у на позицию, которую не могли закрыть год, только потому что тот грубо общался с водителем, который вёз его из аэропорта. Жёстко, но правильно.
А знаете как они относятся к ошибкам? У них есть традиция "99 Bad Ideas" - на офсайтах они специально генерят самые безумные идеи. Например, что если бы Duo появился в рекламе на Супербоуле? (Кстати, в итоге так и случилось - в 2024 показали 5-секундную рекламу, где одна сова вылетает из... другой совы 😅, и реклама имела успех и результаты).
Но посмотрите всю книгу, там много интересного. Файл добавлю в первый комментарий.
Сергей Булаев AI 🤖 - об AI и не только
2 21 10
Deep Research отличный инструмент, но доступен только на тарифе за $200. Вот вам подборочка бесплатных альтернатив:
Open Deep Research - это опенсорсный исследовательский агент, выполняющий глубокий анализ любой темы через итеративные поиски и уточняющие вопросы, используя комбинацию поисковых систем, веб-скрапинга и языковых моделей. Проект намеренно держат в рамках 500 строк кода для простоты понимания и модификации, при этом он обладает всем необходимым функционалом - от параллельной обработки запросов до генерации подробных отчётов в markdown формате (для работы требуется Node.js и API ключи Firecrawl и OpenAI). Пример отчёта.
Hugging Face предлагает собственную версию Deep Research, которая, в отличие от закрытого OpenAI варианта, полностью открыта и уже показывает впечатляющие результаты - 55.15% на валидационном сете GAIA (для сравнения, у OpenAI - 67.36%). Главная особенность их подхода в том, что агент выражает свои действия через код, а не JSON, что не только упрощает работу, но и делает её на 30% эффективнее за счёт сокращения количества токенов и лучшего управления состоянием. Исходный код.
Open Deep Research от Николя Камара - это веб-приложение на Next.js, которое вместо использования fine-tuned o3 комбинирует Firecrawl для поиска и извлечения данных с моделью для рассуждений (по умолчанию gpt-4o, но можно использовать любую через OpenRouter). В отличие от оригинального Deep Research от OpenAI, проект полностью открыт, поддерживает множество провайдеров моделей и может быть развернут локально или в один клик на Vercel (требуется только настроить переменные окружения для API ключей, работает с OpenRouter!).
OpenDeepResearcher от Мэтта Шаммера - это ноутбук на Python, который непрерывно ищет информацию по запросу пользователя, используя для этого комбинацию SERPAPI, Jina и OpenRouter с Claude 3.5 Haiku по умолчанию. Примечательно, что проект обрабатывает все поисковые запросы и обработку страниц асинхронно для увеличения скорости, а для запуска требуется только Jupiter Notebook или Google Colab и три API ключа (OpenRouter, SERPAPI и Jina).
Node-DeepResearch от Han Xiao - это NodeJS инструмент, который продолжает поиск и анализ информации до тех пор, пока не найдет ответ или не исчерпает лимит токенов, используя Gemini 2.0 Flash (или локальные LLM через Ollama/LMStudio) для рассуждений и Jina Reader для поиска и чтения веб-страниц. Отличительная особенность проекта в том, что он не пытается имитировать написание длинных статей как в OpenAI/Gemini Deep Research, а сосредоточен только на поиске информации и предоставлении ответов, что делает его более легким и целенаправленным инструментом.
А чем пользуетесь вы? С каким успехом? Какие кейсы?
Сергей Булаев AI 🤖 - об AI и не только
Open Deep Research - это опенсорсный исследовательский агент, выполняющий глубокий анализ любой темы через итеративные поиски и уточняющие вопросы, используя комбинацию поисковых систем, веб-скрапинга и языковых моделей. Проект намеренно держат в рамках 500 строк кода для простоты понимания и модификации, при этом он обладает всем необходимым функционалом - от параллельной обработки запросов до генерации подробных отчётов в markdown формате (для работы требуется Node.js и API ключи Firecrawl и OpenAI). Пример отчёта.
Hugging Face предлагает собственную версию Deep Research, которая, в отличие от закрытого OpenAI варианта, полностью открыта и уже показывает впечатляющие результаты - 55.15% на валидационном сете GAIA (для сравнения, у OpenAI - 67.36%). Главная особенность их подхода в том, что агент выражает свои действия через код, а не JSON, что не только упрощает работу, но и делает её на 30% эффективнее за счёт сокращения количества токенов и лучшего управления состоянием. Исходный код.
Open Deep Research от Николя Камара - это веб-приложение на Next.js, которое вместо использования fine-tuned o3 комбинирует Firecrawl для поиска и извлечения данных с моделью для рассуждений (по умолчанию gpt-4o, но можно использовать любую через OpenRouter). В отличие от оригинального Deep Research от OpenAI, проект полностью открыт, поддерживает множество провайдеров моделей и может быть развернут локально или в один клик на Vercel (требуется только настроить переменные окружения для API ключей, работает с OpenRouter!).
OpenDeepResearcher от Мэтта Шаммера - это ноутбук на Python, который непрерывно ищет информацию по запросу пользователя, используя для этого комбинацию SERPAPI, Jina и OpenRouter с Claude 3.5 Haiku по умолчанию. Примечательно, что проект обрабатывает все поисковые запросы и обработку страниц асинхронно для увеличения скорости, а для запуска требуется только Jupiter Notebook или Google Colab и три API ключа (OpenRouter, SERPAPI и Jina).
Node-DeepResearch от Han Xiao - это NodeJS инструмент, который продолжает поиск и анализ информации до тех пор, пока не найдет ответ или не исчерпает лимит токенов, используя Gemini 2.0 Flash (или локальные LLM через Ollama/LMStudio) для рассуждений и Jina Reader для поиска и чтения веб-страниц. Отличительная особенность проекта в том, что он не пытается имитировать написание длинных статей как в OpenAI/Gemini Deep Research, а сосредоточен только на поиске информации и предоставлении ответов, что делает его более легким и целенаправленным инструментом.
А чем пользуетесь вы? С каким успехом? Какие кейсы?
Сергей Булаев AI 🤖 - об AI и не только
4 21 3
Kache, разработчик из X, написал небольшой разбор экономического отчёта Anthropic, где помимо нескольких абзацев размышлений на тему этичности исследования данных из переписок людей с ИИ, выдвинул интересную гипотезу о том что последними заменят тех, кто больше всех сам в работе применяет искуственный интеллект.
Вернее даже так, что не просто применяет, а применяет тем не менее используя и свой интеллект. Тоесть работает в паре.
Как то так.
Сергей Булаев AI 🤖 - об AI и не только
Вернее даже так, что не просто применяет, а применяет тем не менее используя и свой интеллект. Тоесть работает в паре.
Как то так.
Сергей Булаев AI 🤖 - об AI и не только
1 19 5
Летел 10 часов в самолёте, и половину времени провёл в разговорах с Deepseek (который у меня установлен через Ollama), в полностью оффлайн режиме. Знаете, наблюдать за его процессом размышлений оказалось гораздо более увлекательным, чем я мог себе представить. Модель выдаёт неожиданные мысли, о которых я сам и не думал. Получается что общение с ним "прокачивает" креативность читателя. И нет, не "читателя", конечно - тут скорее "собеседника" подходит лучше!
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
1 47 9 8👎2
ChatGPT-4o наконец-то обновилась в API до версии, которая уже пара недель доступна в вебе.
В Chatbot Arena модель показывает роскошные результаты - поднялась с пятого места на первое сразу в шести категориях: общая производительность, креативное письмо, программирование, следование инструкциям, работа с длинными запросами и многоходовые диалоги. С ноябрьского обновления это серьёзный прогресс.
C математикой всё ещё не всё гладко - только шестое место в рейтинге. Хотя если сравнивать с предыдущей версией, то улучшения заметны и здесь, особенно в академических тестах GPQA и MATH.
Модель получила расширенную базу знаний до июня 2024 года, заметно улучшила работу с изображениями (особенно с диаграммами и графиками) и показывает более высокие результаты на бенчмарке MMLU, который измеряет общее понимание и способность к рассуждениям.
Сергей Булаев AI 🤖 - об AI и не только
В Chatbot Arena модель показывает роскошные результаты - поднялась с пятого места на первое сразу в шести категориях: общая производительность, креативное письмо, программирование, следование инструкциям, работа с длинными запросами и многоходовые диалоги. С ноябрьского обновления это серьёзный прогресс.
C математикой всё ещё не всё гладко - только шестое место в рейтинге. Хотя если сравнивать с предыдущей версией, то улучшения заметны и здесь, особенно в академических тестах GPQA и MATH.
Модель получила расширенную базу знаний до июня 2024 года, заметно улучшила работу с изображениями (особенно с диаграммами и графиками) и показывает более высокие результаты на бенчмарке MMLU, который измеряет общее понимание и способность к рассуждениям.
Сергей Булаев AI 🤖 - об AI и не только
Тем временем в консоли Anthropic нашли упоминания нового режима "thinking" для Клода. Похоже, что скоро нас ждёт большое обновление!
Судя по конфигам, которые удалось найти Тибору Блахо (Lead Engineer в AIPRM), новая модель будет:
Видимо модель будет не всегда применять мыслительный процесс и это круто и правильно - не для всех задач он подходит.
В коде консоли уже мелькают упоминания "paprika" и встречаются ссылки на API (например, "console_paprika_banners" и "try_paprika"). А в последнем обновлении веб-интерфейса появились упоминания "tengu" и какой-то "tengu waitlist" (возможно, связанные с MCP инструментами).
Надеюсь, релиз web-версии и API произойдёт одновременно (кстати, спасибо Сергею Пахандрину, который обратил внимание что последний GPT-4o, о котором я вчера писал, всё ещё не доступен для него в API, я проверил, оказывается для меня тоже, не смотря на мой 5-й таер. Хотя OpenAI анонсировали).
Как большой любитель Клода (регулярно упираюсь в лимиты, в отличии от лимитов ChatGPT), очень жду!
Сергей Булаев AI 🤖 - об AI и не только
Судя по конфигам, которые удалось найти Тибору Блахо (Lead Engineer в AIPRM), новая модель будет:
- Думать дольше перед ответом
- Показывать ход своих размышлений
- Выдавать пошаговые объяснения для сложных задач
- Иметь расширенный режим мышления для более глубоких ответовВидимо модель будет не всегда применять мыслительный процесс и это круто и правильно - не для всех задач он подходит.
В коде консоли уже мелькают упоминания "paprika" и встречаются ссылки на API (например, "console_paprika_banners" и "try_paprika"). А в последнем обновлении веб-интерфейса появились упоминания "tengu" и какой-то "tengu waitlist" (возможно, связанные с MCP инструментами).
Надеюсь, релиз web-версии и API произойдёт одновременно (кстати, спасибо Сергею Пахандрину, который обратил внимание что последний GPT-4o, о котором я вчера писал, всё ещё не доступен для него в API, я проверил, оказывается для меня тоже, не смотря на мой 5-й таер. Хотя OpenAI анонсировали).
Как большой любитель Клода (регулярно упираюсь в лимиты, в отличии от лимитов ChatGPT), очень жду!
Сергей Булаев AI 🤖 - об AI и не только
OpenAI выпустили подробный гайд по использованию своих reasoning моделей (o1 и o3-mini). Не всегда нужно использовать самые крутые модели - иногда обычный GPT справляется лучше.
Вот несколько реальных кейсов использования reasoning моделей:
А вот когда лучше использовать обычные GPT:
В большинстве рабочих процессов оптимально использовать комбинацию моделей: o-series для планирования и принятия решений, GPT для выполнения конкретных задач.
Что касается промтов, многие привычные техники промпт-инжиниринга тут не работают, а иногда даже мешают.
Вот что реально важно:
Клёвый момент - модели продолжают думать над задачей и улучшать решение, пока оно не будет соответствовать вашим критериям успеха. Главное - чётко их определить.
Кстати, начиная с версии o1-2024-12-17 в API больше не будет маркдауна в ответах по умолчанию. Чтобы его включить, нужно добавить "Formatting re-enabled" в начало developer message.
Для полного комплекта прикладываю конструктор промптов от фаундера ai системы поиска и фиксинга проблем в коде Downanalytics.
Сергей Булаев AI 🤖 - об AI и не только
Вот несколько реальных кейсов использования reasoning моделей:
- Анализ контрактов и юридических документов: одна компания использовала o1 для проверки условий сделки M&A - модель нашла критически важный пункт в сноске, требующий немедленного погашения займа в $75 млн при смене контроля.
- Оценка налоговых решений: Blue J заменили GPT-4 на o1 для анализа налоговых документов и получили 4х кратное улучшение производительности. Модель оказалась особенно хороша в поиске связей между разными документами.
- Финансовый анализ: o1 и o3-mini успешно разбираются в сложных сценариях с правами акционеров, включая расчёты анти-размытия - задача, на которую у топовых финансовых аналитиков уходит 20-30 минут.
- Проверка кода: CodeRabbit увеличили конверсию в 3 раза после перехода на o-series - модели оказались особенно хороши в поиске мелких изменений, которые может пропустить человек.А вот когда лучше использовать обычные GPT:
- Для простой генерации кода
- При работе с чётко определёнными задачами
- Когда важна скорость ответа
- В случаях, где достаточно 80% точностиВ большинстве рабочих процессов оптимально использовать комбинацию моделей: o-series для планирования и принятия решений, GPT для выполнения конкретных задач.
Что касается промтов, многие привычные техники промпт-инжиниринга тут не работают, а иногда даже мешают.
Вот что реально важно:
- Забудьте про "думай пошагово" и "объясни своё решение" - модели и так это умеют, а лишние инструкции только мешают
- Используйте developer message вместо system message (начиная с o1-2024-12-17)
- Пишите простые и прямые инструкции - модели отлично понимают короткие команды
- Начинайте без примеров (zero-shot), добавляйте их только если что-то не получается
- Используйте разделители (markdown, XML теги) для структурирования ввода
Чётко определяйте ограничения (например "предложи решение с бюджетом до $500")
- Очень точно описывайте желаемый результатКлёвый момент - модели продолжают думать над задачей и улучшать решение, пока оно не будет соответствовать вашим критериям успеха. Главное - чётко их определить.
Кстати, начиная с версии o1-2024-12-17 в API больше не будет маркдауна в ответах по умолчанию. Чтобы его включить, нужно добавить "Formatting re-enabled" в начало developer message.
Для полного комплекта прикладываю конструктор промптов от фаундера ai системы поиска и фиксинга проблем в коде Downanalytics.
Сергей Булаев AI 🤖 - об AI и не только