Google проапгрейдила Gemini: мощнее, дешевле, быстрее
Вышли обновления версий Gemini-1.5-Pro-002 и Flash-002.
Улучшения: +7% в MMLU-Pro, +20% в математике, +2-7% в визуальном анализе и кодировании.
Модели стали лаконичнее в ответах.
Цены снижены: -64% на входные токены, -52% на выход, -64% на токены инкрементального кэширования (sic!).
Лимиты запросов тоже подняли: Flash до 2000 RPM, Pro до 1000 RPM.
Так же представлена экспериментальная версия Gemini-1.5-Flash-8B-Exp-0924 с ускоренной генерацией.
Обновления доступны через Google AI Studio и Gemini API.
Anthropic до рождества, похоже будет тянуть :) Opus 3.5 когда уже? 🧠🏷
#Gemini #GoogleAI #MachineLearning
-------
@tsingular
Вышли обновления версий Gemini-1.5-Pro-002 и Flash-002.
Улучшения: +7% в MMLU-Pro, +20% в математике, +2-7% в визуальном анализе и кодировании.
Модели стали лаконичнее в ответах.
Цены снижены: -64% на входные токены, -52% на выход, -64% на токены инкрементального кэширования (sic!).
Лимиты запросов тоже подняли: Flash до 2000 RPM, Pro до 1000 RPM.
Так же представлена экспериментальная версия Gemini-1.5-Flash-8B-Exp-0924 с ускоренной генерацией.
Обновления доступны через Google AI Studio и Gemini API.
Anthropic до рождества, похоже будет тянуть :) Opus 3.5 когда уже? 🧠🏷
#Gemini #GoogleAI #MachineLearning
-------
@tsingular
NVIDIA допилили Llama: выпустили Nemotron-51B
NVIDIA представила Llama 3.1-Nemotron-51B - оптимизированную версию Llama-3.1-70B.
Новый подход - Neural Architecture Search (NAS) позволил создать модель, обеспечивающую в 2.2 раза более быстрый инференс.
Меньше жрёт память, что позволяет запускать в 4 раза больше задач на одном GPU (рекомендован H100 80Gb).
Есть версия Llama-3.1-Nemotron-40B-Instruct для диалогов.
Попробовать можно тут:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-51b-instruct
В этот раз ставка сделана на скорость, при сохранении результата. Даже в части тестов получается на 1-2% слабее Llama 3.1 70B.
Ну и H100 80Gb не в каждом гараже, конечно, есть пока.
#NVIDIA #Llama #Nemotron
-------
@tsingular
NVIDIA представила Llama 3.1-Nemotron-51B - оптимизированную версию Llama-3.1-70B.
Новый подход - Neural Architecture Search (NAS) позволил создать модель, обеспечивающую в 2.2 раза более быстрый инференс.
Меньше жрёт память, что позволяет запускать в 4 раза больше задач на одном GPU (рекомендован H100 80Gb).
Есть версия Llama-3.1-Nemotron-40B-Instruct для диалогов.
Попробовать можно тут:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-51b-instruct
В этот раз ставка сделана на скорость, при сохранении результата. Даже в части тестов получается на 1-2% слабее Llama 3.1 70B.
Ну и H100 80Gb не в каждом гараже, конечно, есть пока.
#NVIDIA #Llama #Nemotron
-------
@tsingular
Джеймс Кэмерон вступает в совет директоров Stability AI
Знаменитый кинорежиссер(Чужие, Терминатор, Бездна и др.) присоединяется к компании, разработавшей Stable Diffusion.
Этот шаг может стать поворотным моментом для индустрии ИИ в кинематографе.
Кэмерон видит потенциал в слиянии генеративного ИИ и CGI для создания визуальных эффектов.
При этом факт использование ИИ в киноиндустрии вызывает споры, в том числе принятие законов-ограничений в ряде штатов и было одной из причин серии недавних забастовок актёров.
Но капитализм штука упорная, поэтому киностудии продолжают и будут наращивать оптимизацию производства в сотрудничестве с ИИ компаниями.
Следующую серию Терминатора будет снимать Скайнет. 100% вангую.
А знаете как это можно будет определить?
Не по спецэффектам, нет, - их вы не различите.
Терминаторы будут положительными героями. 🎬🤖
#JamesCameron #StabilityAI #movies
-------
@tsingular
Знаменитый кинорежиссер(Чужие, Терминатор, Бездна и др.) присоединяется к компании, разработавшей Stable Diffusion.
Этот шаг может стать поворотным моментом для индустрии ИИ в кинематографе.
Кэмерон видит потенциал в слиянии генеративного ИИ и CGI для создания визуальных эффектов.
При этом факт использование ИИ в киноиндустрии вызывает споры, в том числе принятие законов-ограничений в ряде штатов и было одной из причин серии недавних забастовок актёров.
Но капитализм штука упорная, поэтому киностудии продолжают и будут наращивать оптимизацию производства в сотрудничестве с ИИ компаниями.
Следующую серию Терминатора будет снимать Скайнет. 100% вангую.
А знаете как это можно будет определить?
Не по спецэффектам, нет, - их вы не различите.
Терминаторы будут положительными героями. 🎬🤖
#JamesCameron #StabilityAI #movies
-------
@tsingular
👍10😁5💯4👻1
Forwarded from Data Secrets
Проекты студентов Стэнфорда как отдельный вид искусства
Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.
Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.
Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.
Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.
Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.
Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.
Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.
Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.
Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
Все больше примеров нового голоса OpenaAI.
Детализация поражает, конечно.
Там не только эмоции, но и звуки вообще любые и все в тему.
Это как много каналов качественных признаков, которые обрабатываются параллельно и пересобираются как многослойный пирог в итоговый звук.
Сказка про животных, Шекспир в лицах, мяу-алфавит, ну и конечно же гвоздь программы - пьяная нейронка
Сотни тысяч лет эволюции, миллиарды в разработку, десятки лет кропотливого труда тысяч учёных, но мы не летим в космос, а спаиваем нейроку. Ну, победа, конечно :).
#OpenAI #voice
———
@tsingular
Детализация поражает, конечно.
Там не только эмоции, но и звуки вообще любые и все в тему.
Это как много каналов качественных признаков, которые обрабатываются параллельно и пересобираются как многослойный пирог в итоговый звук.
Сказка про животных, Шекспир в лицах, мяу-алфавит, ну и конечно же гвоздь программы - пьяная нейронка
Сотни тысяч лет эволюции, миллиарды в разработку, десятки лет кропотливого труда тысяч учёных, но мы не летим в космос, а спаиваем нейроку. Ну, победа, конечно :).
#OpenAI #voice
———
@tsingular
🔥5👏2😁2🤔2
Forwarded from эйай ньюз
Теперь в LLama официально завезли поддержку изображений! До этого мы имели в open-source только сторонние поделки вроде LLaVa и InternVL (они брали Llama3 за основу и тюнили).
Теперь модель понимает графики и диаграммы, описывает изображения и может находить на них объекты по описаниям.
Например, пользователь может спросить, в каком месяце его компания имела лучшие продажи, и модель даст ответ на основе доступных графиков.
Есть несколько размеров:
- Маленькая модель - 11B параметров
- Средняя - 90B. Обходит GPT-4o-mini по Vision бенчам.
- Более легковесные text-only модели: 1B и 3B параметров. Как раз, чтобы бегать локально на девайсах. 3B обходит Gemma 2 и Phi-3.5 - Mini.
- Контекст 128,000 токенов, как и в LLama 3.1
С легковесными моделями можно создавать персонализированые приложения с агентами в закрытой среде - например, резюмировать ваши сообщения, емейлы или отправлять приглашения в календарь.
И теперь с Llama 3.2 ждём очередной большой скачок качества Multimodal LLM в опенсорсе!
Блогпост
Веса на HF
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾2
Forwarded from Data Secrets
Возможно Llama 3.2 была не самым интересным вчерашним мультимодальным релизом: вышла Molmo, которая круче показывает себя на бенчмарках
Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.
В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).
Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.
В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).
Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
AlphaChip: ИИ проектирует дизайн компьютерных чипов
AlphaChip - ИИ модель, использующая обучение с подкреплением для проектирования микросхем, разработанная Google DeepMind.
Генерирует компоновки чипов за часы, тогда как ручной процесс занимал недели.
Подход рассматривает компоновку как игру, размещая компоненты на пустой сетке и использует графовую нейронную сеть для анализа взаимосвязей между элементами.
AlphaChip самосовершенствуется с каждым новым проектом, обобщая свой опыт в разработке различных чипов и схем, что в итоге приводит к бОльшей эффективности, чем экспертиза людей.
Применяется в разработке тензорных процессоров Google, Axion Processors и MediaTek Dimensity.
Ну вот, а вы переживали, - "когда ИИ будет создавать и улучшать сам себя?".
Вот уже почти оно. :)
#AlphaChip #GoogleDeepMind #ChipDesign
-------
@tsingular
AlphaChip - ИИ модель, использующая обучение с подкреплением для проектирования микросхем, разработанная Google DeepMind.
Генерирует компоновки чипов за часы, тогда как ручной процесс занимал недели.
Подход рассматривает компоновку как игру, размещая компоненты на пустой сетке и использует графовую нейронную сеть для анализа взаимосвязей между элементами.
AlphaChip самосовершенствуется с каждым новым проектом, обобщая свой опыт в разработке различных чипов и схем, что в итоге приводит к бОльшей эффективности, чем экспертиза людей.
Применяется в разработке тензорных процессоров Google, Axion Processors и MediaTek Dimensity.
Ну вот, а вы переживали, - "когда ИИ будет создавать и улучшать сам себя?".
Вот уже почти оно. :)
#AlphaChip #GoogleDeepMind #ChipDesign
-------
@tsingular
🔥33🤯10✍3👍1🍓1👾1
ChatGPT для macOS под угрозой: обнаружена серьезная уязвимость
Исследователи выявили критический баг в приложении ChatGPT для macOS.
Эксплойт, названный SpAIware, позволяет внедрять вредоносный код в долговременную память бота.
Атакующие могут похищать данные пользователей, включая все будущие диалоги.
OpenAI выпустила частичное исправление, запретив боту отправлять информацию на удаленные серверы.
Пользователям рекомендуется регулярно проверять и очищать память ChatGPT от подозрительных записей.
Уязвимость не затрагивает веб-версию сервиса.
Когда дедлайны важнее SDLC. Никогда такого не было и вот, - опять. 🤖🛡
#ChatGPT #Vulnerability #MacOS
-------
@tsingular
Исследователи выявили критический баг в приложении ChatGPT для macOS.
Эксплойт, названный SpAIware, позволяет внедрять вредоносный код в долговременную память бота.
Атакующие могут похищать данные пользователей, включая все будущие диалоги.
OpenAI выпустила частичное исправление, запретив боту отправлять информацию на удаленные серверы.
Пользователям рекомендуется регулярно проверять и очищать память ChatGPT от подозрительных записей.
Уязвимость не затрагивает веб-версию сервиса.
Когда дедлайны важнее SDLC. Никогда такого не было и вот, - опять. 🤖🛡
#ChatGPT #Vulnerability #MacOS
-------
@tsingular
🤔4
Утечка характеристик NVIDIA GeForce RTX 5090 и 5080
Инсайдеры раскрыли предварительные спецификации грядущих флагманов NVIDIA:
RTX 5090: 24576 CUDA-ядер, TDP 600 Вт.
RTX 5080: 16384 CUDA-ядер, TDP 400 Вт.
Обе модели базируются на архитектуре Blackwell и используют память GDDR7.
Ожидаемый прирост производительности - 60-70% по сравнению с RTX 4090.
Анонс в 2024, выпуск - 2025.
Ну, такое... 600W по-умолчанию, - слишком, ИМХО.
И очень хочется версию на 64Gb.
#NVIDIA #GeForce #RTX5090
———
@tsingular
Инсайдеры раскрыли предварительные спецификации грядущих флагманов NVIDIA:
RTX 5090: 24576 CUDA-ядер, TDP 600 Вт.
RTX 5080: 16384 CUDA-ядер, TDP 400 Вт.
Обе модели базируются на архитектуре Blackwell и используют память GDDR7.
Ожидаемый прирост производительности - 60-70% по сравнению с RTX 4090.
Анонс в 2024, выпуск - 2025.
Ну, такое... 600W по-умолчанию, - слишком, ИМХО.
И очень хочется версию на 64Gb.
#NVIDIA #GeForce #RTX5090
———
@tsingular
Forwarded from Machinelearning
Molmo (Multimodal Open Language Model) - это семейство VLM, разработанных в Институте искусственного интеллекта Аллена, для решения задач обработки изображений и текста - создание подробных описаний изображений и выполнение комплексных визуальных операций, например:
Обучение семейства выполнялось в 2 этапа: предварительное обучение на наборе данных PixMo-Cap для генерации аннотаций к изображениям и этап SFT с использованием комбинации академических наборов данных и наборов данных PixMo (PixMo-AskModelAnything, PixMo-Points, PixMo-CapQA, PixMo-Docs, PixMo-Clocks).
Тестирование модели проводилось на 11 бенчмарках: AI2D, ChartQA, VQA v2, DocVQA, InfographicVQA, TextVQA, RealWorldQA, MMMU, Math-Vista, CountBenchQA и Flickr Count.
Результаты показали, что Molmo, особенно модель Molmo-72B, демонстрирует производительность на уровне GPT-4o, превосходя Gemini 1.5 Pro, Flash и Claude 3.5 Sonnet.
⚠️ Модели Molmo могут испытывать трудности с прозрачными изображениями. В качестве решения, разработчики рекомендуют добавлять белый или темный фон к изображениям перед передачей их в модель, например, с помощью библиотеки PIL.
@ai_machinelearning_big_data
#AI #ML #Molmo #MoE #MMLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
ИИ-аналитики в SOC: роли LLM в кибербезопасности
Стремительное внедрение злоумышленниками ИИ инструментов для создания новых типов атак стимулирует ответные меры.
LLM и агентные фреймворки позволяют теперь создавать ИИ-помощников для SOC.
По прогнозам, вскоре практически каждый SOC будет использовать ИИ-аналитиков, которые, например, способны проводить расследования за секунды вместо 30-60 минут.
Как эффект, -автоматизация рутины Tier 1 аналитиков может не только повысить эффективность, но и снизить выгорание и текучесть кадров.
ИИ агенты - новый стандарт.
Вопрос лишь, - какой % бизнес-процесса вы готовы им доверить.
По опыту скажу, - что быстро входишь во вкус.
Как только начинает работать, - сразу ждёшь бОльшего, но многое ещё нужно доработать и дообучить. :)
#SOC #LLM #Cybersecurity
-------
@tsingular
Стремительное внедрение злоумышленниками ИИ инструментов для создания новых типов атак стимулирует ответные меры.
LLM и агентные фреймворки позволяют теперь создавать ИИ-помощников для SOC.
По прогнозам, вскоре практически каждый SOC будет использовать ИИ-аналитиков, которые, например, способны проводить расследования за секунды вместо 30-60 минут.
Как эффект, -автоматизация рутины Tier 1 аналитиков может не только повысить эффективность, но и снизить выгорание и текучесть кадров.
ИИ агенты - новый стандарт.
Вопрос лишь, - какой % бизнес-процесса вы готовы им доверить.
По опыту скажу, - что быстро входишь во вкус.
Как только начинает работать, - сразу ждёшь бОльшего, но многое ещё нужно доработать и дообучить. :)
#SOC #LLM #Cybersecurity
-------
@tsingular
👍2
Эмоциональный интеллект в ИИ.
Пример, как OpenaAI 4o даёт оценку эмоджи по шкале от "-1" до "1"
Т.е., в принципе, получается, можно использовать на уровне промптов.
Эмоцию распознает и среагирует вполне соответствующе.
Посмотрите, вы бы так же распределили шкалу?
#emoji #эмоциональныйИИ
———
@tsingular
Пример, как OpenaAI 4o даёт оценку эмоджи по шкале от "-1" до "1"
Т.е., в принципе, получается, можно использовать на уровне промптов.
Эмоцию распознает и среагирует вполне соответствующе.
Посмотрите, вы бы так же распределили шкалу?
#emoji #эмоциональныйИИ
———
@tsingular
👍3💯2
OpenAI повышает стоимость подписки вдвое
По отчётам OpenAI, на сегодняшний день около 10 миллионов пользователей ChatGPT платят ежемесячную подписку в $20.
OpenAI намерена повысить стоимость на $2 до конца года, а в течение следующих пяти лет постепенно увеличить её до $44.
Более миллиона сторонних разработчиков уже используют технологии OpenAI для создания собственных сервисов и потребление по API для среднего стартапа ближе по расходам как раз к $50-$100 в месяц, так что $20, - это, конечно, аттракцион невиданной щедрости был.
Компания вышла на уверенный рост и монетизацию, хотя все еще и в убытке (правильнее наверное сказать, - период агрессивных инвестиций в развитие).
#OpenAI #ChatGPT #subscription #price
———
@tsingular
По отчётам OpenAI, на сегодняшний день около 10 миллионов пользователей ChatGPT платят ежемесячную подписку в $20.
OpenAI намерена повысить стоимость на $2 до конца года, а в течение следующих пяти лет постепенно увеличить её до $44.
Более миллиона сторонних разработчиков уже используют технологии OpenAI для создания собственных сервисов и потребление по API для среднего стартапа ближе по расходам как раз к $50-$100 в месяц, так что $20, - это, конечно, аттракцион невиданной щедрости был.
Компания вышла на уверенный рост и монетизацию, хотя все еще и в убытке (правильнее наверное сказать, - период агрессивных инвестиций в развитие).
#OpenAI #ChatGPT #subscription #price
———
@tsingular