Технозаметки Малышева
8.34K subscribers
3.75K photos
1.4K videos
40 files
3.93K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Эра Интеллекта: грядущая революция ИИ глазами Сэма Альтмана

Грядет эпоха небывалого прогресса, где искусственный интеллект станет ключом к решению глобальных вызовов.

Персональные ИИ-ассистенты превратятся в незаменимых помощников, расширяя возможности каждого человека.

Глубокое обучение продолжит совершенствоваться, открывая новые горизонты в науке и технологиях.

Для массового внедрения ИИ необходимо снизить стоимость вычислений и сделать их общедоступными.

Грядущие изменения трансформируют рынок труда, но не оставят людей без дела.

Эра Интеллекта обещает беспрецедентное процветание и решение многовековых проблем человечества.

Человечество открыло алгоритм, который действительно способен по-настоящему изучить любое распределение данных.

До шокирующей степени точности, чем больше вычислительных мощностей и данных доступно, тем лучше ИИ помогает людям решать сложные проблемы.

Сколько бы я ни думал об этом, мне кажется что я не смогу по-настоящему осознать масштаб последствий этого.


Прекрасное далёко уже совсем близко.

#IntelligenceAge #SamAltman #FutureOfWork
------
@tsingular
🔥8👾4
Некоторые промпты нужно отливать в золоте

Anthropic представила детальное описание техники Contextual Retrieval - сильнейшего метода повышения качества RAG систем.

Технология объединяет Contextual Embeddings и Contextual BM25, чем снижает долю неудачных результатов поиска на 67%.

Суть метода в генерации через Claude Haiku (самая быстрая версия Клода) описательной части для каждого чанка, а иногда и предложения, которая включает саммари всего документа в применении к обрабатываемому куску текста:

<document>
{{WHOLE_DOCUMENT}}
</document>
Here is the chunk we want to situate within the whole document
<chunk>
{{CHUNK_CONTENT}}
</chunk>
Please give a short succinct context to situate this chunk within the overall document for the purposes of improving search retrieval of the chunk. Answer only with the succinct context and nothing else.


в итоге получается что-то вроде:

original_chunk = "The company's revenue grew by 3% over the previous quarter."

contextualized_chunk = "This chunk is from an SEC filing on ACME corp's performance in Q2 2023; the previous quarter's revenue was $314 million. The company's revenue grew by 3% over the previous quarter."


Т.е. отдельно строка "The company's revenue grew by 3% over the previous quarter." в чанке смысла не несёт, но с расширенным описанием в контексте всего документа, - да.
И именно это расширенное описание и кладётся в вектор.

Дополнительно поход комбинируется с классическим поиском по ключевым словам, только ищется не слово целиком, а его ближайший похожий экземпляр.
Собственно это был предшественник семантического поиска, - выдаёт word similarity в %.

Комбинация семантического и лексического поиска, в итоге, значительно повышает эффективность работы с большими объёмами документов, а главное, - позволяет не потерять сутевые точечные детали, что подтверждается тестами на различных наборах данных и моделях эмбеддингов.

блокнот поиграться

Техника логичная сама по себе и кто-то приходит к ней эмпирически и через серию экспериментов, но Антропику отдельный респект за то, что систематизирует и делится с ИИ сообществом!

#Anthropic #RAG #ContextualRetrieval
———
@tsingular
🔥9👍3
Чтобы заменить программистов на ИИ, заказчику придётся точно сформулировать, что именно он хочет.

Получается программисты без работы не останутся :)

#юмор
———
@tsingular
😁13👍7
C такими темпами падения стоимости инференса мы и 1руб. за 1 млн. токенов увидим совсем скоро.
И вот выбор, - купить видеокарту за 500тыс (с компом) или пользовать 500млрд токенов...
А на это времени уйдёт примерно столько, за сколько карта обесценится и её придётся менять опять.

#цены
———
@tsingular
118
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили голосовой режим.

До конца недели обещают раскатить на всех подписчиков chatGPT.

50 языков и качественные эмоции.

#OpenAI #voice
------
@tsingular
🤔104
Intel запускает новый ИИ-ускоритель Gaudi 3

Intel наконец запустили, анонсированный ранее ИИ ускоритель Gaudi 3, который должен стать в 1,5 раза быстрее NVIDIA H100 и вдвое энергоэффективнее.

Gaudi 3 оптимизирован для генИИ и LLM, поддерживает работу с Llama, Falcon, задачи 3D-генерации, перевода, анализа тональности и т.д.

В следующем году так же ожидается выпуск Falcon Shores - модификации схемы, объединяющий CPU и GPU на одной подложке для серверов.

Если только Qualcomm не перепишет их планы.

#Intel #Gaudi3 #NVIDIA
-------
@tsingular
👍4
Google проапгрейдила Gemini: мощнее, дешевле, быстрее

Вышли обновления версий Gemini-1.5-Pro-002 и Flash-002.
Улучшения: +7% в MMLU-Pro, +20% в математике, +2-7% в визуальном анализе и кодировании.
Модели стали лаконичнее в ответах.

Цены снижены: -64% на входные токены, -52% на выход, -64% на токены инкрементального кэширования (sic!).

Лимиты запросов тоже подняли: Flash до 2000 RPM, Pro до 1000 RPM.

Так же представлена экспериментальная версия Gemini-1.5-Flash-8B-Exp-0924 с ускоренной генерацией.

Обновления доступны через Google AI Studio и Gemini API.

Anthropic до рождества, похоже будет тянуть :) Opus 3.5 когда уже? 🧠🏷

#Gemini #GoogleAI #MachineLearning
-------
@tsingular
NVIDIA допилили Llama: выпустили Nemotron-51B

NVIDIA представила Llama 3.1-Nemotron-51B - оптимизированную версию Llama-3.1-70B.

Новый подход - Neural Architecture Search (NAS) позволил создать модель, обеспечивающую в 2.2 раза более быстрый инференс.

Меньше жрёт память, что позволяет запускать в 4 раза больше задач на одном GPU (рекомендован H100 80Gb).

Есть версия Llama-3.1-Nemotron-40B-Instruct для диалогов.

Попробовать можно тут:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-51b-instruct

В этот раз ставка сделана на скорость, при сохранении результата. Даже в части тестов получается на 1-2% слабее Llama 3.1 70B.
Ну и H100 80Gb не в каждом гараже, конечно, есть пока.

#NVIDIA #Llama #Nemotron
-------
@tsingular
Джеймс Кэмерон вступает в совет директоров Stability AI

Знаменитый кинорежиссер(Чужие, Терминатор, Бездна и др.) присоединяется к компании, разработавшей Stable Diffusion.
Этот шаг может стать поворотным моментом для индустрии ИИ в кинематографе.
Кэмерон видит потенциал в слиянии генеративного ИИ и CGI для создания визуальных эффектов.

При этом факт использование ИИ в киноиндустрии вызывает споры, в том числе принятие законов-ограничений в ряде штатов и было одной из причин серии недавних забастовок актёров.

Но капитализм штука упорная, поэтому киностудии продолжают и будут наращивать оптимизацию производства в сотрудничестве с ИИ компаниями.

Следующую серию Терминатора будет снимать Скайнет. 100% вангую.
А знаете как это можно будет определить?
Не по спецэффектам, нет, - их вы не различите.

Терминаторы будут положительными героями. 🎬🤖

#JamesCameron #StabilityAI #movies
-------
@tsingular
👍10😁5💯4👻1
Forwarded from Data Secrets
Проекты студентов Стэнфорда как отдельный вид искусства

Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.

Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.

Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.

Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.

Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
Все больше примеров нового голоса OpenaAI.

Детализация поражает, конечно.
Там не только эмоции, но и звуки вообще любые и все в тему.

Это как много каналов качественных признаков, которые обрабатываются параллельно и пересобираются как многослойный пирог в итоговый звук.

Сказка про животных, Шекспир в лицах, мяу-алфавит, ну и конечно же гвоздь программы - пьяная нейронка

Сотни тысяч лет эволюции, миллиарды в разработку, десятки лет кропотливого труда тысяч учёных, но мы не летим в космос, а спаиваем нейроку. Ну, победа, конечно :).

#OpenAI #voice
———
@tsingular
🔥5👏2😁2🤔2
Forwarded from эйай ньюз
🔥LLaMa 3.2 - Multimodal в опенсорсе!

Теперь в LLama официально завезли поддержку изображений! До этого мы имели в open-source только сторонние поделки вроде LLaVa и InternVL (они брали Llama3 за основу и тюнили).

Теперь модель понимает графики и диаграммы, описывает изображения и может находить на них объекты по описаниям.

Например, пользователь может спросить, в каком месяце его компания имела лучшие продажи, и модель даст ответ на основе доступных графиков.

Есть несколько размеров:
- Маленькая модель - 11B параметров
- Средняя - 90B. Обходит GPT-4o-mini по Vision бенчам.
- Более легковесные text-only модели: 1B и 3B параметров. Как раз, чтобы бегать локально на девайсах. 3B обходит Gemma 2 и Phi-3.5 - Mini.
- Контекст 128,000 токенов, как и в LLama 3.1

С легковесными моделями можно создавать персонализированые приложения с агентами в закрытой среде - например, резюмировать ваши сообщения, емейлы или отправлять приглашения в календарь.

И теперь с Llama 3.2 ждём очередной большой скачок качества Multimodal LLM в опенсорсе!

Блогпост
Веса на HF

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾2
Forwarded from Data Secrets
Возможно Llama 3.2 была не самым интересным вчерашним мультимодальным релизом: вышла Molmo, которая круче показывает себя на бенчмарках

Это семейство опенсорсных моделей от лаборатории Ai2. Есть варианты на 7В MoE (1B активных), 7В (таких две) и 72В. Самая крупная на бенчмарках обгоняет Llama 3.2 90B, и достает до полноразмерной GPT-4o, Gemini 1.5 Pro и Claude Sonnet 3.5.

В основе крупной модели Qwen2-72B + OpenAI CLIP в качестве vision-основы. А еще исследователи обещают скоро выкатить датасеты и код (включая vision encoder).

Все модели доступны под лицензией Apache 2.0 на HF (и в ЕС тоже!). Статью можно прочитать здесь, а вот тут доступно демо.
AlphaChip: ИИ проектирует дизайн компьютерных чипов

AlphaChip - ИИ модель, использующая обучение с подкреплением для проектирования микросхем, разработанная Google DeepMind.

Генерирует компоновки чипов за часы, тогда как ручной процесс занимал недели.

Подход рассматривает компоновку как игру, размещая компоненты на пустой сетке и использует графовую нейронную сеть для анализа взаимосвязей между элементами.

AlphaChip самосовершенствуется с каждым новым проектом, обобщая свой опыт в разработке различных чипов и схем, что в итоге приводит к бОльшей эффективности, чем экспертиза людей.

Применяется в разработке тензорных процессоров Google, Axion Processors и MediaTek Dimensity.

Ну вот, а вы переживали, - "когда ИИ будет создавать и улучшать сам себя?".
Вот уже почти оно. :)

#AlphaChip #GoogleDeepMind #ChipDesign
-------
@tsingular
🔥33🤯103👍1🍓1👾1
ChatGPT для macOS под угрозой: обнаружена серьезная уязвимость

Исследователи выявили критический баг в приложении ChatGPT для macOS.
Эксплойт, названный SpAIware, позволяет внедрять вредоносный код в долговременную память бота.

Атакующие могут похищать данные пользователей, включая все будущие диалоги.

OpenAI выпустила частичное исправление, запретив боту отправлять информацию на удаленные серверы.

Пользователям рекомендуется регулярно проверять и очищать память ChatGPT от подозрительных записей.
Уязвимость не затрагивает веб-версию сервиса.

Когда дедлайны важнее SDLC. Никогда такого не было и вот, - опять. 🤖🛡

#ChatGPT #Vulnerability #MacOS
-------
@tsingular
🤔4
Утечка характеристик NVIDIA GeForce RTX 5090 и 5080

Инсайдеры раскрыли предварительные спецификации грядущих флагманов NVIDIA:
RTX 5090: 24576 CUDA-ядер, TDP 600 Вт.
RTX 5080: 16384 CUDA-ядер, TDP 400 Вт.

Обе модели базируются на архитектуре Blackwell и используют память GDDR7.

Ожидаемый прирост производительности - 60-70% по сравнению с RTX 4090.

Анонс в 2024, выпуск - 2025.

Ну, такое... 600W по-умолчанию, - слишком, ИМХО.
И очень хочется версию на 64Gb.

#NVIDIA #GeForce #RTX5090
———
@tsingular
Forwarded from Machinelearning
⚡️ Molmo: семейство state-of-art MMLM.

Molmo (Multimodal Open Language Model) - это семейство VLM, разработанных в Институте искусственного интеллекта Аллена, для решения задач обработки изображений и текста - создание подробных описаний изображений и выполнение комплексных визуальных операций, например:

🟢ответы на вопросы;
🟢обнаружение и сегментация по текстовому запросу;
🟢подсчет объектов или элементов;
🟢использование в сфере робототехники для изображений или видео;
🟢расширение возможностей VR.

▶️Molmo 72B - флагманская модель на базе Qwen2-72B в роли LLM и ViT-L/14 336px CLIP в роли visial-энкодера. Molmo-72B достигает наивысшего балла в бенчмарках и занимает второе место по человеческой оценке, лишь немного уступая GPT-4o.

▶️Molmo 7B-D и Molmo 7B-O - более утилитарные модели с разницей в исходных LLM (Qwen2-7B и OLMo-7B-1124 соответственно) и все тем же ViT-L/14 336px в качестве энкодера.

▶️ MolmoE 1B - компактная модель на архитектуре Mixture-of-Experts, основанная на OLMoE-1B-7B с 1.5B активных и 7.2B общих параметров, с производительностью, сравнимой с GPT-4V.

Обучение семейства выполнялось в 2 этапа: предварительное обучение на наборе данных PixMo-Cap для генерации аннотаций к изображениям и этап SFT с использованием комбинации академических наборов данных и наборов данных PixMo (PixMo-AskModelAnything, PixMo-Points, PixMo-CapQA, PixMo-Docs, PixMo-Clocks).

Тестирование модели проводилось на 11 бенчмарках: AI2D, ChartQA, VQA v2, DocVQA, InfographicVQA, TextVQA, RealWorldQA, MMMU, Math-Vista, CountBenchQA и Flickr Count.

Результаты показали, что Molmo, особенно модель Molmo-72B, демонстрирует производительность на уровне GPT-4o, превосходя Gemini 1.5 Pro, Flash и Claude 3.5 Sonnet.

⚠️ Модели Molmo могут испытывать трудности с прозрачными изображениями. В качестве решения, разработчики рекомендуют добавлять белый или темный фон к изображениям перед передачей их в модель, например, с помощью библиотеки PIL.


📌Лицензирование : Apache 2.0


🟡Страница проекта
🟡Коллекция моделей на HF
🟡Arxiv
🟡Demo


@ai_machinelearning_big_data

#AI #ML #Molmo #MoE #MMLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4