Технозаметки Малышева
8.35K subscribers
3.75K photos
1.4K videos
40 files
3.93K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
На Подмосковных Вечерах клуба 4CIO
https://pv2024.4cio.ru/

Первые 4 часа,- огромная детальная сессия мастер-класс по ИИ в бизнесе.

Интересные практические приёмы.
Позже будет в записи,- поделюсь тут.

#4cio #ПВ2024
------
@tsingular
🔥11
Forwarded from Data Secrets
Андрей Карпаты выложил видео с 20-минутным рассказом о том, как он создавал знаменитый llm.c проект

Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C 😃

Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1

Идеально для просмотра в воскресенье
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
UltraPixel: 4K+ генерация детальных изображений сверхвысокого качества

На Гитхабе появилась новая моделька, которая, по описанию, генерит изображения с ультравысоким разрешением и мега-детализацией.

Проект основан на StableCascade и Trans-inr, поддерживает ControlNet для точной генерации, а также позволяет обучать модели на собственных данных.

По ссылке - инструкции по установке, использованию и оптимизации под различные GPU.

Звучит как фантастика, на самом деле. Локально генерить картинки в таком качестве и разрешении...
По описанию на RTX 4090 24G 4096х4096 генерит за 44 секунды.

Если есть у кого возможность, - проверьте, накидайте в комментах генерации, я пока занят на конфе.
Завтра обязательно проверю.

UPD: из исходников не запустилось, но получилось сделать копию HF Space через докер:

docker run -it -p 7860:7860 --platform=linux/amd64 --gpus all registry.hf.space/roubaofeipi-ultrapixel-demo:latest python app.py

на 3080 mobile примерно 2 минуты на картинку 2048

#UltraPixel #ImageGen #highres
———
@tsingular
👍133🔥1
Ответы на вопрос - в каких задачах ваша компания использует ИИ сейчас?

Ответ - Никакие - самый популярный 😂.

Человечество в безопасности :)

#4CIO #ПВ2024
------
@tsingular
🤔8😁6💯4👍3
Qwen2.5-Coder по тестам в разработке превосходит более тяжелые варианты DeepSeek Code

Qwen2.5-Coder, как был анонс выше, релизнули в вариантах 1.5B и 7B параметров.

Qwen2.5-Coder-1.5B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-1.5B

Qwen2.5-Coder-7B
https://hf.co/qwen/Qwen/Qwen2.5-Coder-7B

И по тестам, получается, что Qwen2.5-Coder лидирует в бенчмарках HumanEval, MBPP, BigCodeBench и MultiPL-E, превосходя более крупные модели.

Показывает интересные результаты в генерации и автодополнении кода, а так же в Text-to-SQL задачах.

И вот не понятно, то ли правда китайские товарищи умудрились упаковать математическую мудрость в столь малый размер или это всё-таки файнтюн под бенчмарк.
В общем, нужно тестить.

Ну и традиционно, Qwen2.5 уже есть в ollama варианте:
ollama run qwen2.5

#Qwen #code #Alibaba #Китай
———
@tsingular
1
Эра Интеллекта: грядущая революция ИИ глазами Сэма Альтмана

Грядет эпоха небывалого прогресса, где искусственный интеллект станет ключом к решению глобальных вызовов.

Персональные ИИ-ассистенты превратятся в незаменимых помощников, расширяя возможности каждого человека.

Глубокое обучение продолжит совершенствоваться, открывая новые горизонты в науке и технологиях.

Для массового внедрения ИИ необходимо снизить стоимость вычислений и сделать их общедоступными.

Грядущие изменения трансформируют рынок труда, но не оставят людей без дела.

Эра Интеллекта обещает беспрецедентное процветание и решение многовековых проблем человечества.

Человечество открыло алгоритм, который действительно способен по-настоящему изучить любое распределение данных.

До шокирующей степени точности, чем больше вычислительных мощностей и данных доступно, тем лучше ИИ помогает людям решать сложные проблемы.

Сколько бы я ни думал об этом, мне кажется что я не смогу по-настоящему осознать масштаб последствий этого.


Прекрасное далёко уже совсем близко.

#IntelligenceAge #SamAltman #FutureOfWork
------
@tsingular
🔥8👾4
Некоторые промпты нужно отливать в золоте

Anthropic представила детальное описание техники Contextual Retrieval - сильнейшего метода повышения качества RAG систем.

Технология объединяет Contextual Embeddings и Contextual BM25, чем снижает долю неудачных результатов поиска на 67%.

Суть метода в генерации через Claude Haiku (самая быстрая версия Клода) описательной части для каждого чанка, а иногда и предложения, которая включает саммари всего документа в применении к обрабатываемому куску текста:

<document>
{{WHOLE_DOCUMENT}}
</document>
Here is the chunk we want to situate within the whole document
<chunk>
{{CHUNK_CONTENT}}
</chunk>
Please give a short succinct context to situate this chunk within the overall document for the purposes of improving search retrieval of the chunk. Answer only with the succinct context and nothing else.


в итоге получается что-то вроде:

original_chunk = "The company's revenue grew by 3% over the previous quarter."

contextualized_chunk = "This chunk is from an SEC filing on ACME corp's performance in Q2 2023; the previous quarter's revenue was $314 million. The company's revenue grew by 3% over the previous quarter."


Т.е. отдельно строка "The company's revenue grew by 3% over the previous quarter." в чанке смысла не несёт, но с расширенным описанием в контексте всего документа, - да.
И именно это расширенное описание и кладётся в вектор.

Дополнительно поход комбинируется с классическим поиском по ключевым словам, только ищется не слово целиком, а его ближайший похожий экземпляр.
Собственно это был предшественник семантического поиска, - выдаёт word similarity в %.

Комбинация семантического и лексического поиска, в итоге, значительно повышает эффективность работы с большими объёмами документов, а главное, - позволяет не потерять сутевые точечные детали, что подтверждается тестами на различных наборах данных и моделях эмбеддингов.

блокнот поиграться

Техника логичная сама по себе и кто-то приходит к ней эмпирически и через серию экспериментов, но Антропику отдельный респект за то, что систематизирует и делится с ИИ сообществом!

#Anthropic #RAG #ContextualRetrieval
———
@tsingular
🔥9👍3
Чтобы заменить программистов на ИИ, заказчику придётся точно сформулировать, что именно он хочет.

Получается программисты без работы не останутся :)

#юмор
———
@tsingular
😁13👍7
C такими темпами падения стоимости инференса мы и 1руб. за 1 млн. токенов увидим совсем скоро.
И вот выбор, - купить видеокарту за 500тыс (с компом) или пользовать 500млрд токенов...
А на это времени уйдёт примерно столько, за сколько карта обесценится и её придётся менять опять.

#цены
———
@tsingular
118
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили голосовой режим.

До конца недели обещают раскатить на всех подписчиков chatGPT.

50 языков и качественные эмоции.

#OpenAI #voice
------
@tsingular
🤔104
Intel запускает новый ИИ-ускоритель Gaudi 3

Intel наконец запустили, анонсированный ранее ИИ ускоритель Gaudi 3, который должен стать в 1,5 раза быстрее NVIDIA H100 и вдвое энергоэффективнее.

Gaudi 3 оптимизирован для генИИ и LLM, поддерживает работу с Llama, Falcon, задачи 3D-генерации, перевода, анализа тональности и т.д.

В следующем году так же ожидается выпуск Falcon Shores - модификации схемы, объединяющий CPU и GPU на одной подложке для серверов.

Если только Qualcomm не перепишет их планы.

#Intel #Gaudi3 #NVIDIA
-------
@tsingular
👍4
Google проапгрейдила Gemini: мощнее, дешевле, быстрее

Вышли обновления версий Gemini-1.5-Pro-002 и Flash-002.
Улучшения: +7% в MMLU-Pro, +20% в математике, +2-7% в визуальном анализе и кодировании.
Модели стали лаконичнее в ответах.

Цены снижены: -64% на входные токены, -52% на выход, -64% на токены инкрементального кэширования (sic!).

Лимиты запросов тоже подняли: Flash до 2000 RPM, Pro до 1000 RPM.

Так же представлена экспериментальная версия Gemini-1.5-Flash-8B-Exp-0924 с ускоренной генерацией.

Обновления доступны через Google AI Studio и Gemini API.

Anthropic до рождества, похоже будет тянуть :) Opus 3.5 когда уже? 🧠🏷

#Gemini #GoogleAI #MachineLearning
-------
@tsingular
NVIDIA допилили Llama: выпустили Nemotron-51B

NVIDIA представила Llama 3.1-Nemotron-51B - оптимизированную версию Llama-3.1-70B.

Новый подход - Neural Architecture Search (NAS) позволил создать модель, обеспечивающую в 2.2 раза более быстрый инференс.

Меньше жрёт память, что позволяет запускать в 4 раза больше задач на одном GPU (рекомендован H100 80Gb).

Есть версия Llama-3.1-Nemotron-40B-Instruct для диалогов.

Попробовать можно тут:
https://build.nvidia.com/nvidia/llama-3_1-nemotron-51b-instruct

В этот раз ставка сделана на скорость, при сохранении результата. Даже в части тестов получается на 1-2% слабее Llama 3.1 70B.
Ну и H100 80Gb не в каждом гараже, конечно, есть пока.

#NVIDIA #Llama #Nemotron
-------
@tsingular
Джеймс Кэмерон вступает в совет директоров Stability AI

Знаменитый кинорежиссер(Чужие, Терминатор, Бездна и др.) присоединяется к компании, разработавшей Stable Diffusion.
Этот шаг может стать поворотным моментом для индустрии ИИ в кинематографе.
Кэмерон видит потенциал в слиянии генеративного ИИ и CGI для создания визуальных эффектов.

При этом факт использование ИИ в киноиндустрии вызывает споры, в том числе принятие законов-ограничений в ряде штатов и было одной из причин серии недавних забастовок актёров.

Но капитализм штука упорная, поэтому киностудии продолжают и будут наращивать оптимизацию производства в сотрудничестве с ИИ компаниями.

Следующую серию Терминатора будет снимать Скайнет. 100% вангую.
А знаете как это можно будет определить?
Не по спецэффектам, нет, - их вы не различите.

Терминаторы будут положительными героями. 🎬🤖

#JamesCameron #StabilityAI #movies
-------
@tsingular
👍10😁5💯4👻1
Forwarded from Data Secrets
Проекты студентов Стэнфорда как отдельный вид искусства

Помните, недавно в Стэнфорде создали зеркало для arXiv, на котором можно в открытой форме обсуждать статьи? Так вот, проект до сих пор популярен в соцсетях, о нем говорят и им (самое главное!) пользуются.

Сейчас студенты и преподаватели продолжают тренд контрибьюта в инструменты для научного сообщества (скорее всего, такова активная политика университета) и выпустили крутой проект STORM для автоматизации этапа пре-райтинга статей.

Проект, кстати, не рассчитан на научные статьи, а скорее относится к разряду Wikipedia-like топиков (то есть на статьи без научной новизны). Цель состоит в том, чтобы упростить для авторов очень трудозатратный процесс сбора материалов и составления плана.

Самое интересное в этом проекте – это то, как он реализован. Это не просто один запрос к модели, а имитация разговора в стиле "вопрос-ответ" между двумя агентами. Один читает вики-статьи на похожие темы и задает по ним вопросы, а другой отвечает на них, основываясь на конкретных источниках, которые находит. Так составляется список референсов и одновременно формируется детальный план статьи.

Проект крутой, но в нем, к слову, еще не все идеально. Например, многие эксперты-люди отметили, что ИИ часто создает связи между несвязными фактами или берет ошибочные факты из непроверенных источников.
Все больше примеров нового голоса OpenaAI.

Детализация поражает, конечно.
Там не только эмоции, но и звуки вообще любые и все в тему.

Это как много каналов качественных признаков, которые обрабатываются параллельно и пересобираются как многослойный пирог в итоговый звук.

Сказка про животных, Шекспир в лицах, мяу-алфавит, ну и конечно же гвоздь программы - пьяная нейронка

Сотни тысяч лет эволюции, миллиарды в разработку, десятки лет кропотливого труда тысяч учёных, но мы не летим в космос, а спаиваем нейроку. Ну, победа, конечно :).

#OpenAI #voice
———
@tsingular
🔥5👏2😁2🤔2
Forwarded from эйай ньюз
🔥LLaMa 3.2 - Multimodal в опенсорсе!

Теперь в LLama официально завезли поддержку изображений! До этого мы имели в open-source только сторонние поделки вроде LLaVa и InternVL (они брали Llama3 за основу и тюнили).

Теперь модель понимает графики и диаграммы, описывает изображения и может находить на них объекты по описаниям.

Например, пользователь может спросить, в каком месяце его компания имела лучшие продажи, и модель даст ответ на основе доступных графиков.

Есть несколько размеров:
- Маленькая модель - 11B параметров
- Средняя - 90B. Обходит GPT-4o-mini по Vision бенчам.
- Более легковесные text-only модели: 1B и 3B параметров. Как раз, чтобы бегать локально на девайсах. 3B обходит Gemma 2 и Phi-3.5 - Mini.
- Контекст 128,000 токенов, как и в LLama 3.1

С легковесными моделями можно создавать персонализированые приложения с агентами в закрытой среде - например, резюмировать ваши сообщения, емейлы или отправлять приглашения в календарь.

И теперь с Llama 3.2 ждём очередной большой скачок качества Multimodal LLM в опенсорсе!

Блогпост
Веса на HF

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👾2