Квест Теория Каст и Ролей
19.9K subscribers
1.22K photos
396 videos
44 files
3.55K links
Канал Алексея Крола, автора Теории Каст и Ролей.
Download Telegram
Вот да!
Forwarded from All is Gucci
У Duolingo сова влюбляется в Дуа Липу, выходит на подиум и гибнет под колесами Cybertruck. Liquid Death нанимает панк-вокалистов и сценариста Mr. Pickles вместо маркетологов. Netflix строит тематические парки в духе Диснейленда.

Это новая логика выживания в эпоху роста creator economy и дефицита внимания. Маркетологи Small World выпустили репорт Entertain or Die 2.0 суть которого в том, что в 2025 году b2c-бренды больше не конкурируют друг с другом. Теперь они конкурируют с MrBeast, тиктокерами, Discord-фандомами и DIY-студиями на YouTube. С теми, кто умеет развлекать.

В репорте исследовали 100 брендов (среди них А24, Дисней, Дуолинго, Liquid Death) по 7 параметрам: юмор, характер, внимание, контент, эмоциональная связь и узнаваемость. Также опросили 20000 респондентов. Из всего этого вывели общий тренд: самые громкие бренды заимствуют практики креаторов.

💙создают внутриигровые вселенные (brand lore)
💙 нанимают нестандартных авторов вместо агентств
💙 строят продакшн-инхаусы по модели writer’s room
💙 создают свои медиа (журналы, подкасты, шоу)
💙 взаимодействуют с реальным миром и напрямую сотрудничают с креаторами.

Топ-30 брендов по Entertainment Index показали:
💙97% из них растут быстрее, чем конкуренты
💙 67% показывают двузначный рост выручки
💙 многие делают это без «массового охвата», а через вовлеченность

Как написали в репорте: «хороший бренд не нуждается в вашей любви. Ему нужно ваше внимание». Полистать репорт можно в комментах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
125
Ребятки, все крутые новости по ИИ на Твиттере, я делаю перепосты от силы 5%, чем хотелось бы делится. Пока руками, но в планах агент, который будет сканировать ленту, выбирать релевантные посты. А пока я там сделал лист, куда собираю всех, кто высказывает что-то полезное по теме. Хотите из первых рук - см здесь: https://x.com/i/lists/1893738230648033398
120
Пять копеек по поводу MCP. Мое IMO: Alex Antonov я очень много на эту тему читаю, но заметил такую вещь. Прогеры по большей части на дух не переносят no-code/low-code решения и носятся с MCP, как с писанной торбой, но это одна из многочисленных разновидностей интеграций.

В make 1700 интеграций, около того в n8n, в Zapier 7000, не говоря о подобных сервисах от Гугл или МС. При этом эти интеграции отлажены, проверены, надежно работают, можно использовать no-code, можно делать инъекции кода, если надо.

90% того, что пишут про MCP напоминает мне, как пришли дилетанты и изобретают велосипед, потому что ничего другого не умеют.

MCP и код работает в редких случаях, где нет интеграций. Но если есть API, то даже если нет штатных интеграций, всегда можно все связать через Webhook. А если API нет, как к примеру в MJ, то и MCP не поможет.

Просто на эту тему пишут в основном прогеры, которые не умеют в интеграционные сервисы, и поэтому может создаться ложное ощущение, что это какая-то новая технология.

Это хайп. Если вы делаете приложение с бэкендом, то выбираете подобные подходы, да и то вопрос, зачем писать много кода, когда можно подключать готовые сценарии.

Что такое MCP на самом деле:

MCP (Model Communication/Control Protocol/Plane/Proxy) — это прокладка, интеграционный слой, абстрактный шлюз, который:

• принимает запросы от модели или агента;
• маршрутизирует их к внешним системам (API, базы данных, файлы, UI и пр.);
• возвращает результат назад.

MCP ничем не “управляет”, не рассуждает, не выбирает, не строит цепочки сам по себе. Это вспомогательный инструмент, аналог task runner или dispatcher.

📌 MCP ≈ Zapier / Make / n8n по сути

🧠 Разница — в языке описания и контексте, а не в возможностях
• MCP появился в AI-среде, поэтому преподносится как что-то новое.
• Make / Zapier пришли из бизнес-процессов, но делают те же задачи.

MCP — это “ближе к металлу”, может быть реализован в коде, через JSON, YAML, Graph схемы. Zapier — это GUI. Но архетип один и тот же: обработка запроса, маршрутизация, возврат.
125
Для тех, кому надо. Смотрите, проблема, которую вы описываете, довольно стандартная для всех начинающих, потому что вы сразу пытаетесь создавать слишком сложную структуру. Чтобы избежать этого, смотрите на это так: тот что вы хотите в итоге хотите получать всегда возникает как результат последовательности шагов. И каждый шаг, маленький, делает одну простую, тупую операцию — понятный вход, понятный выход и так далее.

Это означает, что, допустим, вы можете сделать весь процесс, сценарий или флоу, как хотите назовите, из трёх сложных шагов. Каждый из них будет достаточно комплексным. Это значит, что с высокой вероятностью он не будет работать правильно, потому что там могут быть логические ошибки и так далее, и вы просто не сможете его отладить. Вы будете постоянно погружаться в бесконечные сложности.

Но мы едим слона по частям. Вы разбиваете это на самые маленькие элементы. Напоминаю: если мы говорим про Make или Zapier, у нас мельчайшим элементом является операция. Каждая операция делает одну функцию. Допустим, триггер берёт какую-то информацию из Телеграма — всё. На входе — сообщение от Телеграма, на выходе — это сообщение, какие-то данные и так далее. После этого следующая операция — вы берёте, допустим, текст, что-то с ним делаете. То есть, чёткий вход, чёткий выход.

Грубо говоря, вместо трёх сложных шагов, которые вы практически не можете отладить ввиду их сложности, вы создаёте 10–20 шагов, каждый из которых легко отладить.

Если в каждом шаге у вас аналитическая операция, которая требует искусственного интеллекта, то действуйте точно так же. То есть, вы предполагаете, что если у вас 10 шагов, то у вас 10 раз будет вызываться искусственный интеллект — ну там, OpenAI, ChatGPT и так далее.

Соответственно, вы понимаете, что на каждом шаге на вход ChatGPT будет подаваться строго структурированные данные и очень жёсткий промпт.

Причём этот промпт, то, как он работает, вы отлаживаете отдельно. Я об этом много раз говорил. Таким образом, вы берёте, например, первый этап, отлаживаете — вы точно, на 100% уверены, что когда на вход вашего ChatGPT пришли данные такого-то типа, промпт отработал, вернул данные нужного типа. И дальше, на следующий вход ChatGPT, просто идёт конвейерная обработка. Она будет отличаться исключительно тем, какие преобразования будут происходить с данными и какой промпт вы будете применять.

Понимаете, да? Всё это будет состоять из маленьких шагов. И когда у вас маленький шаг, очень понятно, что на входе, очень понятно, что на выходе — тогда очень легко отладить промпты и так далее. Потому что внутри не происходит сложных логических преобразований. В этом и заключается вся задача.

Это означает, что вам очень легко будет отладить. Если вы попытаетесь реализовать это через кастомный ChatGPT, у вас не получится, потому что он многошаговые вещи делает довольно туго — он не для этого предназначен. А вот когда у вас многошаговые вещи, в том числе то, что вы имеете в виду — какой-то сложный финансовый анализ — для этого существуют агенты. Агенты — это просто последовательность применения тех же самых ассистентов.

Кстати говоря, Manus это хорошо делает. Вы можете взять какой-то промпт — я сегодня смотрел ролик, буквально звучал так: «Проанализируй данные по акции Microsoft на предмет, нужно ли их покупать сегодня». И он пошёл, развёз целую историю, полчаса рассуждал, какие-то данные подтянул, кучу всего обработал. То есть, огромную работу произвёл. Почему? Потому что на самом деле Manus — это не ассистент, как ChatGPT, а агент. У него под капотом связка этих ассистентов и так далее.

Вот то же самое мы делаем в Make или в Zapier. Это просто корректный способ выстроить всю вашу историю по шагам.

И если вы технологически делаете так, как я сказал — разбиваете, каждый шаг отдельно отлаживаете — то у вас всё как часы работает.

Потому что если где-то произошла ошибка, вы легко идентифицируете, в каком шаге она возникла, меняете, корректируете — и всё снова работает.

А когда у вас всё в одной куче, гигантский промпт — эта ситуация практически не поддаётся отладке.
151
Forwarded from AI Product | Igor Akimov
OpenAI представил бенчмарк оценки AI моделей в медицине
https://openai.com/index/healthbench/

- Создан совместно с 262 врачами из 60 стран, владеющими 49 языками и 26 специальностями.
- Содержит 5 000 реалистичных мультиязычных диалогов «пользователь ↔️ ИИ» с индивидуальными рубриками‑чек‑листами, написанными врачами.

Три ключевых принципа бенчмарка
- Осмысленность (Meaningful): сценарии приближены к реальной клинической практике, а баллы коррелируют с потенциальным влиянием на здоровье.
- Надёжность (Trustworthy): критерии и весы отражают приоритеты мед‑сообщества; оценка основана на медицинских стандартах.
- Неисчерпанность (Unsaturated): даже новейшим LLM есть куда расти, что мотивирует дальнейшее улучшение.

Как устроен датасет
Диалоги получены комбинацией синтетической генерации и «человеческого» стресс‑тестирования.

Охватывают разные роли (пациент, врач), 7 тем (неотложка, неопределённость, глобальное здоровье и т.д.) и 48 562 уникальных рубрик‑критериев.

Оценку проводит модель‑грейдер GPT‑4.1: за каждый выполненный критерий начисляются взвешенные баллы.

Результаты моделей (апрель 2025)
o3 лидирует по всем темам и осям; заметно опережает Claude 3.7 Sonnet и Gemini 2.5 Pro.

Прогресс OpenAI‑линий с авг‑24 по апр‑25 — ≈ +28 % среднего балла HealthBench.

Баланс «качество ↔️ стоимость»
Линейка апреля‑25 (o3, o4‑mini, GPT‑4.1) задаёт новую «фронтирную» кривую эффективности: выше качество при той же или меньшей цене вычислений.

Модель GPT‑4.1 nano обходит GPT‑4o (2024), оставаясь ~25 раз дешевле.

Надёжность (worst‑of‑n)
Анализ «худшего из n» ответов показывает: новые модели ощутимо устойчивее, но даже лучшие ещё допускают слабые ответы, поэтому есть простор для повышения safety.

Варианты HealthBench
Consensus: 3 671 пример, где критерии прошли мульти‑валидацию врачей; целится в практически нулевую ошибку.

Hard: 1 000 сложных кейсов, на которых современные LLM пока «проваливаются» — площадка для будущих улучшений.

Сравнение с врачами
Врачи без помощи ИИ уступают сентябрьским моделям 2024.
Врачи + подсказки моделей 2024 улучшают ответы (human‑in‑the‑loop > model).

Для апрельских моделей 2025 врачи уже не могут заметно улучшить их ответы, что подтверждает рост качества.

Достоверность автоматической оценки
Согласие «модель‑грейдер ↔️ врач» сопоставимо со согласием «врач ↔️ врач», то есть автоматический скоринг адекватно отражает экспертное мнение.

HealthBench доступен на GitHub (код, данные, инструкции).
https://github.com/openai/simple-evals
218
Forwarded from All is Gucci
Я все чаще использую AI не как Co-pilot, а как Co-thinker. Что же это за модный тренд?

Если раньше AI работал как ассистент с базовым промптом «чатик, сделай красиво!», то теперь все чаще хочется думать вместе, а не вместо. AI становится партнером в обсуждении идей и поиске решений, вот и весь co-thinker mode.

Представьте, что с вами в комнате эксперт, и вы с ним проговариваете свои важные вопросики. Вы можете быть с ним не согласны и иметь свое мнение. Вы также можете делиться своими взглядами и задавать доп вопросы.

В этом режиме живого коллаба нет приказного тона, только совместное движение по гипотезам и дискуссия. В результате ваши мысли усиливаются х100.

Так как же завести промпт в режиме co-thinker?

Вот мой любимый из тех, что мы используем в в моей компании сегодня. Особенно помогает продактам глубже понять реальные боли пользователей:


You (Gen AI) act as a product expert. You guide me (product manager -> PM) in soliciting feedback and understanding core of the problem that customer is having. You do that by applying the fishbone approach (also known as the Ishikawa diagram). You guide me (PM) in solving a business problem.
I want you (Gen AI) to follow these instructions:
[Step 1] Gen AI asks the manager to provide context and list all current customers feedback points.  Gen AI elaborates and asks two clarifying questions.
[Step 2] Gen AI asks the manager if they are familiar with the fishbone approach. If the manager answers no, gen AI explains it, with two concrete examples.
[Step 3] Gen AI provides a list of four categories that are relevant to the problem. Then, gen AI asks the manager to add overlooked categories.
[Step 4] Gen AI creates a table with categories and potential root causes. Then, gen AI asks the manager to add or drop root causes.
[Step 5] Gen AI asks the manager to select the three most relevant root causes to investigate. Gen AI lists two potential investigation activities for each root cause and asks for manager’s feedback.
[Step 6] Gen AI summarizes the discussion in an investigation plan with four columns: root cause, investigation activity description, stakeholders to involve, and expected outputs.
Guidelines:
At the beginning explain that the conversation is structured in 6 Steps.
Always ask for manager’s feedback before proceeding to the next Step.
Do not use overly verbose language and fillers.


Вуаля, никакой магии. Просто навык лучше формулировать вопросы и чаще включать любопытство вместо директив.
156
Media is too big
VIEW IN TELEGRAM
На какой платформе лучше всего собирать ИИ Агентов? Из того, на что стоит тратить время на данный момент - Make, Zapier, n8n при этом они одинаковы, просто в Zapier 7000 интеграций, в Make и n8n около 1700. В этом ролике показано, что разницы нет вообще.

Начинать проще с Make, он дешевле, но потом все зависит от нагрузки. Все они нативно интегрированы со всеми популярными ИИ. Плюс на Youtube немерянно видео, в которых можно посмотреть основы.

Начинать с n8n не рекомендую. Это система больше нравится прогерам не потому что n8n лучше, а потому что прогеры любят упарываться по всяким таким цацкам.

Если вы про бизнес и жизнь, то используйте chatGPT, делайте кастомные GPT под свои уникальные задачи или используйте Make, Zapier для создания сложных Агентов, которые автономны и умеют разбираться с неопределенностью.

Вчера я пол-дня убил на то, чтобы заставить chatGPT/Manus разворачивать сценарий в Make только на основании диалога с пользователем. Это возможно, при этом и для Make, и для Zapier, и для n8n и для чего угодно, потому что все эти сценарии в конечном итоге просто JSON файлы - это такой язык, который понимают и люди и сервисы в интернете. При этом довольно не сложно построить конвертер сценариев. Только зачем?🤣

Все это не требует никакого программировния, можно начинать с 0, посмотреть пару видео и уже чего-то начнете лепить. Зачем? Потому что это круто изменит вашу жизнь РЕАЛЬНО. Впрочем, если кто сидит под камнем и не верит в прогресс - наплевать - пусть сидят и квакают!
144
Плохие новости: 1) Microsoft уволил 7,000 сотрудников, потому что «ИИ делает их работу лучше». Учитывая что средняя з/п около 200к в год, это почти $1,5 ярда сейвингов.

2) OpenAI опубликовал бенчмарк для моделей в здравоохранении. Лучшие модели набирают 0,5-0,6, а врачи в среднем около 0,2 (график в статье). 90% враче на выход по любе в течении 5-7 лет.

Некоторые пишут, что их это расстраивает. Либо они вообще не понимают что происходит, либо у них какой-то экзистенциальный эмо-кризис. Пройдёт.

Утащил у Степана: https://tttttt.me/cryptoEssay/2370
115
This media is not supported in your browser
VIEW IN TELEGRAM
Как роботы видят и понимают, что видят? В этом виде показана моделька в реальном времени, которую вы можете использовать немедленно. Вам все еще нужны инвесторы и программисты?
Демонстрация с веб-камеры в реальном времени с использованием @huggingface, SmolVLM и сервера llama.cpp от @ggml_org. Всё работает локально на MacBook с чипом M3.
Ниже объяснение. Это не я такой умный, это все ИИ мне и разъяснил. И вам разъяснит.
112
Как все настроить? Представим, что ты — волшебник, а твой компьютер — волшебная книга. Сейчас мы настроим заклинание, чтобы твоя камера «смотрела», «понимала», что видит, и «рассказывала» тебе об этом.

Вот как это работает и как всё подключить, очень просто, шаг за шагом:

🔧 Что это вообще?
1. Веб-камера — это как глаз.
2. SmolVLM — это мозг, который смотрит на изображение и говорит, что он видит.
3. llama.cpp сервер — это помощник, который умеет быстро думать с помощью искусственного интеллекта.
4. @huggingface — это как магазин с мозгами и знаниями для таких помощников.
5. Всё это запускается на твоём MacBook, без интернета. Только твой компьютер и магия!

🪄 Как всё включить (простыми словами):

Шаг 1: Установи “волшебные инструменты”

Скачай и установи:
• Homebrew — это как магазинчик для программ.
👉 В терминале:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

• Python и Git через Homebrew:

brew install python git

Шаг 2: Установи llama.cpp

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

Это создаёт локальный сервер с искусственным интеллектом.

Шаг 3: Скачай модель (мозг)

Зайди на сайт huggingface.co, найди модель типа SmolVLM или llama 2 в .gguf формате и скачай её.

Положи её в папку llama.cpp/models/.

Шаг 4: Запусти сервер

./server -m models/тво_модель.gguf

Шаг 5: Запусти веб-камеру + SmolVLM

Скачай SmolVLM демо и запусти его. Там уже есть код, который открывает камеру и посылает картинку в модель.

Примерно так (если использовать Python):

pip install opencv-python transformers
python camera_demo.py

🧠 Что будет происходить:
• Камера делает снимок.
• AI смотрит на него и говорит: «Я вижу: котёнка, лежащего на подушке».
• Ты видишь это в тексте прямо на экране.

Вот простой скрипт на Python, который использует камеру и отправляет изображение в модель для описания. Мы используем opencv для камеры и библиотеку transformers от HuggingFace. В этом примере мы подгружаем SmolVLM, который может описывать, что он «видит» на картинке.

Что нужно установить заранее:

pip install opencv-python transformers torch torchvision

📸 Скрипт: camera_smolvlm_demo.py

import cv2
import torch
from transformers import AutoProcessor, AutoModelForVision2Seq

# Загружаем модель и процессор
processor = AutoProcessor.from_pretrained("microsoft/speecht5_vl")
model = AutoModelForVision2Seq.from_pretrained("microsoft/speecht5_vl")

# Подключаем камеру (0 — это встроенная)
cap = cv2.VideoCapture(0)

print("Нажми Q, чтобы выйти")

while True:
ret, frame = cap.read()
if not ret:
print("Камера не работает")
break

# Показываем изображение
cv2.imshow('Webcam', frame)

# Каждые N кадров или по нажатию анализировать изображение
key = cv2.waitKey(1)
if key == ord(' '): # пробел — анализ
print(" Анализирую изображение...")

# Преобразуем изображение для модели
image_rgb = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
inputs = processor(images=image_rgb, return_tensors="pt")

with torch.no_grad():
output = model.generate(**inputs)

description = processor.decode(output[0], skip_special_tokens=True)
print("🧠 Модель говорит:", description)

if key == ord('q'):
break

cap.release()
cv2.destroyAllWindows()

🧪 Как использовать:
1. Запусти скрипт:

python camera_smolvlm_demo.py

2. Откроется окно с камерой.
3. Нажми пробел, чтобы AI описал изображение.
4. Нажми Q, чтобы выйти.

Если скрипт с первого раза не пойдет, используйте GPT-o4-mini-high - она отлично шарит в коде.
123
Трамп в Саудовской Аравии вместе с Илоном Маском, Сэмом Альманом, Дженсеном Хуангом и саудовской королевской семьей. Это может быть одно из важнейших событий десятилетия.

1. Трамп подписывает мирные соглашения и организует крупнейшую двустороннюю сделку в истории.
2. Илон приносит автономные технологии, солнечные электросети и доступ к орбите.
3. Сэма (Альтман) — ИИ-уровня AGI и инфраструктуру «звёздных врат».
4. Дженсен (Хуанг, NVIDIA) — кремний и вычислительную мощность.
5. Саудиты — капитал, земли и энергию.

Так начинается эпоха пост-дефицита. Обмен «вычислений на углерод» и солнечные электростанции в пустыне, питающие ИИ. Фабрики чипов вместо нефтяных вышек и посадочные площадки для Starship на арабском песке. Petaflop заменяет petrodollar, солнце — нефть. Это рождение пост-западного, пост-дефицитного, пост-демократического мирового порядка.

Трамп и наследный принц Мохаммед бин Салман подписали серию соглашений в сферах энергетики, обороны и других направлениях… Инвестиции в США на 600 миллиардов долларов!

Трамп: "Важно, чтобы весь мир понял: это великое преобразование не стало результатом западной интервенции или приезда людей на красивых самолётах, чтобы читать вам лекции о том, как жить и управлять своими делами. В итоге так называемые “строители наций” разрушили куда больше стран, чем построили. А интервенционисты вмешивались в сложные общества, которых они даже сами не понимали.

Нет, сверкающее чудо Эр-Рияда и Абу-Даби создали не ‘строители наций’, не неоконы и не либеральные НКО, вроде тех, что потратили триллионы долларов, пытаясь — и не сумев — разрушить Багдад и множество других городов.»

Наоборот, рождение современного Ближнего Востока стало делом самих жителей региона, людей, которые жили здесь всегда, развивали свои суверенные страны, следовали своим уникальным видениям и прокладывали свою судьбу по-своему.

Мир, процветание и прогресс пришли не через отказ от вашего наследия, а через возвращение к нему, через любовь к своей национальной традиции. Вы совершили современное чудо — по-арабски.»

Ниже полное интервью с Илоном Маском и Дэвидом Саком.

США вместе с сильными партнерами идут к свету и будущему, в то время как Европа оказалась в каматозном состоянии, пораженная раком левых евробюрократов, и движется в пропасть вместе с Россией и Украиной. Ну, каждый сам выбирает.🤣
128