ИИ для Руководителей (Лаборатория Промптинга) от Замышляева
4.54K subscribers
12 photos
4 files
134 links
Кейсы применения текстовых нейросетей для руководителей от Олега Замышляева, основателя Mozlab.ru и Tellsy.pro

Большой канал: https://xn--r1a.website/futurelearning (стратсессии, личная эффективность)

Заказать мастер-класс «ИИ для руководителей»: Ольга @olgagudim
Download Telegram
Главный вызов 2026: ИИ пишет слишком хорошо. Как отделить инсайты от мусора?

У меня теперь самые лучшие тренд-споттеры — это участники моих программ по ИИ. Я попросил: «Пишите, если что-то интересное или странное увидите». Они и пишут.

Вот недавно сразу трое (!) написали, что ChatGPT поставил их в тупик, попросив выбрать лучший ответ. А я не понял, что тут сложного? Тем более, что писали «отличники» — те, кто промптит старательно и глубоко. Подумал: «Чушь какая-то».

А на днях и у меня такое выскочило (картинка в первом комментарии).

И тут я как понял!

Главное, промпт-то был всего на полстранички (по моей шкале, максимум на 2 из 3 по сложности). ChatGPT отработал пару минут в думающем режиме и выдал два ответа по паре страниц А4. Сравни, говорит, дорогой пользователь, что тебе больше по душе.

Глянул первый: ну хорош, очень хорошо. Надо брать… только вот второй посмотрю!

Ух ты! А он тоже хорош. Ровно настолько же. Хотя он другой. Ого!

Заморочился. Включил мозг, активировал Систему 2 (привет Канеману). Читал оба, ставил галки за хорошие мысли.

Тупик!

Счет 12:12. И что делать? И правда тупик. Внутри ныло от бесцельно потраченного времени и стремительно рос кортизол от неудачи.

И тут меня как стукнуло.

Хах, дело не в сложности сравнения, которое ChatGPT хочет сделать за мой счет (кстати, подскажите им сделать кнопку «оба хороши!»). Дело в том, что это проявление нового вызова (возможно, главного в 2026). Теперь сложность не «как получить хороший результат», а «как недорого проверить хорошо выглядящий результат». Потому что в 2026 почти все ответы нейросетей выглядят замечательно.

И это волнует не только меня

Ученые бьют тревогу: «традиционные сигналы научного качества, такие как языковая сложность, становятся ненадежными индикаторами реальной ценности» (здесь полный текст). Хуже того, для LLM-ассистированных текстов (а кто-то еще пишет длинные тексты сам?) чем выше языковая сложность, тем ниже оценка качества. И это выявлено на сотнях тысяч рукописей (large-scale/hundreds of thousands of manuscripts). Так что «нас ждет потоп убедительных, но пустых текстов», подводят итоги авторы.

Что делать?

В статье написано: «придется тратить больше времени, чтобы отделять инсайты от мусора».

Что я предлагаю?

Снижать стоимость проверки (в том числе с помощью ИИ). В своей практике я применяю 3 основных способа:

1. Прошу ссылки и проверяю их

2. Прошу превратить длинные тексты в список ключевых утверждений + прошу честно описать «характер» утверждения (факт, оценка, предположение, вымысел, совет) и привести подтверждения либо признать, что это ерунда

Честно говоря, это уже становится гигиеной… как и первое.

3. Запускаю промпт-проверяльщик (простой и достаточно надежный путь) — забирайте в комментарии. В том же (или другом) диалоге. И даже в другой нейросети, если вопрос ответственный.

А что делать с «неотличимо хорошим» качеством ответов из моего кейса?

Да ничего! Не заморачиваться долгим сравнением. Брать любой, давать обратную связь, обязательно запускать проверку — и через 3-4 итерации получится восхитительный результат.

И помнить, что в 2026-м «хорошо выглядящий», но дорого проверяемый ответ должен скорее насторожить, чем порадовать.

Всем хорошего года! И пусть вызов «как недорого проверить ответ ИИ» станет самой большой сложностью-2026:)

PS: А как вы проверяете «хорошо выглядящие» ответы ИИ? Пишите в комментариях!
🔥1510👍4🌚1