Аишка
942 subscribers
697 photos
66 videos
2 files
445 links
Side-канал @contentreview с новостями из области искусственного интеллекта (AI)

Наши каналы:
Основной (телеком и IT) – @contentreview
Песочница (БигТех) – @BigTechSandbox
Электричка – @econtentreview
Download Telegram
Photoshop в ChatGPT

У ChatGPT появился доступ к веб-версиям Photoshop, Adobe Express и Acrobat. Теперь формально можно редактировать фото, собирать простые макеты и работать с PDF, не выходя из интерфейса ChatGPT. Доступ бесплатный, подписка Creative Cloud или вход в аккаунт Adobe для этого не требуется.

Для доступа к сервису нужно написать, к примеру, «Adobe Photoshop размой фон» и загрузить картинку. Дальше ChatGPT сам предложит подключить нужное приложение и попробует применить фильтр. В конце появляются слайдеры, с помощью которых можно регулировать степень применения эффекта. Это более гибко, чем использовать ИИ-модели для редактирования изображения, но всё равно остаётся обёрткой с урезанными функциями над полноценным приложением Adobe.

Внутри ChatGPT сейчас нет ни работы со слоями, ни базовых эффектов вроде виньетки, часть настроек заблокирована, а сам ассистент просит «поменять параметры» в меню, к которому у пользователя нет доступа. Набор операций, которые приводят в пример сами Adobe, простой донельзя: размыть фон, подсветить объект, изменить яркость. Всё это можно сделать и во встроенном генераторе ChatGPT или Nano Banana (пусть потенциально с потерей качества или меньшей гибкостью). Хотя, наверное, при желании можно придумать сценарий, где именно Photoshop подойдёт лучше.

Adobe взяла бесплатные, и так доступные всем возможности своих веб-приложений, добавила их в менее удобный интерфейс и назвала это «новым опытом». Результат имеем странный: крики о «революционной интеграции» только подчёркивают, насколько натянуто пока выглядит идея приложений внутри ChatGPT. Хотя то, что доступ к Фотошопу OpenAI сделали бесплатным для всех и интегрировали настолько бесшовно, впечатляет.
Яндекс запустил встроил чат-бота с Алисой в еще один сервис - Карты. В полном соответствии с анонсом, чат-бот не способен помочь с конкретной проблемой, например, его нельзя спросить как лучше добраться в пятницу вечером до какой-то точки.

Зато может помочь с запросом "куда сходить с детьми в районе дома в субботу вечером". Очевидно, разрабатывались сценарии папами выходного дня, которые не знают предпочтений своих детей и не очень-то хотят заморачиваться такими вещами.

Обычный поиск в приложении сохранили. Спасибо и на этом.
This media is not supported in your browser
VIEW IN TELEGRAM
Amazon научил камеру искать товары в реальном времени

Amazon представил обновление умной камеры Lens Live, которое убирает необходимость нажимать кнопку затвора при поиске товаров. Теперь камера работает непрерывно, а нейросети сразу определяют объект на экране и показывают товар из магазина. По картинке можно тут же выбрать вещь, добавить её в корзину или в избранное. Камера доступна в приложении Amazon Shopping для iOS и Android.

Lens Live работает благодаря связке компьютерного зрения и генеративного ИИ. Лёгкая модель распознавания объектов запускается на самом смартфоне и выделяет ключевые предметы в кадре, а дальше система сопоставляет их со всеми позициями на Amazon с помощью визуальных эмбеддингов. Это позволяет сравнивать не пиксели, а смысловые вектора товаров и очень быстро показывать похожие результаты.

Поверх этого в камеру интегрировали обновленного недавно ассистента Rufus, наделив его агентными возможностями. Он может не только ответить на вопросы по товару, но и добавлять их в корзину, мониторить цену и покупать (подобное сейчас делает и Яндекс). Теперь можно навести камеру на чашку в кофейне, найти идентичный товар и сразу поручить ассистенту купить его, если цена упадет ниже определенного уровня. Человека постепенно убрают из процесса оформления заказа, оставляя только целеполагание и активно стимулируя спонтанные покупки.
13
Новая попытка стрясти денег с нейропоиска

Стандарт RSL призван заставить ИИ платить за контент

Правообладатели давно объявили войну ИИ-поисковикам, но ведут её с переменным успехом. Если музыкальные гиганты вроде Universal и Warner активно давят на генераторы музыки Suno и Udio в суде, принуждая их в итоге к лицензионным сделкам, то текстовым медиа приходится сложнее. Сайты попали в ловушку: полностью закрыться от ботов нельзя, ведь тогда они исчезнут из поисковой выдачи Google и Яндекса, поэтому приходится их пускать – пуская одновременно и тех ботов, которые забирают контент для нейросетей. Спрятаться от «умных» поисковиков, которые по сути являются теми же ботами с прикрученной языковой моделью, очень сложно, решить вопрос чисто юридическими методами (и полюбовно) не получается, поэтому решили попробовать технические меры.

Решением стал протокол Really Simple Licensing (RSL), версия 1.0 которого получила статус официального стандарта. Это надстройка над привычным файлом robots.txt. Если раньше можно было сказать боту только «входи» или «уходи», то RSL позволяет превратить сайт в витрину с ценниками и условиями. Владелец контента сможет прописать сценарии: какой текст можно индексировать для поиска, но нельзя скармливать нейросети для обучения, какой доступен бесплатно с указанием авторства, а за какой нужно заплатить (модель pay-per-crawl). В отличие от модели Википедии, где открытые лицензии сочетаются с платными API для крупных клиентов, RSL пытается формализовать права и оплату именно для ИИ-ботов.

Но важнее, конечно, не сам протокол, а его распространённость. Стандарт уже поддержали большие инфраструктурные компании вроде Cloudflare и Akamai. Это значит, что провайдеры смогут на сетевом уровне блокировать «серых» ботов, у которых нет купленного токена доступа. К инициативе уже присоединились Reddit, Medium, Yahoo, Quora и The Guardian, плюс ряд других крупных медиа. По сути, формируется коалиция, которая очень хочет избавить ИИ-компании от ощущения, что если контент лежит на сайте в интернете открыто, то значит он общий и за него не нужно платить.

Правда, есть маленький нюанс – если сейчас, по заявлениям самих же Cloudflare и правообладателей, компании настолько легко и непринуждённо обходят robots.txt, то что помешает им делать это и впредь?
4
Disney покупает долю в OpenAI и открывает доступ к своим героям

The Walt Disney Company и OpenAI заключили сделку на три года: нейросеть Sora получит легальный доступ к 200+ персонажам Disney, Marvel, Pixar и Star Wars. Уже в начале 2026 года пользователи смогут официально генерировать видео с Дартом Вейдером или Симбой, причём лучшие ролики попадут на стриминг Disney+. То же касается и генерации изображений в ChatGPT.

Помимо лицензирования, компания вкладывает в OpenAI 1 миллиард долларов и внедряет их API в продукты корпорации. Disney становится одним из крупнейших клиентов и совладельцем стартапа Сэма Альтмана, получая право на использование технологий генерации видео (вероятно, осознав, насколько быстрее с ИИ можно делать контент).

Это соглашение укладывает в рамки нового тренда: судебные запреты и угрозы сменяются стратегией «не можешь победить – возглавь». Ещё недавно юристы Disney требовали от OpenAI добавить фильтры и ограничения для генерации своих персонажей. Теперь же компания, видимо, решила, что выгоднее всё таки зарабатывать на процессе, сохраняя контроль над дистрибуцией. Аналогичный сценарий мы видим в генерации музыки или голоса.

P.S. Картинка сделана в Gemini – у Google, видимо, никаких проблем с генерацией чужих персонажей нет
🔥4🤯1
Apple придумала, как следить за людьми ещё лучше

Через LLM, сенсоры и микрофоны


Недавно в российских медиа обсуждали, может ли Яндекс через Алису слушать пользователей и использовать эти данные в своих целях. Яндекс в своём стремлении узнать о пользователе как можно больше не одинок, да и страхи о вмешательстве айти-компаний в личную жизнь одинаковы для всех стран. Apple, тем не менее, рискнули и поделились интересным исследованием о том, как узнать не просто о чём говорят люди, но чем физически занимаются в определённый момент – будь это мытьё посуды или игра в баскетбол. А, возможно, что-то более интимное?

Apple взяли два источника данных: звук вокруг человека (через аудио-модель) и движения тела или устройства (акселерометр и гироскоп), обработали их небольшими специальными языковыми моделями, которые превращают сырые сигналы в текстовые описания и предварительно размечают данные. Потом большая языковая модель получает на вход уже не данные с сенсоров, а набор готовых подсказок, по ним угадывая, чем человек занят: готовит, стирает, играет в футбол, сидит за компьютером, смотрит телевизор.

Осталось всё это интегрировать в продукт. И очень удачно, что у Apple есть не только телефоны, но и наушники с микрофоном, часы с кучей датчиков, а ещё замкнутая экосистема, благодаря которой люди пользуются именно продуктами этой компании. Поэтому Apple без особых усилий может собирать и склеивать информацию с разных устройств, получая подробную картину того, что человек делает в течение дня. Даже если он просто использует связку из упомянутых наушников с часами.

Это можно использовать для самых разных сценариев. Можно улучшить продукт, умнее показывать уведомления, менять громкость, режимы тренировок в зависимости от контекста. Или можно лучше понимать рутину, время приёмов пищи, занятий спортом, просмотра телевизора и так далее, и по этим паттернам продавать более нативную рекламу.

Понятно, что данные – это всего лишь данные, и мы ими делимся постоянно. А если уж не хочется делиться тем, что может быть использовано для обучения нейросетей или таргетинга, наверное стоит либо отказаться от всех умных устройств, либо отказаться от возможности говорить и вообще транслировать собственное мнение. Ведь как известно, всё, что сказано, может быть использовано против вас. Но тенденция всё равно настораживающая – ведь чем точнее компания понимает, что ты делаешь прямо сейчас, тем меньше шансов остаться «просто пользователем», а не объектом агрессивной гипер-адресной монетизации.
👍41
Удаление ИИ – это новая цифровая гигиена

Разработчики делают функции на базе ИИ универсальным решением всех проблем приложения и функционалом по умолчанию. Потуги интегрировать его в стандартный опыт использования сервиса, даже там, где это совсем не напрашивается, становятся нормой: Яндекс грезит об Алисе в поисковой строке браузера, Google постоянно и назойливо открывает Gemini при переходе в документы и диск, Microsoft добавили Copilot даже в блокнот (и на этом не останавливаются). Показательным индикатором всеобщей любви пользователей к ИИ, в частности к его интеграции в каждый утюг, служит появление сервисов, которые этот ИИ отключают и удаляют.

В сети появилось приложение RemoveWindowsAI. Это инструмент для Windows 11, который полностью вычищает из системы Copilot, функцию Recall (делает скриншоты экрана каждые несколько секунд для анализа и поиска), генератор картинок в Paint и ИИ-поиск в меню «Пуск». Скрипт не самый безопасный: он меняет ключи реестра, удаляет системные файлы и блокирует их повторную загрузку через обновления. Проект на GitHub за пару дней собрал больше трёх тысяч звёзд. Показательно, что месяц назад Microsoft прекратили поддержку Windows 10, где новые функции навязывали не так сильно.

«Анти-ИИ» становится новым потребительским трендом. Расширение Hide Google AI Overviews, которое убирает сгенерированные нейросетью ответы из поиска Google и возвращает классические ссылки, установили уже более 300 тысяч человек. Существуют плагины, блокирующие ИИ-контент на YouTube, Reddit и в лентах соцсетей, а отдельные поисковики типа Duck Duck и Kagi добавили опцию удаления сгенерированных изображений из выдачи.

Корпорации, похоже, живут в параллельной реальности, где KPI важнее UX. Внедрение нейросетей превратилось в карго-культ: менеджеры отчитываются о росте метрик использования ИИ, даже если эти цифры вымышленные. Яркий пример – Яндекс Браузер: после добавления поиска через Алису в адресную строку не раз случалось, что запросы случайно отправлялись именно чат-боту. Приходилось ругаться, закрывать вкладку и набирать запрос заново, хотя формально такой человек становится пользователем Алисы. В поисковой выдаче ответ Алисы тоже есть – вот уже на простой поисковый запрос она активируется 2 раза. Осмелимся предположить, что дублируются функции ради красивых отчетов перед ревью.

Взлет RemoveWindowsAI и подобных блокировщиков сигнализирует о том, что существенная часть пользователей пресытилась и устала работать бесплатными бета-тестерами для пока ещё не самой надёжной и обкатанной технологии. В ближайшем будущем «глупый» софт, без облаков, ассистентов, всплывающих подсказок и прочих кнопок для запуска ИИ-агентов может стать премиальным решением. Ведь уже сегодня непросто найти приложения, которые просто эффективно выполняют свою задачу, не пытаясь решать за пользователя, как он должен пользоваться приложением и своим компьютером, и не пытаясь подключить несколько языковых моделей в фоне.
🔥31
ИИ агент 1х1.gif
31.7 MB
После того, как Яндекс поселил в своих Картах Алису, один из немногих конкурентов Яндекса на поле навигационных сервисов 2ГИС в срочном порядке интегрировал аналогичную функцию в свой сервис. Правда, на базе какого нейросервиса работает «ИИ-помощник» компания не раскрывает. Очевидно, не на Алисе AI.

ИИ-помощник отвечает на вопросы о конкретных местах, живет в соответствующей вкладке на карточке локации. Ответы на вопросы дает некая нейросеть, обученная «на основе справочных данных о компаниях в 2ГИС, отзывах и фото».

Впрочем, что там за нейросеть под капотом, догадаться не сложно: с 2020 года 2ГИС контролируется структурами Сбера и входит в его экосистему.
#нейродайджест Аишки за неделю

Apple придумала, как следить за людьми ещё лучше: с помощью LLM компания узнаёт, чем человек физически занимается прямо сейчас

Как удалить раздражающие ИИ-функции из Windows? Отказ от ИИ становится новым трендом цифровой гигиены

OpenAI «случайно» тестировала рекламу на платных подписчиках. Пользователи недовольны, а компания в цугцванге

Nvidia перерисовала отчётность и спрятала Сингапур, чтобы отвлечь внимание от серых поставок в Китай

Disney купила долю в OpenAI за миллиард долларов. Дарт Вейдер с Симбой придут в Sora и ChatGPT

✦ Филиппинские фрилансеры получили доступ к тысячам камер наблюдения США

The New York Times против Perplexity: медиагигант обвиняет стартап в паразитировании на журналистике

Новый стандарт призван заставить ИИ платить за контент: Cloudflare, Reddit, The Guardian и другие подключились

Трамп анонсировал единый федеральный закон для ИИ, чтобы избавиться от самодеятельности штатов

Ростелеком выпустил отчёт о трендах цифровизации про атомные станции для дата-центров, детей по подписке и многое другое

Apple тестирует новый подход к генерации видео без диффузии, STARFlow-V


Обновления продуктов:

Google делает «свою Sora» для продажи одежды. Есть лента с ИИ-видео и виртуальная примерочная

✦ ChatGPT поддерживает редактирование файлов через Photoshop

Яндекс встроил Алису в Карты: чат-бот не поможет проложить маршрут, зато подскажет «куда сходить с детьми»

2ГИС срочно интегрировал ИИ-помощника после Яндекса. Казалось бы, при чём здесь Гигачат

Tesla интегрировала Grok в навигацию

Amazon научил камеру искать товары в реальном времени, сделав векторную базу данных всех товаров
Искусственная лень

Разговоров про энергопотребление ИИ становится больше: модели дорожают в эксплуатации, а компании обсуждают, чем их питать, вплоть до сценариев с собственной атомной энергетикой. На этом фоне ценность получают не только новые чипы и дата-центры, но и «умная» остановка работы нейросети, чтобы она не делала работу, которая почти не улучшает результат. Напоминает перенесённый в цифровую плоскость механизм работы мозга, который базово пользуется интуитивной системой принятия решений и нуждается в серьёзных стимулах, чтобы начать активно работать над задачей.

Российская команда Smart Engines, например, рассказала про такую технологию. Вместо того чтобы бесконечно обрабатывать данные в погоне за идеалом, которого добиться не получится, алгоритм компьютерного зрения сам определяет момент, когда результат уже достаточно хорош, и отключается, переставая тратить электричество и ресурсы. Они получили патент на эту разработку в США. Раннее они придумали алгоритм для томографов, который прекращает облучение пациента, как только собирает достаточно данных, а теперь применили этот принцип к распознаванию документов в видеопотоке. Нейросеть оценивает динамику и прогнозирует, даст ли следующий кадр ощутимый прирост качества.

Инженеры по всему миру учат нейросети «лениться» разными способами способами:
✦ Закончить раньше – если нейросеть уже на первых слоях вычислений уверена в ответе, она не пропускает данные через все параметры.
✦ Не думать всей моделью сразу – обычные модели часто активируют все свои параметры ради любой задачи. Более современные архитектуры (например, Mixture of Experts) работают иначе: для простого запроса они активируют только небольшую часть нейронов в рамках нужной темы.
✦ Использовать черновики – маленькая и быстрая модель набрасывает «черновой» вариант ответа, а большая и более затратная только бегло проверяет его и утверждает. Это быстрее, чем заставлять «умного» писать каждое слово с нуля.
В этот же тренд укладывается и адаптивное время рассуждений и интеграция решений типа роутера у ChatGPT, который автоматически подбирает модель под запрос пользователя.

В условиях дефицита чипов и роста цен на железо такая «лень» моделей конвертируется в снижение затрат. Способность нейросети делать меньше работы без потери качества – кажется, один из немногих способов сделать ИИ рентабельным.
👍3
В ход пошла тяжёлая артиллерия – Perplexity обещают «YouTube без рекламы», чтобы заманить пользователей в свой браузер Comet

Интересно, что на «ИИ-агентов» и прочие функции акцент больше не делают, оставив в итоге то, что и так предлагают многие конкуренты, и чем реально можно заманить пользователей. Что же это за ИИ-браузер такой, где главная ценность – блокировщик рекламы?
😁4🔥1
Спиритический ИИ

История о том, как обещание «цифрового бессмертия» оказалось поводом для сбора персональных данных и накачки криптовалюты

Орфей в древнегреческом мифе попытался вывести жену из царства теней, но не удержался, оглянулся на неё и потерял навсегда. Так мы узнали, что умерших вернуть нельзя. Но в 2025 году стартап 2wai пообещал переписать этот финал: зачем отпускать прошлое, если можно оглядываться назад сколько угодно?

Месяц назад СМИ полнились новостями о том, что бывшая звезда Disney Калум Уорти запустил приложение для «видеозвонков с того света». Рекламный ролик, где беременная женщина болтает с умершей мамой, собрал миллионы просмотров, сравнения с «Чёрным зеркалом» и критику религиозных людей. Мы намеренно выдержали паузу, чтобы посмотреть, чем закончится эта история и подтвердятся ли наши опасения. Спустя месяц понятно, что перед нами маркетинговая кампания, запущенная с довольно прагматичными целями. Спойлер: не обошлось без криптокоина и сбора персональных данных.

Основатели продукта 2wai на самом деле специализируются не на спиритических сеансах с духами предков, а на «социальной сети аватаров». Сценарий с умершей бабушкой выглядит как циничный и вирусный способ привлечь внимание к конструктору, созданному из генератора голоса, языковой модели и движка для синхронизации губ. Это не «цифровое бессмертие» или «цифровая некромантия», как явление поспешили окрестить. Правда это, скорее всего, кое-что ещё хуже.

Самое интересное, как всегда, можно найти в юридических документах. Соглашаясь с условиями использования, люди фактически дарили стартапу внешность и голоса своих близких. Terms of Use предоставляют компании «бессрочную, безотзывную и всемирную лицензию» на использование загруженных данных для обучения их систем. Более того, вирусная кампания идеально совпала с запуском нативного токена AWAI. Механика такая: чем больше данных загружается и чем выше активность пользователей, тем выше ликвидность и цена токена, нужного для управления функциями приложения.

Хайп на трагедиях людей, судя по всему, стал топливом для накачки криптоактива. А пользователи, желая дать близким «вторую жизнь», невольно превращали память о них в бесплатное сырьё для обучения ИИ и драйвер роста котировок на бирже.
👍3😁1
Национальный украинский ИИ как миф

Оператор Киевстар решил запустить национальную украинскую языковую модель. В мире новый тренд: каждая уважающая себя страна теперь хочет «суверенную LLM». Вьетнам делает сразу несколько, свои модели дообучают в Корее и Японии, Казахстан отчитался о запуске KazLLM. Логика понятна: глобальные нейросети плохо понимают локальный контекст, диалекты и культурные коды, поэтому бизнесу и государству нужен свой инструмент. Но для отдельных стран идея «национальной LLM» превращается в дорогостоящий миф – красивую цель, к которой идут годами. Именно по этому пути, судя по всему, двинулся украинский оператор.

Старт проекту дали в июне: Киевстар вместе с профильным ведомством (далее – коалиция желающих) взялись за создание государственной языковой модели. В качестве дедлайна выбрали декабрь 2025 года. Модель планировали обучать на данных из госучреждений, включая юридические документы и даже военные архивы. Данные предполагалось хранить внутри страны, а нейросеть использовать везде, от школ и больниц до анализа киберугроз. Проект не будет первым или даже вторым в своём роде – энтузиасты уже сделали украинские модели Lapa LLM и MamayLM.

Декабрь 2025 года наступил. Коалиция желающих говорит, что проведена «обширная техническая оценка» разных вариантов. Спустя полгода получилось определиться с выбором базовой LLM: использовать решили открытую модель Gemma от Google, аргументируя это тем, что она лучше понимает украинский и поддерживает «западные ценности» работы с данными. Хотим отметить, что в международной практике для дообучения чаще всего используются китайские решения, в частности Qwen. Теперь дело за малым – собственно, обучить модель.

Отказаться пришлось также от идеи хранить конфиденциальные данные и обучать модель на территории Украины. Для обучения нейросетей нужны ЦОДы и электричество, с чем у Украины в данный момент проблемы. Поэтому первичное обучение будет идти за рубежом, на мощностях Google Cloud Vertex AI. Рискнём предположить, что для этого придётся отправлять туда данные украинских госучреждений и военных архивов.

Когда закончится первичное обучение и модель станет доступна хоть в каком-то виде – не говорят. Деньги на проект взялись из инвестиционного плана холдинга Veon (куда входит Киевстар) на миллиард долларов. План рассчитан на период до 2027 года, поэтому коалиция желающих пока может не торопиться.
1🎄31🦄1
Google обновляет свой конвейер для генерации картинок и презентаций

Google Labs выпустил декабрьское обновление для сервиса Mixboard, переведя платформу на модель Nano Banana Pro и добавив функцию автоматической вёрстки презентаций. Теперь сервис поддерживает форматы PDF и TIFF, а разрозненные доски можно объединять в единый проект. Mixboard – это холст с ИИ для работы с изображениями и референсами, доступный в экспериментальном формате на странице Google Labs с американский IP.

Чтобы получить презентацию, достаточно загрузить нужные файлы (документы, референсы, картинки, файлы с планом и структурой и так далее) и нажать кнопку «Generate», через 20 минут получив результат. Работает это пока всё ещё не идеально, чем-то напоминает аналогичную функцию в NotebookLM, но с большим уклоном в визуальное оформление и дизайн.

Главное изменение после декабрьского обновления – не в новых форматах. Mixboard фактически становится самым быстрым и наглядным интерфейсом для доступа к Nano Banana Pro, выигрывая даже у флагманского Gemini. В отличие от чат-ботов, здесь реализован принцип массовой обработки: по одному запросу система может сделать сразу 10 картинок, потом их можно визуально сгруппировать, перемещать по холсту, оставлять удачные и удалять ненужные, писать уточнения, генерировать новые версии, объединять на одной генерации и так далее.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Google Переводчик получит живой перевод в реальном времени через любые наушники

Компания выкатила бета-версию функции, которая превращает обычную Bluetooth-гарнитуру в переводчика-синхрониста. Перевод отправляется в наушники, вся обработка осуществляется через телефон и облако. Функция работает на базе обновлённой модели Gemini: нейросеть не просто переводит речь, но сохраняет интонацию, паузы и эмоциональную окраску говорящего. Пока функция доступна только в США и Индии, на Android, уже поддерживает более 70 языков.

Заодно подтянули и текстовый перевод – алгоритмы научились адекватно обрабатывать идиомы и сленг, перестав выдавать дословный бессмысленный перевод. Тренд на отказ от специального железа и стандартных ML-моделей мы заметили ещё на MWC Doha 2025, где приложение Google очень помогло с живым переводом с арабского. Мультимодальные языковые модели, интегрируясь в пайплайн перевода, позволяют получить более качественный, живой и быстрый результат.

Показательно, что раньше эта функция была доступна только владельцам Google Pixel Buds. Компания могла сделать эту фишку их эксклюзивом, чтобы подстегнуть продажи железа, но предпочла сделать акцент на развитие приложения. Это плохая новость для производителей вроде iFlytek и других стартапов, выпускающих отдельные «ИИ-наушники» для перевода.
👍3🔥2
«Мы платим 1,4 миллиона долларов в год за 4000 лицензий Microsoft Copilot, которыми реально пользуются 12 человек»

Это цитата из вирусного и, вероятно, сатирического треда в X, ставшего идеальной иллюстрацией того, о чём мы писали ранее: избавление от ИИ становится новой нормой цифровой гигиены, а пользователи готовы удалять системные файлы и рисковать нарушить работу софта, лишь бы избавиться от навязанных корпорациями функции. Но если частный пользователь имеет возможность что-то удалить, то корпоративный сектор вынужден играть в инновации. Пользователь Твиттера описал ситуацию, где якобы отвечает за «внедрение ИИ» в рабочий процесс 4 тысяч человек, и рассказал, как могла бы выглядеть эта «цифровая трансформация» изнутри.

В сценарии треда она выглядит как классическая потёмкинская деревня. Совет директоров утвердил бюджет за 11 минут, загипнотизированный фразой «внедрение ИИ». Спустя три месяца статистика не обрадовала: из 4000 сотрудников софт открыли 47 человек, а регулярно использовало только 12. Автор признаётся: на то, чтобы Copilot пересказал письмо, уходит 45 секунд (плюс время на проверку галлюцинаций), хотя прочитать оригинал можно за полминуты. Но для отчётов это не важно. Менеджер нарисовал график «роста ИИ-возможностей», придумал цифру в 40 тысяч сэкономленных часов, и теперь этот кейс висит на сайте Microsoft как история успеха, а автор ждёт повышения до вице-президента.

Текст, вероятно, сатирический, но реальное положение дел чем-то схоже. По данным The Information, компания снизила KPI по продажам Copilot и других ИИ-продуктов, потому что клиенты не готовы их внедрять. The Economist писал, что доля компаний, которые бросают большинство GenAI-пилотов, выросла c 17% до 42%. Рынок сегодня наступает на те же грабли, что и Илон Маск при запуске Model 3. Тогда он пытался построить полностью автоматизированный завод без оглядки на процессы, что, конечно, не получилось. В итоге пришлось избавиться от дорогих роботов и вернуть людей. Автоматизация не решает проблемы «автоматически», если рассматривать ИИ как вещь в себе, а не часть рабочего процесса.
👍2😁1😱1
Media is too big
VIEW IN TELEGRAM
ChatGPT теперь сохраняет лица и пишет без ошибок

OpenAI выпустили обновление генерации изображений GPT Image 1.5, которое доступно всем пользователям.

✦ Компания попыталась решить главную проблему предыдущей версии – редактирование изображение с сохранением лиц и деталей. Можно загрузить фото, попросить убрать лишнего человека или сменить одежду, а ИИ попытается сохранить всё остальное в исходном виде.

✦ Модель, по заявлениям разработчиков, также лучше справляется с текстом, диаграммами и инфографикой. Оба обновления – прямая отсылка к аналогичным функциям Nano Banana Pro.

✦ Для разработчиков, использующих API, стоимость генерации снизилась на 20%. Крупные игроки вроде Wix и Canva уже внедрили модель в свои продукты.

✦ Вместе с новой моделью OpenAI меняет подход к интерфейсу. Появился отдельный хаб с изображениями, где хранятся все генерации пользователя, которые можно открывать и редактировать в отдельном чате.
2
OpenAI потерял лидерство в генерации картинок

Обновление ChatGPT Images выглядит блекло на фоне конкурента от Google. Сравнение с Nano Banana Pro показывает, что OpenAI уступила первенство в сложных генерациях, и косметические правки ситуацию не спасают.

✦ Скорость генерации у ChatGPT всё ещё ниже конкурента, несмотря на заявление об её увеличении

✦ Разрешение у модели Google выше (2-4к, тогда как у ChatGPT скромные 1024 пикселя)

✦ Nano Banana лучше копирует стиль других авторов, особенно малоизвестных

✦ У ChatGPT сильно больше ограничений по авторским правам

✦ Nano Banana умеет делать сложные иллюстрации, для которых требуется дополнительная информация

✦ ChatGPT хуже рендерит текст

Главное преимущество Nano Banana – это мультимодальная природа и доступ к данным извне: для сложной иллюстрации нейросеть найдёт схемы в сети или посмотрит панорамы на картах, создавая достоверный «вид с дрона».

Обновление хорошее, но OpenAI очень честно дали ему промежуточную цифру, назвав GPT Image 1.5. Потому что это немного запоздалая эволюция. А для того, чтобы обойти Google, понадобится скорее революция, которая может случиться разве что во 2 версии. Хотя такими темпами не факт, что случится.
👍41