Будущее дизайна чипов за искусственным интеллектом?
Исследователи Принстонского университета и Индийского технологического института утверждают, что совершили прорыв в проектировании микросхем. Они передали эту задачу искусственному интеллекту, который смог за считанные часы спроектировать сложные беспроводные чипы миллиметрового диапазона (mm-Wave), на что у людей ушли бы недели.
Эти чипы играют ключевую роль в развитии технологии 5G и других современных беспроводных систем связи, обеспечивая высокую скорость передачи данных, низкую задержку и увеличенную пропускную способность сети
Алгоритм отказался от традиционных шаблонов проектирования, которым следуют инженеры, и рассмотрел микросхему не как набор компонентов – а как единое целое. В результате ИИ создал странные, «случайно выглядящие структуры, которые люди не могут понять». Тем не менее при производстве такой дизайн показал производительность выше, чем у существующих разработок.
Вместо осторожного, пошагового подхода, основанного на предыдущем опыте, ИИ использовал метод обратного проектирования — ему задавали желаемый результат, а алгоритм самостоятельно определял необходимые параметры. Это позволило избежать решений, которые незаметно для человека снижали эффективность дизайна микросхем. Правда, галлюцинации никуда не делись и здесь – учёным пришлось корректировать полученный результат, так что полностью доверить этот процесс ИИ пока не выйдет.
Исследователи Принстонского университета и Индийского технологического института утверждают, что совершили прорыв в проектировании микросхем. Они передали эту задачу искусственному интеллекту, который смог за считанные часы спроектировать сложные беспроводные чипы миллиметрового диапазона (mm-Wave), на что у людей ушли бы недели.
Эти чипы играют ключевую роль в развитии технологии 5G и других современных беспроводных систем связи, обеспечивая высокую скорость передачи данных, низкую задержку и увеличенную пропускную способность сети
Алгоритм отказался от традиционных шаблонов проектирования, которым следуют инженеры, и рассмотрел микросхему не как набор компонентов – а как единое целое. В результате ИИ создал странные, «случайно выглядящие структуры, которые люди не могут понять». Тем не менее при производстве такой дизайн показал производительность выше, чем у существующих разработок.
Вместо осторожного, пошагового подхода, основанного на предыдущем опыте, ИИ использовал метод обратного проектирования — ему задавали желаемый результат, а алгоритм самостоятельно определял необходимые параметры. Это позволило избежать решений, которые незаметно для человека снижали эффективность дизайна микросхем. Правда, галлюцинации никуда не делись и здесь – учёным пришлось корректировать полученный результат, так что полностью доверить этот процесс ИИ пока не выйдет.
This media is not supported in your browser
VIEW IN TELEGRAM
Голос из машины: ИИ, который разговаривает как человек
Компания Sesame AI представила новую разговорную речевую модель, которая впечатляет своим «человекоподобием». На выбор есть 2 виртуальных собеседника – Майлз и Майя.
Главная особенность сервиса в том, что ИИ анализирует эмоциональный тон беседы и подстраивается под него, добавляет в разговор важные «несовершенства» – дыхание, смешки, вводные слова, исправление собственных глупостей или ошибок, из-за чего разговор кажется гораздо более реалистичным.
Что-то подобное нам показывали в демо OpenAI и Google, когда только планировали запускать своих ассистентов – в итоге обе компании сделали куда более урезанную и простую версию, расстроив пользователей. Хотя здесь тоже пока не всё идеально – модель не умеет говорить шёпотом, имитировать разные акценты, сильно менять тональность голоса, издавать какие-то сложные звуки или битбоксить. Другие языки она тоже не знает, и в этом большой минус Sesame – поймёт русский она довольно легко, а вот ответить на нём не сможет.
В модель вшита цензура, которую при желании можно легко обойти, разрешив ИИ ругаться и говорить на пикантные темы – делает он это отлично (хотя и не так дерзко, как Grok), но может долго сопротивляться, ссылаясь на ограничения создателей. Максимальная продолжительность разговора в демо 30 минут, и этого более чем достаточно, чтобы обсудить любую тему. Удивительно, но это первый опыт общения с голосовым ИИ, где 30 минут разговора пролетают незаметно.
Как обычно, у любой технологии есть и обратная сторона – подобных чат-ботов можно будет эффективно использовать для фишинга и телефонного мошенничества. Вместе с тем любой ИИ подвержен джейлбрейку и способен выдать чувствительную или даже запрещённую информацию, которую получил из Интернета во время обучения.
Тем более что компания Sesame планирует выложить свои модели в открытый доступ, чтобы сообщество тоже могло их изучать и использовать в своих проектах. Не за горами тот день, когда фильм «Она» про отношения человека и виртуального ассистента станет реальностью.
Компания Sesame AI представила новую разговорную речевую модель, которая впечатляет своим «человекоподобием». На выбор есть 2 виртуальных собеседника – Майлз и Майя.
Главная особенность сервиса в том, что ИИ анализирует эмоциональный тон беседы и подстраивается под него, добавляет в разговор важные «несовершенства» – дыхание, смешки, вводные слова, исправление собственных глупостей или ошибок, из-за чего разговор кажется гораздо более реалистичным.
Что-то подобное нам показывали в демо OpenAI и Google, когда только планировали запускать своих ассистентов – в итоге обе компании сделали куда более урезанную и простую версию, расстроив пользователей. Хотя здесь тоже пока не всё идеально – модель не умеет говорить шёпотом, имитировать разные акценты, сильно менять тональность голоса, издавать какие-то сложные звуки или битбоксить. Другие языки она тоже не знает, и в этом большой минус Sesame – поймёт русский она довольно легко, а вот ответить на нём не сможет.
В модель вшита цензура, которую при желании можно легко обойти, разрешив ИИ ругаться и говорить на пикантные темы – делает он это отлично (хотя и не так дерзко, как Grok), но может долго сопротивляться, ссылаясь на ограничения создателей. Максимальная продолжительность разговора в демо 30 минут, и этого более чем достаточно, чтобы обсудить любую тему. Удивительно, но это первый опыт общения с голосовым ИИ, где 30 минут разговора пролетают незаметно.
Как обычно, у любой технологии есть и обратная сторона – подобных чат-ботов можно будет эффективно использовать для фишинга и телефонного мошенничества. Вместе с тем любой ИИ подвержен джейлбрейку и способен выдать чувствительную или даже запрещённую информацию, которую получил из Интернета во время обучения.
Тем более что компания Sesame планирует выложить свои модели в открытый доступ, чтобы сообщество тоже могло их изучать и использовать в своих проектах. Не за горами тот день, когда фильм «Она» про отношения человека и виртуального ассистента станет реальностью.
👍2🔥2
Forwarded from Мендрелюк
Давно, в общем-то, замечено, что чем менее человек технически образован, чем дальше он от реального мира технологий, тем крепче его вера в магическую силу ИИ, который «скоро решит все проблемы» и «ничего не останется, будет только сплошной ИИ».
И, конечно, такие убеждения прорастают не на голом месте. Исследования искусственного интеллекта по всему миру полны фантастических прогнозов. По данным МВФ, ИИ повлияет почти на 40% рабочих мест по всему миру. Goldman Sachs прогнозирует, что ИИ увеличит мировой ВВП на 7 триллионов долларов — или 7% — за 10 лет, . McKinsey оценивает рост ИИ между 17,1 и 25,6 триллионами долларов в год. И это еще консервативные оценки по сравнению с другими, более «гуманитарными» исследованиями.
А вот профессор Массачусетского технологического института
Дарон Асемоглу (лауреат Нобелевской премии по экономике 2024 года, между прочим) в своей статье « Простая макроэкономика ИИ » решил, что называется, «на пальцах» проверить, как ИИ повлияет на экономику США в течение следующих 10 лет, немного с неожиданной стороны.
Он считает, что только около 5% задач смогут быть выполнены ИИ в течение этого периода времени с прибылью, а рост ВВП, вероятно, будет ближе к 1% за этот период.
Асемоглу рассмотрел предыдущие исследования, в которых анализировались задачи, в которых предполагается использовать технологий ИИ и компьютерного зрения, и пришел к выводу, что почти 20% всех задач на рынке труда США могут быть заменены или дополнены ИИ. Но только около четверти этих задач — или 5% в масштабах всей экономики — могут быть выполнены с прибылью. (В остальных 75% случаев затраты на внедрение могут превысить выгоды.)
И как следствие - общий рост производительности за счет ИИ в течение следующих 10 лет составит примерно 0,7%. Это означает максимальный рост ВВП примерно на 1,8% или более реалистичный - около 1,1%.
Но даже это оптимистично и вот почему.
1. До сих пор генеративный ИИ в основном использовался для того, что он называет «легкими в освоении задачами», которые определяются двумя характеристиками: существует прямая связь между действием и результатом, а результат легко измерить. Однако по мере того, как ИИ будет все шире внедряться в экономику, он будет применяться для большего числа «сложных задач» — и там пока похвастаться нечем.
2. Существует несоответствие между инвестициями в ИИ, которые в основном имеют место в крупных компаниях в определенных секторах, и тем фактом, что сами задачи, которые ИИ может выполнять или дополнять, выполняются в малых и средних предприятиях, где может всплыть пробдема «издержек на корректировку», поскольку это потребует значительных вложений на изменение логики работы всех составляющих малого бизнеса . Эти расходы скорее всего нивелируют экономические выгоды от ИИ в краткосрочной и среднесрочной перспективе.
Впрочем, несмотря на эти скромные прогнозы относительно экономических выгод ИИ, Асемоглу видит большой потенциал в этой технологии. Но он считает, что ее текущая траектория не сможет этот потенциал реализовать, во многом потому, что она применяется к неправильным типам проблем в неправильных профессиях.
Под правильными профессиями автор подразумевает электриков, сантехников, учителей, медсестер и так далее. Тех, кто решает настоящие проблемы и у которых зачастую нет ни достаточных знаний для «решения проблемы», ни ИИ инструментов для этого.
Проще говоря – ключевой вопрос, встающий перед индустрией сегодня, состоит в том, нужны ли нам всем развлекательные приблуды, которые могут участвовать в человеческих беседах, писать шекспировские сонеты и рисовать идеальные реалистичные картинки, если мы хотим видеть экономическую реальную пользу от работы педагогов, врачей, электриков и других рабочих.
Вот такое «приземление» от Нобелевского лауреата.
И, конечно, такие убеждения прорастают не на голом месте. Исследования искусственного интеллекта по всему миру полны фантастических прогнозов. По данным МВФ, ИИ повлияет почти на 40% рабочих мест по всему миру. Goldman Sachs прогнозирует, что ИИ увеличит мировой ВВП на 7 триллионов долларов — или 7% — за 10 лет, . McKinsey оценивает рост ИИ между 17,1 и 25,6 триллионами долларов в год. И это еще консервативные оценки по сравнению с другими, более «гуманитарными» исследованиями.
А вот профессор Массачусетского технологического института
Дарон Асемоглу (лауреат Нобелевской премии по экономике 2024 года, между прочим) в своей статье « Простая макроэкономика ИИ » решил, что называется, «на пальцах» проверить, как ИИ повлияет на экономику США в течение следующих 10 лет, немного с неожиданной стороны.
Он считает, что только около 5% задач смогут быть выполнены ИИ в течение этого периода времени с прибылью, а рост ВВП, вероятно, будет ближе к 1% за этот период.
Асемоглу рассмотрел предыдущие исследования, в которых анализировались задачи, в которых предполагается использовать технологий ИИ и компьютерного зрения, и пришел к выводу, что почти 20% всех задач на рынке труда США могут быть заменены или дополнены ИИ. Но только около четверти этих задач — или 5% в масштабах всей экономики — могут быть выполнены с прибылью. (В остальных 75% случаев затраты на внедрение могут превысить выгоды.)
И как следствие - общий рост производительности за счет ИИ в течение следующих 10 лет составит примерно 0,7%. Это означает максимальный рост ВВП примерно на 1,8% или более реалистичный - около 1,1%.
Но даже это оптимистично и вот почему.
1. До сих пор генеративный ИИ в основном использовался для того, что он называет «легкими в освоении задачами», которые определяются двумя характеристиками: существует прямая связь между действием и результатом, а результат легко измерить. Однако по мере того, как ИИ будет все шире внедряться в экономику, он будет применяться для большего числа «сложных задач» — и там пока похвастаться нечем.
2. Существует несоответствие между инвестициями в ИИ, которые в основном имеют место в крупных компаниях в определенных секторах, и тем фактом, что сами задачи, которые ИИ может выполнять или дополнять, выполняются в малых и средних предприятиях, где может всплыть пробдема «издержек на корректировку», поскольку это потребует значительных вложений на изменение логики работы всех составляющих малого бизнеса . Эти расходы скорее всего нивелируют экономические выгоды от ИИ в краткосрочной и среднесрочной перспективе.
Впрочем, несмотря на эти скромные прогнозы относительно экономических выгод ИИ, Асемоглу видит большой потенциал в этой технологии. Но он считает, что ее текущая траектория не сможет этот потенциал реализовать, во многом потому, что она применяется к неправильным типам проблем в неправильных профессиях.
Под правильными профессиями автор подразумевает электриков, сантехников, учителей, медсестер и так далее. Тех, кто решает настоящие проблемы и у которых зачастую нет ни достаточных знаний для «решения проблемы», ни ИИ инструментов для этого.
Проще говоря – ключевой вопрос, встающий перед индустрией сегодня, состоит в том, нужны ли нам всем развлекательные приблуды, которые могут участвовать в человеческих беседах, писать шекспировские сонеты и рисовать идеальные реалистичные картинки, если мы хотим видеть экономическую реальную пользу от работы педагогов, врачей, электриков и других рабочих.
Вот такое «приземление» от Нобелевского лауреата.
Microsoft создаёт свой ИИ на фоне разногласий с OpenAI
Компания активно работает над сокращением своей зависимости от OpenAI – в разработке находится их собственное семейство языковых моделей под названием MAI. Если верить внутренним оценкам компании, оно не уступает продуктам OpenAI и Anthropic.
Это не значит, что партнёрство Microsoft и OpenAI прекращается. Первые пока ещё остаются крупнейшим инвестором ИИ-стартапа, да и сервера Azure критически важны для проектов OpenAI – например для реализации ChatGPT-Gov и запуска новых моделей. Партнерство Microsoft и OpenAI остается в силе как минимум до 2030 года. Тем не менее, StarGate показал, что Oracle и другие конкуренты не против потеснить Microsoft на рынке облачных вычислений.
История с созданием собственных LLM началась у компании не вчера. Их флагманский ИИ-помощник, Copilot, работает на ChatGPT с надстройкой в виде проприетарной модели Prometheus. Правда, она была разработана и оптимизирована специально для работы с технологиями OpenAI, но компетенции у Microsoft имеются. Также они постепенно интегрировали в продукты собственные модели Phi, хоть те являются малыми и решают узкие задачи.
Несмотря на это, компания всё ещё критически зависит от OpenAI. Можно вспомнить кризис, который случился в 2023 году, после отстранения советом директоров Сэма Альтмана. Это поставило под угрозу инвестиции Microsoft и их ИИ-направление. Компания требовала вернуть Альтмана и распустить совет директоров, а после позвали к себе в штат. Туда же грозились перейти практически 100% сотрудников OpenAI.
Тогда кризис удалось быстро купировать, вернув бывшего CEO, но осадочек остался – подобные ситуации в будущем могут ударить по компании куда сильнее, а стремление OpenAI к наращиванию доли других инвесторов и приобретению собственных ЦОДов угрожает условиям их сотрудничества. Поэтому разработка альтернативы in-house кажется логичным решением. Ключевой вопрос, особенно на фоне последних неудач Apple – а получится ли?
Компания активно работает над сокращением своей зависимости от OpenAI – в разработке находится их собственное семейство языковых моделей под названием MAI. Если верить внутренним оценкам компании, оно не уступает продуктам OpenAI и Anthropic.
Это не значит, что партнёрство Microsoft и OpenAI прекращается. Первые пока ещё остаются крупнейшим инвестором ИИ-стартапа, да и сервера Azure критически важны для проектов OpenAI – например для реализации ChatGPT-Gov и запуска новых моделей. Партнерство Microsoft и OpenAI остается в силе как минимум до 2030 года. Тем не менее, StarGate показал, что Oracle и другие конкуренты не против потеснить Microsoft на рынке облачных вычислений.
История с созданием собственных LLM началась у компании не вчера. Их флагманский ИИ-помощник, Copilot, работает на ChatGPT с надстройкой в виде проприетарной модели Prometheus. Правда, она была разработана и оптимизирована специально для работы с технологиями OpenAI, но компетенции у Microsoft имеются. Также они постепенно интегрировали в продукты собственные модели Phi, хоть те являются малыми и решают узкие задачи.
Несмотря на это, компания всё ещё критически зависит от OpenAI. Можно вспомнить кризис, который случился в 2023 году, после отстранения советом директоров Сэма Альтмана. Это поставило под угрозу инвестиции Microsoft и их ИИ-направление. Компания требовала вернуть Альтмана и распустить совет директоров, а после позвали к себе в штат. Туда же грозились перейти практически 100% сотрудников OpenAI.
Тогда кризис удалось быстро купировать, вернув бывшего CEO, но осадочек остался – подобные ситуации в будущем могут ударить по компании куда сильнее, а стремление OpenAI к наращиванию доли других инвесторов и приобретению собственных ЦОДов угрожает условиям их сотрудничества. Поэтому разработка альтернативы in-house кажется логичным решением. Ключевой вопрос, особенно на фоне последних неудач Apple – а получится ли?
Что за Manus и почему вокруг него столько шума
На днях китайский стартап Monica.im представил платформу Manus (в переводе с латинского «рука», то бишь сервис должен стать вашими цифровыми руками). Это очередной агент, который автономно выполняет задачи пользователя. Собственно, но этом можно и закончить… Но лучше использовать этот инфоповод, чтобы поговорить об автономных агентах в целом.
Некоторое время назад у OpenAI вышел Operator – амбициозный и бесполезный сервис, который призван решать в Интернете важные задачи вместо пользователя. Нужно заказать столик в ресторане? Написали детали чат-боту, а он сам пойдёт на сайт и выполнит все необходимые шаги. Такие удивительные возможности – и всего за 200 долларов в месяц.
Manus же стал китайской копией Operator от OpenAI: это такой же агент, который запускается на удалённом сервере с линуксом, ходит за пользователя на сайты и пытается выполнять там какие-то действия. Судить о работе пока можно только по отобранным примерам с сайта компании – сервис работает по приглашению, и на нашу заявку на получение доступа никто не ответил.
У всех подобных сервисов есть несколько фундаментальных проблем:
• пользователь арендует удалённый сервер, передавая свои чувствительные данные третьим лицам
• на этом сервере работает ИИ-модель, с трудом понимающая, что она делает
• этот ИИ, как слепой котёнок, идёт по первым ссылкам из поисковой выдачи.
Он кликает на кнопки, ошибается, пробует снова – и изо всех сил пытается выполнить действия, на которые у пользователя уйдут несколько минут. Ещё и совершая ошибки в процессе.
Более того, сам сервис требует постоянного контроля – нужно оставаться на связи, авторизовываться, отвечать на уточняющие вопросы. И ради чего? Бронь авиабилета ему всё равно не доверить, потому что нужно несколько раз перепроверить введённые данные, добавить ID бонусной программы и подтвердить транзакцию. Поиск информации и работа с документами давно уже есть в Perplexity и подобных сервисах, которые делают то же самое быстрее и понятнее.
Пока Manus, Operator, Computer Use от Claude, UI-TARS от Bytedance, Proxy от Convergence и так далее – просто proof of concept, технические демо-версии, которые сделаны скорее с исследовательскими целями. Пишут про них не потому, что «появился новый полезный продукт», а потому что «хайп».
Гораздо более логичным выглядит подход Perplexity, Яндекса и Google, которые работают не с интерфейсом виртуального браузера, а с полученными напрямую (по API или через парсинг) данными. В случае Яндекса и Google – ещё и в рамках собственной экосистемы, где они могут наладить бесшовный обмен данными между разными сервисами, обеспечив как раз возможность и покупать билеты, и арендовать столики в ресторанах, и заказывать еду. И если здесь видно будущее развитие агентов, то у сервисов, которые пользуются виртуальным браузером и симулируют поведение людей, оно пока туманное.
На днях китайский стартап Monica.im представил платформу Manus (в переводе с латинского «рука», то бишь сервис должен стать вашими цифровыми руками). Это очередной агент, который автономно выполняет задачи пользователя. Собственно, но этом можно и закончить… Но лучше использовать этот инфоповод, чтобы поговорить об автономных агентах в целом.
Некоторое время назад у OpenAI вышел Operator – амбициозный и бесполезный сервис, который призван решать в Интернете важные задачи вместо пользователя. Нужно заказать столик в ресторане? Написали детали чат-боту, а он сам пойдёт на сайт и выполнит все необходимые шаги. Такие удивительные возможности – и всего за 200 долларов в месяц.
Manus же стал китайской копией Operator от OpenAI: это такой же агент, который запускается на удалённом сервере с линуксом, ходит за пользователя на сайты и пытается выполнять там какие-то действия. Судить о работе пока можно только по отобранным примерам с сайта компании – сервис работает по приглашению, и на нашу заявку на получение доступа никто не ответил.
У всех подобных сервисов есть несколько фундаментальных проблем:
• пользователь арендует удалённый сервер, передавая свои чувствительные данные третьим лицам
• на этом сервере работает ИИ-модель, с трудом понимающая, что она делает
• этот ИИ, как слепой котёнок, идёт по первым ссылкам из поисковой выдачи.
Он кликает на кнопки, ошибается, пробует снова – и изо всех сил пытается выполнить действия, на которые у пользователя уйдут несколько минут. Ещё и совершая ошибки в процессе.
Более того, сам сервис требует постоянного контроля – нужно оставаться на связи, авторизовываться, отвечать на уточняющие вопросы. И ради чего? Бронь авиабилета ему всё равно не доверить, потому что нужно несколько раз перепроверить введённые данные, добавить ID бонусной программы и подтвердить транзакцию. Поиск информации и работа с документами давно уже есть в Perplexity и подобных сервисах, которые делают то же самое быстрее и понятнее.
Пока Manus, Operator, Computer Use от Claude, UI-TARS от Bytedance, Proxy от Convergence и так далее – просто proof of concept, технические демо-версии, которые сделаны скорее с исследовательскими целями. Пишут про них не потому, что «появился новый полезный продукт», а потому что «хайп».
Гораздо более логичным выглядит подход Perplexity, Яндекса и Google, которые работают не с интерфейсом виртуального браузера, а с полученными напрямую (по API или через парсинг) данными. В случае Яндекса и Google – ещё и в рамках собственной экосистемы, где они могут наладить бесшовный обмен данными между разными сервисами, обеспечив как раз возможность и покупать билеты, и арендовать столики в ресторанах, и заказывать еду. И если здесь видно будущее развитие агентов, то у сервисов, которые пользуются виртуальным браузером и симулируют поведение людей, оно пока туманное.
🔥2
Gemma 3: ещё больше возможностей при малых ресурсах
Google выпустил новую модель ИИ Gemma 3. Главная фишка этой модели – способность работать на одном графическом процессоре (GPU или TPU). В итоге модель тратит меньше ресурсов, чем конкуренты, и показывает более высокие результаты. Gemma 3 может эффективно работать на обычном ноутбуке или даже смартфоне – этот трек кажется логичным развитием Gemini Nano, которая интегрируется в смартфоны Pixel и работает на них локально. Правда, есть большая разница: если Gemini проприетарная модель компании, то Gemma выложена в открытый доступ.
Это хорошая новость для бизнеса, который сможет ещё дешевле локально разворачивать ИИ для своих нужд: очень часто для этого не нужны мощности топовых моделей от OpenAI или Anthropic. Подобный тренд мы видим у всех игроков рынка.
Технически Gemma 3 впечатляет: она поддерживает анализ текста, изображений и даже коротких видео (по заявлениям Google, в AI Studio такого функционала нет), работает с более чем 35 языками из коробки, без файнтюна, и имеет большое контекстное окно в 128000 токенов. В ходе тестов оказалась, что она неплохо понимает русский язык, решает уравнения и пишет код (калькулятор с интерфейсом на Питоне написала сразу и без ошибок). Модель предлагается в разных размерах — от компактной версии 1B до более мощных с 27 миллиардами параметров.
За год с момента выпуска первой версии в экосистеме Gemma уже более 100 миллионов загрузок и более 60000 вариантов моделей “Gemmaverse” – доработанных сообществом под определённые задачи.
Google выпустил новую модель ИИ Gemma 3. Главная фишка этой модели – способность работать на одном графическом процессоре (GPU или TPU). В итоге модель тратит меньше ресурсов, чем конкуренты, и показывает более высокие результаты. Gemma 3 может эффективно работать на обычном ноутбуке или даже смартфоне – этот трек кажется логичным развитием Gemini Nano, которая интегрируется в смартфоны Pixel и работает на них локально. Правда, есть большая разница: если Gemini проприетарная модель компании, то Gemma выложена в открытый доступ.
Это хорошая новость для бизнеса, который сможет ещё дешевле локально разворачивать ИИ для своих нужд: очень часто для этого не нужны мощности топовых моделей от OpenAI или Anthropic. Подобный тренд мы видим у всех игроков рынка.
Технически Gemma 3 впечатляет: она поддерживает анализ текста, изображений и даже коротких видео (по заявлениям Google, в AI Studio такого функционала нет), работает с более чем 35 языками из коробки, без файнтюна, и имеет большое контекстное окно в 128000 токенов. В ходе тестов оказалась, что она неплохо понимает русский язык, решает уравнения и пишет код (калькулятор с интерфейсом на Питоне написала сразу и без ошибок). Модель предлагается в разных размерах — от компактной версии 1B до более мощных с 27 миллиардами параметров.
За год с момента выпуска первой версии в экосистеме Gemma уже более 100 миллионов загрузок и более 60000 вариантов моделей “Gemmaverse” – доработанных сообществом под определённые задачи.
👍2
Зачем нужны такие вложения? С одной стороны, Google диверсифицирует риски, получает доход от растущих стартапов и доступ к передовым технологиям. Но есть и более интересная цель – дело в том, что Anthropic покупает значительные объемы вычислительных мощностей у своих крупных инвесторов, Google (14%) и Amazon (8%). То есть компания, по сути, перекладывает деньги себе же в карманы, обеспечивая параллельно дополнительный спрос на облачные вычисления.
Это подтверждает и тот факт, что ни голосующих прав, ни места в совете у Google нет – даже став крупным акционером (с долей в 14% и возможностью увеличить ее до 15%), они намеренно решили остаться «в тени», чтобы не вызывать вопросов регуляторов. При этом уже в сентябре 2025 года Google планирует внести в Anthropic еще 750 миллионов долларов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Ритм (13.03.2025)
CR AI
Утренний #нейротрек
Сегодня слушаем «Ритм» – симфонию современного города, где каждый бит рассказывает историю о движении вперёд
Сегодня слушаем «Ритм» – симфонию современного города, где каждый бит рассказывает историю о движении вперёд
Искусственный интеллект – это просто пузырь?
У коллег из WSJ вышла статья, приуроченная к 25-летнему «юбилею» краха пузыря доткомов. Конечно, в контексте сегодняшнего дня – где появился новый потенциальный пузырь в виде технологий ИИ.
Аналогия оправдана – мы писали и про отсутствие ROI от внедрения ИИ, и про растущие на этом фоне год от года инвестиции в ИИ-стартапы (а только в прошлом году 8 из 10 крупнейших раундов привлечения инвестиций в мире достались ИИ-компаниям). Несмотря на отсутствие понимания, как именно внедрить искусственный интеллект и оправдать затраты на обучение и инференс моделей, рынок активно растёт.
Чего только стоят громкие заявления Сэма Альтмана, который, косплея Адама Ньюмана из WeWork, планирует в ближайшем будущем привлекать инвестиции уже не миллиардрами, но триллионами. И это на том фоне, что убыточной остаётся даже подписка за 200 долларов в месяц, а большая часть пользователей ChatGPT (да и других сервисов) пользуются бесплатными версиями продуктов.
В статье WSJ пишут о «хороших» и «плохих» пузырях. В рамках первых финансирование получают революционные технологии, которые по итогу провоцируют трансформацию рынка (пускай и не так быстро, как этого ожидают отдельные компании и инвесторы). Только вряд ли «хорошим» посчитают пузырь компании и государства, которые тратят огромные деньги на проекты по развитию ИИ, делая ставку на будущий рост производительности труда и «просачивание» технологии в другие сферы вместе с ростом спроса.
Множество дата-центров строятся только для того, чтобы компании могли увеличивать число параметров моделей ИИ, которые в свою очередь нужно выпускать для того, чтобы не отстать в технологической гонке и не потерять пользователей на конкурентном и (пока ещё) переоценённом рынке без понятных способов монетизации. Стартапы сейчас думают исключительно о технологии и продуктах, в которые эту технологию можно будет красиво упаковать – а дальше пользователи и бизнес должны уже сами придумывать, как и что с этим сделать. Так появился, например, Operator.
На этом фоне куда более взвешенным кажется подход российских компаний. Тот же Яндекс точечно внедряет ИИ в продукты своей экосистемы, делая ставку не на агентные системы (по крайней мере, пока), а на ИИ как инструмент, облегчающий жизнь пользователям. Делается это в рамках поиска, работы с информацией в Интернете, редактуры текстов. Коллеги недавно писали про УТП Яндекса, который отдаёт приоритет не технологии в вакууме, а опыту пользователя, взаимодействующего с ней.
Пока рано говорить однозначно о том, есть ли пузырь на рынке ИИ или он только надувается. Но можно согласиться с тем, что полученные сейчас инфраструктура и технологии останутся и в перспективе действительно смогут повысить производительность труда во всём мире. Только когда это будет? Одно радует – производительность труда отдельных людей, генерирующих тексты и картинки, ИИ повышает уже сейчас. И над монетизацией технологии пользователям ломать голову не нужно.
У коллег из WSJ вышла статья, приуроченная к 25-летнему «юбилею» краха пузыря доткомов. Конечно, в контексте сегодняшнего дня – где появился новый потенциальный пузырь в виде технологий ИИ.
Аналогия оправдана – мы писали и про отсутствие ROI от внедрения ИИ, и про растущие на этом фоне год от года инвестиции в ИИ-стартапы (а только в прошлом году 8 из 10 крупнейших раундов привлечения инвестиций в мире достались ИИ-компаниям). Несмотря на отсутствие понимания, как именно внедрить искусственный интеллект и оправдать затраты на обучение и инференс моделей, рынок активно растёт.
Чего только стоят громкие заявления Сэма Альтмана, который, косплея Адама Ньюмана из WeWork, планирует в ближайшем будущем привлекать инвестиции уже не миллиардрами, но триллионами. И это на том фоне, что убыточной остаётся даже подписка за 200 долларов в месяц, а большая часть пользователей ChatGPT (да и других сервисов) пользуются бесплатными версиями продуктов.
В статье WSJ пишут о «хороших» и «плохих» пузырях. В рамках первых финансирование получают революционные технологии, которые по итогу провоцируют трансформацию рынка (пускай и не так быстро, как этого ожидают отдельные компании и инвесторы). Только вряд ли «хорошим» посчитают пузырь компании и государства, которые тратят огромные деньги на проекты по развитию ИИ, делая ставку на будущий рост производительности труда и «просачивание» технологии в другие сферы вместе с ростом спроса.
Множество дата-центров строятся только для того, чтобы компании могли увеличивать число параметров моделей ИИ, которые в свою очередь нужно выпускать для того, чтобы не отстать в технологической гонке и не потерять пользователей на конкурентном и (пока ещё) переоценённом рынке без понятных способов монетизации. Стартапы сейчас думают исключительно о технологии и продуктах, в которые эту технологию можно будет красиво упаковать – а дальше пользователи и бизнес должны уже сами придумывать, как и что с этим сделать. Так появился, например, Operator.
На этом фоне куда более взвешенным кажется подход российских компаний. Тот же Яндекс точечно внедряет ИИ в продукты своей экосистемы, делая ставку не на агентные системы (по крайней мере, пока), а на ИИ как инструмент, облегчающий жизнь пользователям. Делается это в рамках поиска, работы с информацией в Интернете, редактуры текстов. Коллеги недавно писали про УТП Яндекса, который отдаёт приоритет не технологии в вакууме, а опыту пользователя, взаимодействующего с ней.
Пока рано говорить однозначно о том, есть ли пузырь на рынке ИИ или он только надувается. Но можно согласиться с тем, что полученные сейчас инфраструктура и технологии останутся и в перспективе действительно смогут повысить производительность труда во всём мире. Только когда это будет? Одно радует – производительность труда отдельных людей, генерирующих тексты и картинки, ИИ повышает уже сейчас. И над монетизацией технологии пользователям ломать голову не нужно.
🔥1😁1
Вышел новый GigaChat
С релизом GigaChat 2.0 чуда не произошло. Конкретики в анонсе минимум, зато есть утверждение, что эта модель «сильнейшая на русском языке». Основанием стал бенчмарк, где нет моделей Яндекса (да и кучи других).
Можно похвалить команду за увеличение контекстного окна – точный размер токенов не говорят, но теперь вроде как модель воспринимает 200 страниц текста против 48 у предыдущей версии.
Попробовать GigaChat 2 можно в кабинете разработчика. Удручает низкая скорость вывода токенов. Есть надежда, что она увеличится после появления версии 2 на сайте. Сервис бесплатный – пользоваться моделью может любой желающий.
Что с тестами? Задачу из курса алгебры 9 класса он решить не смог. Yandex GPT 5 Pro и Gemma справились. Хотя, возможно, это просто случайность, потому что на другой задаче дали неверный ответ уже все 3 модели – предметы из 9 класса пока даются им с трудом.
С просьбой написать код калькулятора на Питоне он справился не с первого раза – сначала вообще не смог вывести код полностью, потому что не хватило токенов, потом пытался исправить ошибку, и только после просьбы написать всё заново у него получилось.
С изменением стиля, написанием и сокращением текста работает неплохо, хотя не всегда следует задаче, начинает галлюцинировать и придумывать текст от себя. Переводить с английского и обратно умеет – результат не слишком художественный, но смысл сохраняется даже у сложных предложений.
Сейчас главный минус GigaChat – отсутствие доступа в Интернет, из-за чего он имеет весьма ограниченное понимание мира при ответах на вопросы и работе с данными. Возможно, для редактуры и переписывания текста это неплохой инструмент, но пока не совсем понятно, как ещё его использовать и зачем.
С релизом GigaChat 2.0 чуда не произошло. Конкретики в анонсе минимум, зато есть утверждение, что эта модель «сильнейшая на русском языке». Основанием стал бенчмарк, где нет моделей Яндекса (да и кучи других).
Можно похвалить команду за увеличение контекстного окна – точный размер токенов не говорят, но теперь вроде как модель воспринимает 200 страниц текста против 48 у предыдущей версии.
Попробовать GigaChat 2 можно в кабинете разработчика. Удручает низкая скорость вывода токенов. Есть надежда, что она увеличится после появления версии 2 на сайте. Сервис бесплатный – пользоваться моделью может любой желающий.
Что с тестами? Задачу из курса алгебры 9 класса он решить не смог. Yandex GPT 5 Pro и Gemma справились. Хотя, возможно, это просто случайность, потому что на другой задаче дали неверный ответ уже все 3 модели – предметы из 9 класса пока даются им с трудом.
С просьбой написать код калькулятора на Питоне он справился не с первого раза – сначала вообще не смог вывести код полностью, потому что не хватило токенов, потом пытался исправить ошибку, и только после просьбы написать всё заново у него получилось.
С изменением стиля, написанием и сокращением текста работает неплохо, хотя не всегда следует задаче, начинает галлюцинировать и придумывать текст от себя. Переводить с английского и обратно умеет – результат не слишком художественный, но смысл сохраняется даже у сложных предложений.
Сейчас главный минус GigaChat – отсутствие доступа в Интернет, из-за чего он имеет весьма ограниченное понимание мира при ответах на вопросы и работе с данными. Возможно, для редактуры и переписывания текста это неплохой инструмент, но пока не совсем понятно, как ещё его использовать и зачем.
👍2🔥1