Крипторынок сегодня просто снесло. Причем не внутренними факторами, а внешним шоком. 10 октября Трамп заявил о 100% пошлинах на импорт из Китая и возможном экспорт-контроле на софт. На перегретом рынке perpetual-контрактов с огромными плечами это вызвало каскад ликвидаций лонгов — за первый час рынок вынесло на $6–7 млрд — для сравнения, «ковидный» обвал 2020-го был около $1,2 млрд, крах FTX в ноябре 2022-го — $1,6 млрд. Суммарно потери около $19–19,2 млрд за 24 часа, закрылись свыше 1,6 млн счетов. Большой вклад в панику и каскадный обвал внесли торговые роботы. В крипточатах стенания. Сми пишут про два суицида среди криптанов за сегодняшний день.
В деньгах это абсолютный рекорд по масштабу ликвидаций. По падению цен это далеко не рекорд: за сутки BTC сел на 8–12%, максимум-к-минимуму около −16% (с ~$125k до ~$105k).
Исторически мощнее в процентах были:
• 12 марта 2020 — “Black Thursday”: BTC −37–40% за день.
• 19 мая 2021 — внутридневное падение до −30% по BTC, ETH ещё сильнее.
Вывод: нынешний обвал — не про цену, а про структуру рынка и перегретое плечо. Самое дорогое падение в истории — буквально в долларах, не в процентах. Ну и при этом спекулятивно докупиться не получится.
@maxrepost 👾
В деньгах это абсолютный рекорд по масштабу ликвидаций. По падению цен это далеко не рекорд: за сутки BTC сел на 8–12%, максимум-к-минимуму около −16% (с ~$125k до ~$105k).
Исторически мощнее в процентах были:
• 12 марта 2020 — “Black Thursday”: BTC −37–40% за день.
• 19 мая 2021 — внутридневное падение до −30% по BTC, ETH ещё сильнее.
Вывод: нынешний обвал — не про цену, а про структуру рынка и перегретое плечо. Самое дорогое падение в истории — буквально в долларах, не в процентах. Ну и при этом спекулятивно докупиться не получится.
@maxrepost 👾
🤔1💯1
Forwarded from Creator Economy (Konstantin)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Denis Sexy IT 🤖
Сделал еще одну мелкую тулу – если вам нужно перегнать *.doc, *.docx файлы из Word в маркдаун, чтобы потом подать их LLM – можете юзать эту штуку, файлы обрабатываются у вас в браузере и никуда не утекут:
https://shir-man.com/word-to-markdown/
Для PDF тоже есть, туточки:
https://shir-man.com/pdf-to-txt/
https://shir-man.com/word-to-markdown/
Для PDF тоже есть, туточки:
https://shir-man.com/pdf-to-txt/
Denis Shiryaev Projects
Word to Markdown Converter | Offline DOCX to Markdown Tool
Convert Word DOCX documents to clean Markdown instantly. Runs fully in your browser using open-source code inspired by Ben Balter's word-to-markdown-js.
Нобелевкой за экономику 2025 года отмечены три ученых за цельное объяснение того, как инновации порождают длительный экономический рост. Половина награды — Джоэлу Мокиру «за выявление предпосылок устойчивого роста через технологический прогресс»; другая половина — Филиппу Агиону и Питеру Хауитту «за теорию устойчивого роста через творческое разрушение». Они показали, что «конвейер» инноваций запускается не сам по себе: нужны научные объяснения «почему это работает», а не только ремесленные рецепты; нужна культурная и институциональная открытость к новым идеям. Именно это отличило эпоху после Промышленной революции от веков стагнации и сделало рост «новой нормой».
Их работы дают инструменты для баланса: где оправдано субсидировать R&D (частные стимулы могут быть ниже общественных выгод), где наоборот инновации чрезмерно «воруют бизнес» и требуют сдержек; почему чрезмерная рыночная концентрация душит новшества и зачем усиливать антимонопольную политику; как сочетаются гибкость рынка труда и защита людей (подход «защищать работников, а не рабочие места»). Это все особенно важно сейчас когда мы стоим на пороге AI-революции.
С точки зрения работ получивших нобелевку полисимейкерам важно придерживаться следующих принципов:
• Конкуренция и открытость. Лёгкий вход на рынки AI, переносимость данных и моделей; стоп «убийственным» M&A и рискованной вертикальной интеграции. Рента — только временная.
• Регулирование по риску. Журналы инцидентов, независимые аудиты, проверяемые метрики; лицензии — лишь для систем с действительно системным риском.
• Инвестиции в «почему». Базовая наука, открытые корпуса и стандарты, STEM и приток талантов. Быстрая диффузия: ваучеры на облако, общие бенчмарки, тест-полигоны.
• Социальные амортизаторы. «Защищать людей, не рабочие места»: переносимые бенефиты, страховка дохода при переходах, короткие переподготовки, верификация навыков.
• IP и данные. Патенты там, где без раскрытия не обойтись; в софте/данных — lead-time и коммерческие секреты. Дата-траст-консорциумы, понятные правила text-and-data mining, госзаказ с открытыми стандартами.
• Распределение выгод. Снижать концентрацию: доступ к вычислениям для госсектора и МСП, региональные центры внедрения.
Для бизнеса тоже вывод предельно ясен: лидерство — не в удержании позиций, а в постоянном движении вперёд:
• Каннибализируй себя. Выпускай AI-фичи, которые «съедают» вчерашний хит — иначе это сделают конкуренты.
• Стек под динамику. Мультимодельный слой, модульные пайплайны, журналирование; офлайн-бенчмарки + постоянные онлайн-эксперименты. Избегай жёсткого вендор-лока.
• Метрики, не хайп. Цикл-тайм, дефектность, юнит-маржа, удержание, LTV/CAC; каждой гипотезе — эксперимент.
• Оргдизайн для скорости. Кросс-функциональные AI-команды, бюджет быстрых проб, мобильность талантов и обмен знаниями.
• Доверие по умолчанию. Карточки моделей, трассируемость данных, прозрачные ограничения и политика обновлений. Больше опенсорса.
• Что открывать, что закрывать. Открывай то, что тянет экосистему к тебе; закрывай свой дифференциатор — собственные датасеты, процессы, UX-ноу-хау.
@maxrepost 👾
Их работы дают инструменты для баланса: где оправдано субсидировать R&D (частные стимулы могут быть ниже общественных выгод), где наоборот инновации чрезмерно «воруют бизнес» и требуют сдержек; почему чрезмерная рыночная концентрация душит новшества и зачем усиливать антимонопольную политику; как сочетаются гибкость рынка труда и защита людей (подход «защищать работников, а не рабочие места»). Это все особенно важно сейчас когда мы стоим на пороге AI-революции.
С точки зрения работ получивших нобелевку полисимейкерам важно придерживаться следующих принципов:
• Конкуренция и открытость. Лёгкий вход на рынки AI, переносимость данных и моделей; стоп «убийственным» M&A и рискованной вертикальной интеграции. Рента — только временная.
• Регулирование по риску. Журналы инцидентов, независимые аудиты, проверяемые метрики; лицензии — лишь для систем с действительно системным риском.
• Инвестиции в «почему». Базовая наука, открытые корпуса и стандарты, STEM и приток талантов. Быстрая диффузия: ваучеры на облако, общие бенчмарки, тест-полигоны.
• Социальные амортизаторы. «Защищать людей, не рабочие места»: переносимые бенефиты, страховка дохода при переходах, короткие переподготовки, верификация навыков.
• IP и данные. Патенты там, где без раскрытия не обойтись; в софте/данных — lead-time и коммерческие секреты. Дата-траст-консорциумы, понятные правила text-and-data mining, госзаказ с открытыми стандартами.
• Распределение выгод. Снижать концентрацию: доступ к вычислениям для госсектора и МСП, региональные центры внедрения.
Для бизнеса тоже вывод предельно ясен: лидерство — не в удержании позиций, а в постоянном движении вперёд:
• Каннибализируй себя. Выпускай AI-фичи, которые «съедают» вчерашний хит — иначе это сделают конкуренты.
• Стек под динамику. Мультимодельный слой, модульные пайплайны, журналирование; офлайн-бенчмарки + постоянные онлайн-эксперименты. Избегай жёсткого вендор-лока.
• Метрики, не хайп. Цикл-тайм, дефектность, юнит-маржа, удержание, LTV/CAC; каждой гипотезе — эксперимент.
• Оргдизайн для скорости. Кросс-функциональные AI-команды, бюджет быстрых проб, мобильность талантов и обмен знаниями.
• Доверие по умолчанию. Карточки моделей, трассируемость данных, прозрачные ограничения и политика обновлений. Больше опенсорса.
• Что открывать, что закрывать. Открывай то, что тянет экосистему к тебе; закрывай свой дифференциатор — собственные датасеты, процессы, UX-ноу-хау.
@maxrepost 👾
❤4⚡1
Forwarded from Not Boring Tech
🤯 Со-основатель OpenAI Андрей Карпаты выложил репо для создания рабочего мини-клона ChatGPT с нуля! Нужно всего один вечер и $100:
• Внутри всего 8000 строк кода без лишних зависимостей.
• Токенизатор, предобучение, файн-тюнинг, обучение с подкреплением и оценка модели.
• Можно арендовать облачный GPU, запустить готовый скрипт и уже через 4 часа общаться с личным ChatGPT.
• На аренду GPU уйдёт 100 долларов, но можно ещё больше масштабировать и получать результаты на уровне GPT-2!
• Сам Карпаты называет nanochat «самым безумным репозиторием, который он когда-либо писал».
Сохраняем в закладки — тут.
@notboring_tech
• Внутри всего 8000 строк кода без лишних зависимостей.
• Токенизатор, предобучение, файн-тюнинг, обучение с подкреплением и оценка модели.
• Можно арендовать облачный GPU, запустить готовый скрипт и уже через 4 часа общаться с личным ChatGPT.
• На аренду GPU уйдёт 100 долларов, но можно ещё больше масштабировать и получать результаты на уровне GPT-2!
• Сам Карпаты называет nanochat «самым безумным репозиторием, который он когда-либо писал».
Сохраняем в закладки — тут.
@notboring_tech
👍3
Персона модели — это новый фронтир UI/UX. Сэм Альтман недавно заявил, что в ближайшие недели OpenAI начнёт снимать ограничения и вернёт GPT‑4o её характерную персональность. По его словам, команда теперь лучше понимает, как избегать вреда для людей с ментальными расстройствами — именно из-за таких рисков голос и поведение модели временно ограничили.
Отключение “персоны” GPT‑4o вызвало волну критики и мемов — модель стала безэмоциональной, многие пользователи почувствовали, будто у них отняли друга, а нейросеть стала «читающей инструкцию».
@maxrepost 👾
Отключение “персоны” GPT‑4o вызвало волну критики и мемов — модель стала безэмоциональной, многие пользователи почувствовали, будто у них отняли друга, а нейросеть стала «читающей инструкцию».
@maxrepost 👾
Forwarded from Что вы мне рекламируете?
Девушка, которая стала первым корпоративным инфлюенсером в Германии, рассказала, как пришла к этому. Она начинала работать в Deloitte в качестве бизнес-аналитика, но всё изменил её пост на LinkedIn
Он был про то, как она рассказала своему 101-летнему дедушке о том, что такое каршеринг. Она поняла, что ей нравится объяснять, как работают сложные технологически штуки с помощью эмоций и чего-то жизненного. Этот пост завирусился и сотрудница из Deloitte предложила ей работать фуллтайм в таком духе🥰
В итоге её задачей стало показать, что Deloitte — не просто аудитор, а разносторонняя компания с интересными проектами. После получения новой роли она начал путешествовать круглыми сутками, общаясь с сотрудниками и посещая мероприятия, чтобы генерировать интересный контент
Удивительно, но её блог работает не только как HR-бренд, но и как канал продаж. Как минимум два клиента выбрали Deloitte благодаря её постам😳
Её контент настолько хорошо показал себя, что теперь в немецком Deloitte около 250 сотрудников, которые на парт-тайме работают корпоративными инфлюенсерами
➡️ А тут писал про EGC (не путать с UGC), почитайте про новые реалии
Он был про то, как она рассказала своему 101-летнему дедушке о том, что такое каршеринг. Она поняла, что ей нравится объяснять, как работают сложные технологически штуки с помощью эмоций и чего-то жизненного. Этот пост завирусился и сотрудница из Deloitte предложила ей работать фуллтайм в таком духе
В итоге её задачей стало показать, что Deloitte — не просто аудитор, а разносторонняя компания с интересными проектами. После получения новой роли она начал путешествовать круглыми сутками, общаясь с сотрудниками и посещая мероприятия, чтобы генерировать интересный контент
Удивительно, но её блог работает не только как HR-бренд, но и как канал продаж. Как минимум два клиента выбрали Deloitte благодаря её постам
Её контент настолько хорошо показал себя, что теперь в немецком Deloitte около 250 сотрудников, которые на парт-тайме работают корпоративными инфлюенсерами
Please open Telegram to view this post
VIEW IN TELEGRAM
Business Insider
I created a brand new job at Deloitte: corporate influencer. This is why your company needs one too.
Lara Sophie Bothur initially worked as a business analyst for Deloitte in Germany, before becoming a corporate influencer and major LinkedIn voice.
❤4
С генеративным ai (фото, видео, музыка) все происходит по классике:
Сначала они тебя игнорируют, потом смеются над тобой, потом борются с тобой,
— вы находитесь здесь —
потом ты побеждаешь
P.s. Ганди кстати эту фразу не говорил. Это было выступление американского активиста Николаса Клейна (Nicholas Klein) на съезде ткачей - Amalgamated Clothing Workers of America в мае 1918:
“First they ignore you. Then they ridicule you. And then they attack you and want to burn you. And then they build monuments to you.”
@maxrepost 👾
Сначала они тебя игнорируют, потом смеются над тобой, потом борются с тобой,
— вы находитесь здесь —
потом ты побеждаешь
P.s. Ганди кстати эту фразу не говорил. Это было выступление американского активиста Николаса Клейна (Nicholas Klein) на съезде ткачей - Amalgamated Clothing Workers of America в мае 1918:
“First they ignore you. Then they ridicule you. And then they attack you and want to burn you. And then they build monuments to you.”
@maxrepost 👾
😁2❤1
Домашний AI-компьютер от NVIDIA реально существует и поступил сегодня в продажу. Но есть два нюанса — он дороже и медленнее, чем обещали.
DGX Spark — настольный мини-суперкомпьютер за ~$4 000 (а не 3000 как обещали летом), в котором установлен свежий Grace Blackwell GB10 Superchip и 128 ГБ LPDDR5X памяти. NVIDIA подаёт его как AI-станцию «в духе Mac mini, но для больших моделей» — разработанную для локальной работы с LLM без облаков, дата-центров и шумных серверов.
Внутри:
— Grace Blackwell GB10 (ARM + GPU),
— 128 ГБ LPDDR5X памяти (но с пропускной — как у мобильника),
— 240 Вт, тихий, компактный, Ubuntu + AI Enterprise из коробки.
Работает ли?
Модели до 20B крутятся стабильно. Llama 3, Mistral, Qwen работают легко. При квантизации до 4/8 бит Spark выдаёт 40–50 токенов в секунду — уровень хорошего RTX-компа.
Модели 30–70B тормозят, потому что память не вывозит.
Модели на 200B? Только в мечтах или с бубном. Никто из тестеров пока не совладал.
Кому он нужен?
Это не замена дата-центру. Это компактная лаборатория LLM — для разработчиков, которые работают с кастомными моделями, хотят держать всё под контролем локально, тестировать с нуля, и при этом не шуметь на весь дом, и не обогревать комнату. Или классная игрушка для энтузиастов. Хотите обрадовать гика - дарите на Рождество. Такой Mac для AI‑гиков.
RTX 4090 работает быстрее, стоит дешевле и проще. Но Spark — это не про скорость, это про локальность, приватность, минимализм и кайф от того, что твоя 20B‑LLM живёт у тебя на столе в красивой коробке. Ощущение, что у тебя на столе маленький датацентр.
@maxrepost 👾
DGX Spark — настольный мини-суперкомпьютер за ~$4 000 (а не 3000 как обещали летом), в котором установлен свежий Grace Blackwell GB10 Superchip и 128 ГБ LPDDR5X памяти. NVIDIA подаёт его как AI-станцию «в духе Mac mini, но для больших моделей» — разработанную для локальной работы с LLM без облаков, дата-центров и шумных серверов.
Внутри:
— Grace Blackwell GB10 (ARM + GPU),
— 128 ГБ LPDDR5X памяти (но с пропускной — как у мобильника),
— 240 Вт, тихий, компактный, Ubuntu + AI Enterprise из коробки.
Работает ли?
Модели до 20B крутятся стабильно. Llama 3, Mistral, Qwen работают легко. При квантизации до 4/8 бит Spark выдаёт 40–50 токенов в секунду — уровень хорошего RTX-компа.
Модели 30–70B тормозят, потому что память не вывозит.
Модели на 200B? Только в мечтах или с бубном. Никто из тестеров пока не совладал.
Кому он нужен?
Это не замена дата-центру. Это компактная лаборатория LLM — для разработчиков, которые работают с кастомными моделями, хотят держать всё под контролем локально, тестировать с нуля, и при этом не шуметь на весь дом, и не обогревать комнату. Или классная игрушка для энтузиастов. Хотите обрадовать гика - дарите на Рождество. Такой Mac для AI‑гиков.
RTX 4090 работает быстрее, стоит дешевле и проще. Но Spark — это не про скорость, это про локальность, приватность, минимализм и кайф от того, что твоя 20B‑LLM живёт у тебя на столе в красивой коробке. Ощущение, что у тебя на столе маленький датацентр.
@maxrepost 👾
❤1😁1
Если вы пока не готовы покупать себе DGX Spark — настольный мини-суперкомпьютер для AI за $4000, то не все потеряно. LLM можно скорее всего запустить и на том, что у вас есть. Правда лучше сразу выбирать подходящую под возможности вашего компьютера. После того как я отправил свой M2 Air дважды за полчаса в нокдаун, я решил подойти к этому вопросу более ответственно и даже сделал специальную GPT в помощь.
Локальные LLM - это круто, даже когда они маленькие и тупенькие.
@maxrepost 👾
Локальные LLM - это круто, даже когда они маленькие и тупенькие.
@maxrepost 👾
💯1
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
VEO 3.1 🔥 🔥 🔥 🔥 🔥
Видеогкнератор от Google обновился до версии 3.1. Всё в целом стало получше, особенно отмечают улучшения в img2video.
Но почему-то мало кто говорит о том, что во Flow теперь можно РЕДАКТИРОВАТЬ ВИДЕО (впрочем Moviegen, который я тренировал в Мете это тоже умеет). Правда, только сгенерированные видео, но это как минимум намекает, что скоро можно будет и обычные (лицо Runway видели?). Кстати, топ фича для нейронного продакшена, даже в текущем формате.
Ну и по мелочи: добавили Ингредиенты (аналог Elements), генерацию по start/end фреймам, продление видео и удобный prompt enhancer с пресетами. А вот 1080p во Flow по-прежнему отсутствует.
Sora 2, конечно, хайпит, но она будто бы для мемов сделана. Veo 3.1 — не слишком большой скачок вперёд, но теперь это как минимум достойный конкурент. Мне кажется, в AI-продакшене она всё ещё будет предпочтительнее.
@ai_newz
Видеогкнератор от Google обновился до версии 3.1. Всё в целом стало получше, особенно отмечают улучшения в img2video.
Но почему-то мало кто говорит о том, что во Flow теперь можно РЕДАКТИРОВАТЬ ВИДЕО (впрочем Moviegen, который я тренировал в Мете это тоже умеет). Правда, только сгенерированные видео, но это как минимум намекает, что скоро можно будет и обычные (лицо Runway видели?). Кстати, топ фича для нейронного продакшена, даже в текущем формате.
Ну и по мелочи: добавили Ингредиенты (аналог Elements), генерацию по start/end фреймам, продление видео и удобный prompt enhancer с пресетами. А вот 1080p во Flow по-прежнему отсутствует.
Sora 2, конечно, хайпит, но она будто бы для мемов сделана. Veo 3.1 — не слишком большой скачок вперёд, но теперь это как минимум достойный конкурент. Мне кажется, в AI-продакшене она всё ещё будет предпочтительнее.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Denis Sexy IT 🤖
На рынке кодинг агентов пополнение методов монетизации:
¯\_(ツ)_/¯
>Amp (кодинг агент в терминале) запускает бесплатный доступ, но с рекламой
>Чел запускает Amp Free и просит убрать рекламу из самого себя
>Агент слушается и удаляет рекламный баннер из своего же кода
¯\_(ツ)_/¯
This media is not supported in your browser
VIEW IN TELEGRAM
Пару дней назад объявили об открытии сайта CoMMa. Там опубликованы 23 000 рукописей VIII-XVI вв. на латыни, итальянском и старофранцузском. И по этим рукописям можно осуществлять полнотекстовый поиск. Такой средневековый интернет получился.
Можно поиграться - дать ai инструкцию отвечать, основываясь только на знаниях и фактах из этого массива документов.
@maxrepost 👾
Можно поиграться - дать ai инструкцию отвечать, основываясь только на знаниях и фактах из этого массива документов.
@maxrepost 👾
🤩3⚡1
Forwarded from TechSparks
Зловещая долина, говорите? Ну, WestWorld средствами художественного вымысла постарался нам показать, что она преодолима. А команда китайского стартапа AheadForm Technology доказывает это делом; вот только что показали серию роботов Elf, технически говоря это hyperrealistic humanoid robot featuring 30 facial muscles controlled by brushless micro-motors and bionic skin designed to mimic human flesh. Ну, а не технически — смотрите фоточки, они того стоят, особенно макро. Прекрасная деталь: cameras embedded in its pupils — для максимального реализма.
Там, впрочем, не только достижения материального реализма. Там еще и ИИ-распознавание эмоций в реальном времени и мимический ответ на них, синхронизация эмоциональной мимики и речи, LLM+VLM во всей красе.
Ожидаю очередные гневно-негативные смайлики в реакциях, что ж вам так не нравится? 🙂
https://www.designboom.com/technology/realistic-humanoid-robots-mimic-people-lifelike-skin-facial-expressions-aheadform-10-16-2025/
Там, впрочем, не только достижения материального реализма. Там еще и ИИ-распознавание эмоций в реальном времени и мимический ответ на них, синхронизация эмоциональной мимики и речи, LLM+VLM во всей красе.
Ожидаю очередные гневно-негативные смайлики в реакциях, что ж вам так не нравится? 🙂
https://www.designboom.com/technology/realistic-humanoid-robots-mimic-people-lifelike-skin-facial-expressions-aheadform-10-16-2025/
designboom | architecture & design magazine
realistic humanoid robots mimic people with their lifelike skin and facial expressions
❤3
Forwarded from Анализ данных (Data analysis)
Главное открытие: не процент заражённых документов, а их абсолютное количество определяет успех атаки. Увеличение объёмов данных и масштаба модели не защищает от целенаправленного отравления.
Backdoor остаётся незаметным - модель работает как обычно, пока не встретит секретный триггер, после чего начинает выполнять вредоносные инструкции или генерировать бессмыслицу.
Даже если продолжать обучение на «чистых» данных, эффект стирается очень медленно - backdoor может сохраняться длительное время.
Вывод: защита LLM требует контроля происхождения данных, проверки целостности корпусов и мер по выявлению скрытых иньекций.
Please open Telegram to view this post
VIEW IN TELEGRAM
👏3❤2
Forwarded from DeCenter — блокчейн, биткоин, инвестиции
Хакеры заявили о взломе российского государственного мессенджера MAX и опубликовали часть базы на
В ней содержатся как личная информация пользователей (имена, номера телефонов, госуслуг и тд) так и внутренние данные сервиса — злоумышленники утверждают, что получили полный доступ к системе и внутренним инструментам.
@DeCenter
Please open Telegram to view this post
VIEW IN TELEGRAM
😁19❤🔥2👏1
Forwarded from Анализ данных (Data analysis)
Uber запускает новый способ заработка для водителей в США 💰
Теперь водители смогут получать деньги, выполняя «цифровые задачи» — короткие задания, которые занимают всего пару минут и доступны даже во время ожидания пассажиров.
Примеры таких задач:
▫️ разметка данных для обучения ИИ
▫️ загрузка меню ресторанов
▫️ запись голосовых сэмплов
▫️ озвучка сценариев на разных языках
Потенциал огромен: компании вроде Scale AI и Surge AI, занимающиеся разметкой данных, уже оцениваются примерно в $30 млрд каждая.
В начале октября Uber также приобрёл бельгийский стартап Segments AI, специализирующийся на разметке данных, чтобы усилить свои позиции в этой сфере.
Теперь водители смогут получать деньги, выполняя «цифровые задачи» — короткие задания, которые занимают всего пару минут и доступны даже во время ожидания пассажиров.
Примеры таких задач:
▫️ разметка данных для обучения ИИ
▫️ загрузка меню ресторанов
▫️ запись голосовых сэмплов
▫️ озвучка сценариев на разных языках
Потенциал огромен: компании вроде Scale AI и Surge AI, занимающиеся разметкой данных, уже оцениваются примерно в $30 млрд каждая.
В начале октября Uber также приобрёл бельгийский стартап Segments AI, специализирующийся на разметке данных, чтобы усилить свои позиции в этой сфере.
❤3
Forwarded from Denis Sexy IT 🤖
Интересно как АИ-девайсы начинают попадать на рынок игрушек: наткнулся на "Santas Magical Telephone" – за $99 ребенок получает барабанный телефон и свою выделенную линию с АИ-сантой на 60 минут (минуты можно докупить позже)
А тут можно почитать детали, как собрать самому такой же – ставлю, что на другом конце провода OpenAI Realtime прикидывается Сантой
А такой же, но к Марку Аврелию можна пожалуйста🥺
А тут можно почитать детали, как собрать самому такой же – ставлю, что на другом конце провода OpenAI Realtime прикидывается Сантой
А такой же, но к Марку Аврелию можна пожалуйста
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Техно Фил
Как Reddit покоряет поиск
Если искать ответ на вопрос на русском языке в Google, то с высокой вероятностью одной из первых ссылок в выдаче окажется Reddit. По клику открывается пост и обсуждение в комментариях — всё на русском.
О том, что это AI-перевод, говорит лишь маленькая ссылка Show Original в начале поста. Не нашёл никакого официального анонса от Reddit — ни в Help, ни в интерфейсе, — но, судя по всему, компания без лишнего шума масштабировала свою систему AI-переводов постов, ориентированных на поисковые запросы, теперь и на русский язык.
Работает это через параметр в конце URL ?tl=ru. Например, вот здесь.
Стало интересно, как вообще обстоят дела у Reddit с поиском после того, как в начале 2024 года Reddit и Google объявили о расширении своего партнёрства. Тогда Google получил доступ по API к структурированным данным — постам и комментариям, публикуемым на Reddit, — чтобы использовать их для обучения своих ИИ-моделей. Взамен Reddit получил $60 млн в год и доступ к Vertex AI.
Дела оказались очень хорошими. На графике — трафик на Reddit из Google. Официальный комментарий Google: «Our agreement with Reddit absolutely did not include ranking its content higher on Search».
Если искать ответ на вопрос на русском языке в Google, то с высокой вероятностью одной из первых ссылок в выдаче окажется Reddit. По клику открывается пост и обсуждение в комментариях — всё на русском.
О том, что это AI-перевод, говорит лишь маленькая ссылка Show Original в начале поста. Не нашёл никакого официального анонса от Reddit — ни в Help, ни в интерфейсе, — но, судя по всему, компания без лишнего шума масштабировала свою систему AI-переводов постов, ориентированных на поисковые запросы, теперь и на русский язык.
Работает это через параметр в конце URL ?tl=ru. Например, вот здесь.
Стало интересно, как вообще обстоят дела у Reddit с поиском после того, как в начале 2024 года Reddit и Google объявили о расширении своего партнёрства. Тогда Google получил доступ по API к структурированным данным — постам и комментариям, публикуемым на Reddit, — чтобы использовать их для обучения своих ИИ-моделей. Взамен Reddit получил $60 млн в год и доступ к Vertex AI.
Дела оказались очень хорошими. На графике — трафик на Reddit из Google. Официальный комментарий Google: «Our agreement with Reddit absolutely did not include ranking its content higher on Search».
👍2👏2
Forwarded from TechSparks
Есть интересная ирония в партнерстве классической старой торговой сети, долгое время считавшейся символом офлайна в противовес онлайновому Амазону — и OpenAI.
Да, все именно так: теперь покупки в Walmart можно совершать прямо внутри ChatGPT. Как отмечают слегка удивленные комментаторы, partnership with OpenAI marks a first for the retailer, a company long viewed as pragmatic rather than pioneering when it comes to digital leaps.
https://www.thedrum.com/news/2025/10/17/walmart-openai-look-the-deal-could-rewire-retail-s-entire-operating-system
Да, все именно так: теперь покупки в Walmart можно совершать прямо внутри ChatGPT. Как отмечают слегка удивленные комментаторы, partnership with OpenAI marks a first for the retailer, a company long viewed as pragmatic rather than pioneering when it comes to digital leaps.
https://www.thedrum.com/news/2025/10/17/walmart-openai-look-the-deal-could-rewire-retail-s-entire-operating-system
The Drum
Walmart & OpenAI: a look at the deal that could rewire retail’s entire operating system