Forwarded from Анализ данных (Data analysis)
⚡️ ERNIE 5.0 - официальный релиз.
Baidu выкатили нативную omni-modal модель, которая умеет понимать и генерировать текст, изображения и аудио.
Ключевая фишка архитектуры - MoE на 2,4 трлн параметров, но в каждом запросе активируется менее 3% параметров.
То есть модель пытается держать качество “больших” систем, но с более эффективным инференсом по стоимости и скорости.
Самое интересное - результаты на бенчмарках (по графикам Baidu):
- Text: ERNIE-5.0 уверенно держится в топ-группе на широком наборе тестов по знаниям, инструкциям, reasoning, математике и коду - на многих метриках близко к GPT-5 (High) / Gemini-3-Pro, а местами выглядит сильнее (особенно на части задач по кодингу и агентным бенчмаркам типа BFCL / BrowserComp / SpreadsheetBench).
- Visual Understanding: по “пониманию картинок” ERNIE-5.0 в ряде STEM/VQA тестов идёт очень высоко - рядом с GPT-5 (High) и Gemini-3-Pro, хорошо выступает на DocVQA/OCR-подобных задачах (документы, таблицы, текст на изображениях) и на блоке General VQA.
- Audio: в speech-to-text chat и audio understanding ERNIE-5.0 показывает конкурентный уровень рядом с Gemini-3-Pro, а по распознаванию речи (ASR) близко к топам на LibriSpeech / AISHELL.
- Visual Generation: по генерации изображений (GenEval) ERNIE-5.0 сравнивают с топовыми генераторами уровня GPT-Image, Seedream, Qwen-Image - и ERNIE выглядит на одном уровне по total score. По генерации видео - рядом с Veo3 / Wan2.1 / Hunyuan Video, с сильными Quality/Semantic оценками.
Baidu делает ставку на “унифицированную мультимодальность” + MoE-эффективность - и судя по бенчмаркам, ERNIE 5.0 реально попадает в верхнюю лигу не только по тексту, но и по vision/audio.
Доступно:
- на сайте ERNIE Bot
- через Baidu AI Cloud Qianfan (для бизнеса и разработчиков)
https://ernie.baidu.com
Baidu выкатили нативную omni-modal модель, которая умеет понимать и генерировать текст, изображения и аудио.
Ключевая фишка архитектуры - MoE на 2,4 трлн параметров, но в каждом запросе активируется менее 3% параметров.
То есть модель пытается держать качество “больших” систем, но с более эффективным инференсом по стоимости и скорости.
Самое интересное - результаты на бенчмарках (по графикам Baidu):
- Text: ERNIE-5.0 уверенно держится в топ-группе на широком наборе тестов по знаниям, инструкциям, reasoning, математике и коду - на многих метриках близко к GPT-5 (High) / Gemini-3-Pro, а местами выглядит сильнее (особенно на части задач по кодингу и агентным бенчмаркам типа BFCL / BrowserComp / SpreadsheetBench).
- Visual Understanding: по “пониманию картинок” ERNIE-5.0 в ряде STEM/VQA тестов идёт очень высоко - рядом с GPT-5 (High) и Gemini-3-Pro, хорошо выступает на DocVQA/OCR-подобных задачах (документы, таблицы, текст на изображениях) и на блоке General VQA.
- Audio: в speech-to-text chat и audio understanding ERNIE-5.0 показывает конкурентный уровень рядом с Gemini-3-Pro, а по распознаванию речи (ASR) близко к топам на LibriSpeech / AISHELL.
- Visual Generation: по генерации изображений (GenEval) ERNIE-5.0 сравнивают с топовыми генераторами уровня GPT-Image, Seedream, Qwen-Image - и ERNIE выглядит на одном уровне по total score. По генерации видео - рядом с Veo3 / Wan2.1 / Hunyuan Video, с сильными Quality/Semantic оценками.
Baidu делает ставку на “унифицированную мультимодальность” + MoE-эффективность - и судя по бенчмаркам, ERNIE 5.0 реально попадает в верхнюю лигу не только по тексту, но и по vision/audio.
Доступно:
- на сайте ERNIE Bot
- через Baidu AI Cloud Qianfan (для бизнеса и разработчиков)
https://ernie.baidu.com
1✍7❤1⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
PersonaPlex: голос и роль в реальном времени
NVIDIA выкатила PersonaPlex — речевую модель на 7 миллиардов параметров, которая одновременно слушает и говорит.
Работает в режиме полного дуплекса: можно перебивать, вклиниваться, перекрывать — как в живом диалоге.
Перед стартом беседы задаются два промпта: голосовой (аудио токены) и текстовый (роль, контекст). Вместе они определяют личность и манеру речи.
Обучалась на Fisher English — менее 10 тысяч часов телефонных разговоров, плюс синтетика.
Тестировалась на FullDuplexBench: задержка на прерывание — 0.24 секунды, на смену реплик — 0.17 секунды.
Превосходит Moshi и Gemini Live по скорости реакции.
Коммерческая лицензия от NVIDIA, работает через PyTorch.
Хочется русскую версию, конечно.
Просто послушайте!
170мс решают,- звучит фантастически!
Смех только криповый 😀
#PersonaPlex #NVIDIA #FullDuplex
------
@tsingular
NVIDIA выкатила PersonaPlex — речевую модель на 7 миллиардов параметров, которая одновременно слушает и говорит.
Работает в режиме полного дуплекса: можно перебивать, вклиниваться, перекрывать — как в живом диалоге.
Перед стартом беседы задаются два промпта: голосовой (аудио токены) и текстовый (роль, контекст). Вместе они определяют личность и манеру речи.
Обучалась на Fisher English — менее 10 тысяч часов телефонных разговоров, плюс синтетика.
Тестировалась на FullDuplexBench: задержка на прерывание — 0.24 секунды, на смену реплик — 0.17 секунды.
Превосходит Moshi и Gemini Live по скорости реакции.
Коммерческая лицензия от NVIDIA, работает через PyTorch.
Хочется русскую версию, конечно.
Просто послушайте!
170мс решают,- звучит фантастически!
Смех только криповый 😀
#PersonaPlex #NVIDIA #FullDuplex
------
@tsingular
1🔥16🤯4⚡3👻1
Qwen3-TTS: синтез речи с клонированием голоса
Alibaba выкатила Qwen3-TTS — семейство моделей для синтеза речи с поддержкой русского.
В коллекции шесть вариантов:
- Base модели (0.6B и 1.7B) — базовый синтез
- CustomVoice — клонирование голоса по образцу
- VoiceDesign — генерация голоса по текстовому описанию
Все модели работают на 12Hz частоте акустических токенов — это ~83мс на токен, примерно один фонем.
Такая низкая частота экономит вычисления, но может терять детали в сибилянтах и палатализованных согласных (важно для русского).
Китайцы методично закрывают все модальности.
#Qwen #TTS #Китай
------
@tsingular
Alibaba выкатила Qwen3-TTS — семейство моделей для синтеза речи с поддержкой русского.
В коллекции шесть вариантов:
- Base модели (0.6B и 1.7B) — базовый синтез
- CustomVoice — клонирование голоса по образцу
- VoiceDesign — генерация голоса по текстовому описанию
Все модели работают на 12Hz частоте акустических токенов — это ~83мс на токен, примерно один фонем.
Такая низкая частота экономит вычисления, но может терять детали в сибилянтах и палатализованных согласных (важно для русского).
Китайцы методично закрывают все модальности.
#Qwen #TTS #Китай
------
@tsingular
1🔥11✍5⚡1
Media is too big
VIEW IN TELEGRAM
Runway выкатили новую Image 2 Video модель:
Gen 4.5
Пробуем тут:
https://app.runwayml.com/
#Runway #нейрорендер
------
@tsingular
Gen 4.5
Пробуем тут:
https://app.runwayml.com/
#Runway #нейрорендер
------
@tsingular
1🔥25
Forwarded from Russian OSINT
На первом месте по объёму утечек сейчас находится приложение «Chat & Ask AI by Codeway». Оно раскрыло информацию о 18 миллионах пользователей, включая:
Все сообщения, которые вы когда-либо отправляли через это приложение, остаются незащищенными.
Подумайте о том, в чем люди признаются искусственному интеллекту — проблемы с психическим здоровьем, трудности в отношениях, финансовые проблемы, медицинские вопросы, вещи, о которых вы никогда бы не рассказали другому человеку.
А теперь представьте, что все это связано с вашей электронной почтой и номером телефона и доступно любому.
Разработчики должны понести ответственность за такой уровень халатности.
— комментирует Harrris0n.
Фактически всё, что вы когда-либо сообщали этому ИИ-боту, оказалось доступным извне. Речь идёт более чем о 400 000 000 сообщений. В слитых переписках содержится абсолютно всё, о чем люди говорили с ботами.
Следом в так называемом «шлак-метре» идёт приложение «YPT — Study Group», которое на данный момент раскрывает данные более чем 2 миллионов пользователей, включая:
Исследователь отметил, что сливается всё: от обсуждения образования и фитнеса до шокирующих вещей, таких как переписки CSAM (детская порнография) и странных трендов вроде «LooksMaxxing» (улучшение внешности).
Разработчики массово клепают небезопасные приложения-обертки для ИИ («мусорный софт»), а в результате утекают самые интимные переписки и личные данные миллионов людей.
Перед нами бесконечная чёрная дыра персональных данных. Речь идёт не только об именах и адресах электронной почты, но и о частных, интимных диалогах пользователей с ИИ-агентами.
Не могу не подчеркнуть: НЕ ДОВЕРЯЙТЕ VIBE КОДЕРАМ. НЕ ДЕЛАЙТЕ ЭТОГО. ИИ-КОД НЕБЕЗОПАСЕН. НЕ ДЕЛАЙТЕ ЭТОГО. ПРЕКРАТИТЕ ЭТО.
Это и есть🤖 «помойкоапокалипсис».
— комментируют VX.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥6👻6 2
Наткнулся в сети, говорят полезное :)
DDD — Domain-Driven Design
Область применения: проектирование архитектуры проектов с учётом контекста
Суть подхода: архитектура системы строится вокруг предметной области бизнеса. Структура кода отражает реальные бизнес-процессы и сущности.
Как использовать с ИИ:
Опишите доменную модель — ключевые сущности, их связи и бизнес-правила
Передайте эту модель ИИ-ассистенту как контекст
Генерируйте код, который соответствует установленной доменной структуре
TDD — Test-Driven Development
Область применения: написание кода с помощью нейросети
Суть подхода: сначала пишутся тесты, затем код, который эти тесты проходит.
Как использовать с ИИ:
Напишите тесты, описывающие ожидаемое поведение
Передайте тесты ИИ-ассистенту
Попросите сгенерировать код, проходящий эти тесты
Проверьте результат, при необходимости уточните требования
Преимущества: тесты служат чёткой спецификацией и позволяют автоматически проверить корректность сгенерированного кода.
SDD — Spec-Driven Development
Область применения: совместная работа человека и нейросети
Суть подхода: разработка через детальные спецификации. Спецификация становится «контрактом» между человеком и ИИ.
Как использовать с ИИ:
Составьте детальную спецификацию — что система должна делать, какие входы и выходы, граничные случаи
Согласуйте спецификацию с ИИ-ассистентом — попросите уточнить неясные моменты
Передайте спецификацию для реализации
Сверяйте результат со спецификацией
Форматы спецификаций: OpenAPI/Swagger для API, JSON Schema для структур данных, user stories для функциональности, диаграммы для архитектуры.
Готовые скиллы для CC качать тут
фидбэк приветствуется
#skills #dev #DDD #TDD #SDD
———
@tsingular
DDD — Domain-Driven Design
Область применения: проектирование архитектуры проектов с учётом контекста
Суть подхода: архитектура системы строится вокруг предметной области бизнеса. Структура кода отражает реальные бизнес-процессы и сущности.
Как использовать с ИИ:
Опишите доменную модель — ключевые сущности, их связи и бизнес-правила
Передайте эту модель ИИ-ассистенту как контекст
Генерируйте код, который соответствует установленной доменной структуре
TDD — Test-Driven Development
Область применения: написание кода с помощью нейросети
Суть подхода: сначала пишутся тесты, затем код, который эти тесты проходит.
Как использовать с ИИ:
Напишите тесты, описывающие ожидаемое поведение
Передайте тесты ИИ-ассистенту
Попросите сгенерировать код, проходящий эти тесты
Проверьте результат, при необходимости уточните требования
Преимущества: тесты служат чёткой спецификацией и позволяют автоматически проверить корректность сгенерированного кода.
SDD — Spec-Driven Development
Область применения: совместная работа человека и нейросети
Суть подхода: разработка через детальные спецификации. Спецификация становится «контрактом» между человеком и ИИ.
Как использовать с ИИ:
Составьте детальную спецификацию — что система должна делать, какие входы и выходы, граничные случаи
Согласуйте спецификацию с ИИ-ассистентом — попросите уточнить неясные моменты
Передайте спецификацию для реализации
Сверяйте результат со спецификацией
Форматы спецификаций: OpenAPI/Swagger для API, JSON Schema для структур данных, user stories для функциональности, диаграммы для архитектуры.
Готовые скиллы для CC качать тут
фидбэк приветствуется
#skills #dev #DDD #TDD #SDD
———
@tsingular
1✍6😁6⚡1🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за продакшен и постпродакшен!
Пусть это видео сделает ваш день.
Все наши шутки про кнопку "сделать красиво" наконец-то обрели визуальную форму. И какую! Красную и прекрасную.
Это невыносимо хорошо.
P.S. Нанабанана для главного персонажа, и Veo3.1 для генерации видео.
Подробности тут:
https://www.linkedin.com/posts/simon-meyer-976339160_making-films-with-ai-is-so-easy-i-made-this-activity-7419317105386356736-1qoV/
Автор: https://www.instagram.com/simonmeyer_director/
@cgevent
Пусть это видео сделает ваш день.
Все наши шутки про кнопку "сделать красиво" наконец-то обрели визуальную форму. И какую! Красную и прекрасную.
Это невыносимо хорошо.
P.S. Нанабанана для главного персонажа, и Veo3.1 для генерации видео.
Подробности тут:
https://www.linkedin.com/posts/simon-meyer-976339160_making-films-with-ai-is-so-easy-i-made-this-activity-7419317105386356736-1qoV/
Автор: https://www.instagram.com/simonmeyer_director/
@cgevent
1👍14😐4😭3🔥2🤯1👾1
Forwarded from Data Secrets
OpenAI планирует брать долю от интеллектуальной собственности, созданной с помощью их моделей
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
«Мы думаем, что нормально брать долю на commerce layer и даже на discovery layer. <> Это нужно для устойчивости, чтобы финансировать AGI для блага человечества».
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
1🤔8 5👻3🦄2 2🤯1👀1🎃1
Shut up, and take my money!!!
Мониторинг работы *code агентов теперь выглядит так👍
Причём стоять они должны у начальника 😂
#claudecode #игрушки
------
@tsingular
Мониторинг работы *code агентов теперь выглядит так
Причём стоять они должны у начальника 😂
#claudecode #игрушки
------
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥12😁2👾2❤🔥1✍1👍1
Cursor 2.4: январское обновление
Cursor выпустил мощное обновление с субагентами, генерацией картинок, отчетом о том, кто писал код и фоновыми уточняющими вопросами.
Субагенты — независимые агенты для отдельных подзадач. Работают параллельно со своим контекстом, инструментами и моделями. Из коробки: исследование кодовой базы, терминал, параллельные потоки работы. Можно создавать кастомных агентов.
Генерация изображений — прямо из агента через Google Nano Banana Pro. Описываешь текстом или загружаешь референс → получаешь превью и файл в assets/. Полезно для UI-мокапов, диаграмм архитектуры и презентаций.
Cursor Blame (Enterprise) — расширение git blame с AI-атрибуцией. Показывает что написал человек, что Tab completion, что агент (с разбивкой по моделям). Каждая строка линкуется на контекст разговора, который её породил.
Теперь точно можно посчитать в граммах сколько написал челок, а сколько ИИ.
Фоновые уточняющие вопросы — агент может задавать вопросы в любом режиме (не только Plan/Debug). Пока ждёт ответа,- продолжает читать файлы и делать правки.
По сути, Cursor движется к полноценной оркестрации мультиагентной системой внутри редактора, - каждая подзадача получает специализированного исполнителя.
В принципе, Manus можно отменять.
#Cursor #Subagents #Blame
———
@tsingular
Cursor выпустил мощное обновление с субагентами, генерацией картинок, отчетом о том, кто писал код и фоновыми уточняющими вопросами.
Субагенты — независимые агенты для отдельных подзадач. Работают параллельно со своим контекстом, инструментами и моделями. Из коробки: исследование кодовой базы, терминал, параллельные потоки работы. Можно создавать кастомных агентов.
Генерация изображений — прямо из агента через Google Nano Banana Pro. Описываешь текстом или загружаешь референс → получаешь превью и файл в assets/. Полезно для UI-мокапов, диаграмм архитектуры и презентаций.
Cursor Blame (Enterprise) — расширение git blame с AI-атрибуцией. Показывает что написал человек, что Tab completion, что агент (с разбивкой по моделям). Каждая строка линкуется на контекст разговора, который её породил.
Теперь точно можно посчитать в граммах сколько написал челок, а сколько ИИ.
Фоновые уточняющие вопросы — агент может задавать вопросы в любом режиме (не только Plan/Debug). Пока ждёт ответа,- продолжает читать файлы и делать правки.
По сути, Cursor движется к полноценной оркестрации мультиагентной системой внутри редактора, - каждая подзадача получает специализированного исполнителя.
В принципе, Manus можно отменять.
#Cursor #Subagents #Blame
———
@tsingular
1🔥6⚡2👍2❤1
🐳 Docker Model Runner + OpenCode, - гайд по сборке безопасной среды для локальной ИИ разработки
Докер выпустили пошаговую инструкцию как скрестить opencode в контейнере с DMR и крутить модели и ИИ разраба локально в изолированной среде.
Docker Model Runner (DMR) при этом позволяет обеспечить:
- Локальный хаб-прокси для LLM с OpenAI-совместимым API
- Прямой пулл моделей с HuggingFace + автоконверсия в OCI-артефакты
- Переупаковка с кастомными параметрами (контекст, квантизация)
- Пуш в приватный registry → единый источник моделей для команды
Чем-то похоже по функционалу на ollama
Вместе получается: self-hosted AI-кодинг с управляемым пайплайном моделей. Промпты идут только на
#Docker #OpenCode #LocalLLM #HuggingFace
———
@tsingular
Докер выпустили пошаговую инструкцию как скрестить opencode в контейнере с DMR и крутить модели и ИИ разраба локально в изолированной среде.
Docker Model Runner (DMR) при этом позволяет обеспечить:
- Локальный хаб-прокси для LLM с OpenAI-совместимым API
- Прямой пулл моделей с HuggingFace + автоконверсия в OCI-артефакты
- Переупаковка с кастомными параметрами (контекст, квантизация)
- Пуш в приватный registry → единый источник моделей для команды
Чем-то похоже по функционалу на ollama
# пулл с HuggingFace
docker model pull huggingface.co/unsloth/Ministral-3-14B-Instruct-2512-GGUF
# кастомизация контекста
docker model package --from gpt-oss --context-size 128000 gpt-oss:128K
Вместе получается: self-hosted AI-кодинг с управляемым пайплайном моделей. Промпты идут только на
localhost:12434, версионирование моделей как артефактов, стандартизация в команде без ручной настройки у каждого.#Docker #OpenCode #LocalLLM #HuggingFace
———
@tsingular
1✍3👍2⚡1🤣1
И к российским новостям:
Депутаты Госдумы готовят законопроект, предусматривающий запрет на использование технологий синтеза человеческого голоса при телефонных обзвонах. Современные нейросети способны воспроизводить речь, неотличимую от речи живого человека, из-за чего становится практически невозможно определить, кто находится на другом конце линии — алгоритм или реальный собеседник. Этой уязвимостью всё чаще пользуются мошенники.
@banksta
Помянем TTS
#Россия #законы #TTS
------
@tsingular
Депутаты Госдумы готовят законопроект, предусматривающий запрет на использование технологий синтеза человеческого голоса при телефонных обзвонах. Современные нейросети способны воспроизводить речь, неотличимую от речи живого человека, из-за чего становится практически невозможно определить, кто находится на другом конце линии — алгоритм или реальный собеседник. Этой уязвимостью всё чаще пользуются мошенники.
@banksta
Помянем TTS
#Россия #законы #TTS
------
@tsingular
1👍12 11❤2🗿2✍1🍓1🦄1
Forwarded from Complete AI
🤓Самые полезные и результативные идеи чаще всего простые
Интересный инсайт от Han Xiao, VP AI @ Elastic. Ввиду того, что эмбеддинги лежат на сферической поверхности, простой трюк с переводом декартовых координат в сферические, позволяет значительно снизить объём памяти для их хранения: 240 ➡️ 160 Gb, при этом ошибка восстановления составляет всего 1e-7.
Без обучения, без кодбуков и работает на текстовых, картиночных и мультивекторных эмбеддингах💪
Интересный инсайт от Han Xiao, VP AI @ Elastic. Ввиду того, что эмбеддинги лежат на сферической поверхности, простой трюк с переводом декартовых координат в сферические, позволяет значительно снизить объём памяти для их хранения: 240 ➡️ 160 Gb, при этом ошибка восстановления составляет всего 1e-7.
Без обучения, без кодбуков и работает на текстовых, картиночных и мультивекторных эмбеддингах💪
1🔥13✍4
Forwarded from Russian OSINT
Январь 2026 года ознаменовался громким скандалом вокруг обнаружения более 50 научных работ с грубыми ошибками со стороны LLM на престижной конференции NeurIPS*.
NeurIPS 2025* — международная площадка, на которой обсуждаются прорывные исследования в области искусственного интеллекта, машинного обучения, статистики, оптимизации и смежных дисциплин. Проводится ежегодно с 1987 года и традиционно привлекает учёных, исследователей, инженеров, разработчиков и представителей индустрии из десятков стран.
Команда исследователей GPTZero проанализировала 4841 научную работу с прошедшей конференции NeurIPS 2025 и выявила более 100 подтвержденных случаев выдуманного цитирования в 53 уже опубликованных статьях.
Анализ команды GPTZero выявил то, что исследователи из ведущих мировых центров вроде Нью-Йоркского университета, Google DeepMind и MIT допустили публикацию сгенерированного текста с вымышленными фактами и даже не перепроверили текст на галлюцинации.
Например, в одной из работ зафиксирован рекорд из 13 галлюцинаций со ссылками на несуществующие препринты формата arXiv:2305.XXXX и авторов с шаблонными именами Firstname Lastname. Команды из UCSD и NVIDIA в своих библиографических списках на полном серьезе ссылаются на вымышленных персонажей John Smith и Jane Doe.
Ещё ИИ-модели создают правдоподобно выглядящие, но несуществующие источники путем смешивания реальных элементов. Алгоритм берет имена настоящих ученых и приписывает им работы, которые они никогда не писали, или же соединяет реальный заголовок с вымышленным списком авторов.
Третий тип ошибок связан с неверной атрибуцией реально существующих работ. ИИ-решения часто правильно указывают авторов и название исследования, но ошибаются в месте его публикации (например, указывают конференцию NeurIPS вместо ICLR) или годе выпуска. В отчете зафиксированы случаи, когда статья 2024 года цитируется как опубликованная в 2020 году. Такие ошибки сложнее всего отследить, так как сама научная работа существует, но ссылка на нее в контексте статьи является фактологически неверной.
🤔 Алекс Цуй из GPTZero справедливо задается вопросом о том, что "если авторы не проверяют, что ИИ пишет в их статьях, то как вы можете доверять тому, что их экспериментальные результаты или данные также не сфабрикованы ИИ?".
Просто невероятно, что они прошли рецензирование!
— пишет GPTZero.
В чём безумие и возмущение исследователей?
🤦♂️ Научные работы уже официально обнародованы. Алекс Цуй в своем отчете прямо указывает: «К сожалению, исправлять эти статьи уже поздно — они были опубликованы и представлены 20 000 человек в декабре 2025 года».
Кризис рецензирования усугубляется взрывным ростом количества заявок на 220% за последние пять лет. Рецензенты просто не успевают качественно проверять достоверность каждого библиографического списка.
Исследователи даже шутливо (а может и нет) вводят новое понятие «вайб-цитирование» (Vibe Citing) по аналогии с «вайб-кодингом». Печаль, тоска, ИИтоги.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯6🔥3❤1💯1