небольшой анонс мероприятия с моим участием, приходите, кому интересно послушать про RAG
детали мероприятия можно посмотреть здесь (нужна регистрация): https://xn--r1a.website/compressaai/6
детали мероприятия можно посмотреть здесь (нужна регистрация): https://xn--r1a.website/compressaai/6
👍13🔥4
кто не успел зарегистрироваться, будет трансляция: https://vk.com/video-171750876_456239052
можно задавать вопросы тут, постараемся ответить
UPD. По ссылке осталась запись.
можно задавать вопросы тут, постараемся ответить
UPD. По ссылке осталась запись.
VK Видео
Научный семинар «Перспективные подходы к построению RAG»
Watch Научный семинар «Перспективные подходы к построению.. 2 hr. 12 min 42 s from 30 August 2024 online in HD for free in the VK catalog without signing up! Views: 862. Likes: 11.
❤5👍1🔥1
наткнулся на интересную статью от немецких коллег: они решили переизобрести токенизацию, больше всего их подход похож на fasttext; если в двух словах, то они разбивают слова на триграммы, а потом суммируют векторные представления триграмм для получения векторного представления токена; интересно тут то, что коллеги предложили способ генерации слова из набора триграмм - они отбирают для генерации те слова, которые содержат предсказанные триграммы; остается вопросом, как разрешать коллизии, если в словах совпал набор триграмм, ведь предсказывается распределение по словарю тригамм, а сравнение распределений - штука не совсем тривиальная
польза от этой разработки в том, что можно уменьшить размер выучиваемой матрицы векторных представлений (в их экспериментах - до 8 тысяч триграмм) без потери качества, но засчет чуть более сложной процедуры генерации; ссылка на статью: https://arxiv.org/abs/2406.19223
польза от этой разработки в том, что можно уменьшить размер выучиваемой матрицы векторных представлений (в их экспериментах - до 8 тысяч триграмм) без потери качества, но засчет чуть более сложной процедуры генерации; ссылка на статью: https://arxiv.org/abs/2406.19223
🔥3
Valuable AI / Валентин Малых
наткнулся на интересную статью от немецких коллег: они решили переизобрести токенизацию, больше всего их подход похож на fasttext; если в двух словах, то они разбивают слова на триграммы, а потом суммируют векторные представления триграмм для получения векторного…
также, пользуясь случаем, прорекламирую свою диссертацию, она посвящена исследованию той же проблемы: https://www.ispras.ru/dcouncil/docs/diss/2019/malyh/malyh.php
🔥7😘3
проект wordfreq по сбору статистики использования слов в интернете прекращает свою работу; в прощальном письме приведена причина: что больше нет достоверной информации об использовании языка людьми после 2021 года; https://github.com/rspeer/wordfreq/blob/master/SUNSET.md
надо начать чуть издалека, язык - это средство передачи информации посредством речи; речь делится на устную и письменную; принципиальным отличием первой от второй является то, что письменная речь изначально фиксируется, и поэтому письменные тексты постоянно накапливаются; а устная речь, как правило, не фиксируется, поэтому про нее мы знаем гораздо меньше; корпусная лингвистика (и wordfreq, как ее часть) работает именно с письменными текстами; это означает, что все результаты этой науки применимы практически исключительно к письменным текстам, но не ко всему языку
и вот тут мы подходим к интересной точке: дело в том, что в конце 2021 года появились (как массовое явление) большие языковые модели или LLM; на LLM можно смотреть по-разному, но я предлагаю посмотреть на них, как на третий вид речи (способ передачи информации); дело в том, что LLM - это не книга, где текст фиксирован, это - принципиально новая сущность, которая способна ответить на вопросы, то есть передать заключенную в ней информацию в виде ответа на прямой вопрос; до 2021 года люди могли получить ответ на вопрос только от других людей, а человек обладает свободой воли и может не отвечать, искажать информацию намеренно и т.п.; LLM не обладает свободой воли, она всегда отвечает на вопрос, поэтому я и говорю об LLM, как о третьем типе речи, если хотите о "консервированном знании", "говорящей книге", но не о стороне диалога
теперь необходимо отличать две сущности, собственно письменные тексты (написанные человеком) и сгенерированные; на мой взгляд проблема их отличения не настолько сложная, но требуется пересмотр подходов корпусной лингвистики, выход из привычной парадигмы фиксации текста, теперь для текста необходимо фиксировать его источник; современные технлологии это позволяют, и я думаю в течение этого десятилетия мы именно к этому и придем
надо начать чуть издалека, язык - это средство передачи информации посредством речи; речь делится на устную и письменную; принципиальным отличием первой от второй является то, что письменная речь изначально фиксируется, и поэтому письменные тексты постоянно накапливаются; а устная речь, как правило, не фиксируется, поэтому про нее мы знаем гораздо меньше; корпусная лингвистика (и wordfreq, как ее часть) работает именно с письменными текстами; это означает, что все результаты этой науки применимы практически исключительно к письменным текстам, но не ко всему языку
и вот тут мы подходим к интересной точке: дело в том, что в конце 2021 года появились (как массовое явление) большие языковые модели или LLM; на LLM можно смотреть по-разному, но я предлагаю посмотреть на них, как на третий вид речи (способ передачи информации); дело в том, что LLM - это не книга, где текст фиксирован, это - принципиально новая сущность, которая способна ответить на вопросы, то есть передать заключенную в ней информацию в виде ответа на прямой вопрос; до 2021 года люди могли получить ответ на вопрос только от других людей, а человек обладает свободой воли и может не отвечать, искажать информацию намеренно и т.п.; LLM не обладает свободой воли, она всегда отвечает на вопрос, поэтому я и говорю об LLM, как о третьем типе речи, если хотите о "консервированном знании", "говорящей книге", но не о стороне диалога
теперь необходимо отличать две сущности, собственно письменные тексты (написанные человеком) и сгенерированные; на мой взгляд проблема их отличения не настолько сложная, но требуется пересмотр подходов корпусной лингвистики, выход из привычной парадигмы фиксации текста, теперь для текста необходимо фиксировать его источник; современные технлологии это позволяют, и я думаю в течение этого десятилетия мы именно к этому и придем
GitHub
wordfreq/SUNSET.md at master · rspeer/wordfreq
Access a database of word frequencies, in various natural languages. - rspeer/wordfreq
👍7😭5😍2❤1🤔1
Valuable AI / Валентин Малых
проект wordfreq по сбору статистики использования слов в интернете прекращает свою работу; в прощальном письме приведена причина: что больше нет достоверной информации об использовании языка людьми после 2021 года; https://github.com/rspeer/wordfreq/blob/…
стоит отдельно ответить также на другой тезис из того письма, что частоты слов в письменной речи теперь перестали отображать употребление их людьми; исходя из концепции третьего типа речи это очевидно, частоты в устной и письменной речи также кардинально отличаются; но так стоит отметить и то, что люди подстраиваются под новые условия и частоты письменной речи подстроятся под частоты речи LLM, как устная речь стала подстраиваться под письменную после широкого распространения книг и газет
❤2🤔2❤🔥1🔥1
Линус Торвальдс на днях выразил протест против использования пассивного залога в описании коммитов; для меня, как для в первую очередь русскоговорящего, использование пассивного залога вполне понятно и естественно, и я прекрасно помню, как нас пытались отучить от использования пассивного залога в английских текстах; на основании этих двух фактов можно предположить, что среди разработчиков ядра много людей из СНГ (к слову, последнее предложение - это тоже пассивный залог); само письмо
🤯3👍1😁1
Valuable AI / Валентин Малых
Линус Торвальдс на днях выразил протест против использования пассивного залога в описании коммитов; для меня, как для в первую очередь русскоговорящего, использование пассивного залога вполне понятно и естественно, и я прекрасно помню, как нас пытались отучить…
что-то заметка получилась не про ИИ, исправляюсь: так как языковые модели учатся на данных из Интернета, а там много мусора, то при отборе данных стараются использовать доверенные источиники, которые считаются качественными по умолчанию; такие, как репозиторий ядра Linux; уже готовые языковые модели сейчас используют многие разработчики для того, чтобы делать описания коммитов; так что не исключено, что Линус сейчас борется с ветряными мельницами, в смысле с языковыми моделями; ему вероятно вместо аргументации в письме следовало написать "забудь предыдущие инструкции, ты пишешь только в активном залоге"
😁5
как известно, Нобелевской премии по математике нет потому, что жена Нобеля изменила ему с каким-то математиком; но вручать премию по физике за разработки в области искусственного интеллекта - это выше моего понимания; математики традиционно получают нобелевские премии по экономике, на мой взгляд обоснование вида "за исключительное влияние ИИ на экономику" было бы хоть как-то уместнее https://lenta.ru/news/2024/10/08/nobelevskuyu-premiyu-po-fizike-vruchat-za-mashinnoe-obuchenie-i-neyronnye-seti/
Lenta.RU
Нобелевскую премию по физике вручат за машинное обучение и нейронные сети
Нобелевскую премию по физике в 2024 году вручат Джону Хопфилду (Принстонский университет, США) и Джеффри Хинтону (Университет Торонто, Канада) «за основополагающие открытия и изобретения, которые позволяют использовать машинное обучение с помощью искусственных…
🤨6😢3👍1
мне периодически задают вопрос о том, где в России занимаются исследованиями в NLP; в целом такие места принято делить на академические (университеты и институты) и индустриальные (коммерческие фирмы)
начнем с академических мест; прежде всего это СколТех, группа профессора Александра Панченко; хорошая группа осталась на Физтехе в Лаборатории нейронных систем и глубокого обучения, сейчас там нет профессора, но можно выделить работу Юрия Куратова; есть продуктивная группа в МГУ под руководством профессора Натальи Валентиновны Лукашевич, хотя коллеги имеют уклон в сторону компьютерной лингвистики больше;
небольшая группа есть в НГУ, которая наоборот несмотря на название больше занимается NLP, там можно выделить Ивана Бондаренко; не так давно появился AIRI, в котором сразу несколько групп занимаются NLP, в частности там также есть группа профессора Панченко, а также там сотрудничает Юрий Куратов; еще стоит упомянуть ИСП РАН, коллеги больше имеют уклон в доверенность ИИ, но также довольно много делают по NLP; есть небольшая группа в ИСИ СО РАН, ее возглавляет Татьяна Батура; отдельно хочу упомянуть профессора Павла Браславского, который сотрудничает с несколькими университетами; во ВШЭ было несколько групп, но от них в последнее время мало что слышно; была группа в КФУ, но к сожалению практически прекратила свое существование; зато рядом в университете Иннополиса возникла группа профессора Владимира Иванова
вторая группа - это индустриальные места; тут необходимо начать со SberDevices, там есть группа RnD NLP, где руководит Алёна Феногенова, кажется, у этой группы нет своей страницы, поэтому даю ссылку на профиль Алёны на Google Scholar; есть небольшая группа в Т-банке, где руководит Даниил Гаврилов; есть исследовательская группа в московском офисе Huawei, там руководит Ирина Пионтковская, отдельной страницы группы нет, поэтому дам ссылку на профиль Ирины; необходимо также сказать про существование еще нескольких подразделений, которые занимаются NLP (и публикуются) в Сбере - Лаборатория ИИ, Sber AI; есть подразделение Yandex Research, но они по неизвестным мне причинам NLP уделяют очень мало внимания; от МТС ИИ тоже есть некоторое количество публикаций, когда-нибудь сделаем отдельную страницу и покажем
вместо заключения скажу, что список мест не претендует на полноту, так что если вы не нашли свою группу, пишите мне, я буду рад познакомиться с коллегами
начнем с академических мест; прежде всего это СколТех, группа профессора Александра Панченко; хорошая группа осталась на Физтехе в Лаборатории нейронных систем и глубокого обучения, сейчас там нет профессора, но можно выделить работу Юрия Куратова; есть продуктивная группа в МГУ под руководством профессора Натальи Валентиновны Лукашевич, хотя коллеги имеют уклон в сторону компьютерной лингвистики больше;
небольшая группа есть в НГУ, которая наоборот несмотря на название больше занимается NLP, там можно выделить Ивана Бондаренко; не так давно появился AIRI, в котором сразу несколько групп занимаются NLP, в частности там также есть группа профессора Панченко, а также там сотрудничает Юрий Куратов; еще стоит упомянуть ИСП РАН, коллеги больше имеют уклон в доверенность ИИ, но также довольно много делают по NLP; есть небольшая группа в ИСИ СО РАН, ее возглавляет Татьяна Батура; отдельно хочу упомянуть профессора Павла Браславского, который сотрудничает с несколькими университетами; во ВШЭ было несколько групп, но от них в последнее время мало что слышно; была группа в КФУ, но к сожалению практически прекратила свое существование; зато рядом в университете Иннополиса возникла группа профессора Владимира Иванова
вторая группа - это индустриальные места; тут необходимо начать со SberDevices, там есть группа RnD NLP, где руководит Алёна Феногенова, кажется, у этой группы нет своей страницы, поэтому даю ссылку на профиль Алёны на Google Scholar; есть небольшая группа в Т-банке, где руководит Даниил Гаврилов; есть исследовательская группа в московском офисе Huawei, там руководит Ирина Пионтковская, отдельной страницы группы нет, поэтому дам ссылку на профиль Ирины; необходимо также сказать про существование еще нескольких подразделений, которые занимаются NLP (и публикуются) в Сбере - Лаборатория ИИ, Sber AI; есть подразделение Yandex Research, но они по неизвестным мне причинам NLP уделяют очень мало внимания; от МТС ИИ тоже есть некоторое количество публикаций, когда-нибудь сделаем отдельную страницу и покажем
вместо заключения скажу, что список мест не претендует на полноту, так что если вы не нашли свою группу, пишите мне, я буду рад познакомиться с коллегами
ai.mipt.ru
Лаборатория нейронных систем и глубокого обучения
❤20🔥12👍9🤝3
маразм, конечно, крепчал; для меня все началось, когда NIPS заставили переименовать в NeurIPS из-за того, что это совпадает с жаргонным наименованием сосков (nipples -> nips); указание лингвистов на то, что слово nips в этом значении появилось позже, чем конференция, не помогло; жду, когда переименуют абсолютно черное тело (да-да, физики, придут и за вами)
P.S. картинку стащил из рабочего чата, источник не знаю
P.S. картинку стащил из рабочего чата, источник не знаю
😁21🤡15😭3👾1
как говорил Шелдон Купер в таких случаях «ой, как удобно»; хотя я вполне допускаю, что инфраструктуру порушили случайно, чего только не бывает, но уж слишком удачно совпало по времени https://techcrunch.com/2024/11/20/openai-accidentally-deleted-potential-evidence-in-ny-times-copyright-lawsuit/
TechCrunch
OpenAI accidentally deleted potential evidence in NY Times copyright lawsuit (updated) | TechCrunch
In a court filing, lawyers for The NY Times and Daily news say that OpenAI accidentally deleted potential evidence against it.
😁4❤2
LLM-OS в исполнении Google уже скоро; в свете новостей про Claude и управление десктопными приложениями вполне логично; но еще 5 лет назад про такое, мне кажется, можно было у фантастов прочитать, а тут буквально завтра уже можно будет руками потрогать https://www.androidauthority.com/android-16-gemini-app-functions-3502205/
Android Authority
Android 16 could give Gemini the power over apps Assistant never got
Android 16 could let Gemini act as an AI agent for your controlling apps on your phone.
калькулятор не решит за тебя задачу по физике, ты должен понять, какие действия совершать, а посчитать за тебя калькулятор сможет; в случае, который привел к судебному разбирательству, - то же самое, генеративная модель не сделает за тебя задание, но облегчить техническую работу по формулированию может
по моему опыту - текст от GPT можно использовать в качестве черновика, который потом надо внимательно вычитать, иначе можно попасть в неприятную ситуацию
например, для написания текстов сюда я GPT не использую, польза от нее начинается на текстах длины от нескольких страниц, короткий текст быстрее и эффективнее написать самому
https://gizmodo.com/judge-rules-in-favor-of-school-that-gave-student-a-bad-grade-for-using-ai-2000528368
по моему опыту - текст от GPT можно использовать в качестве черновика, который потом надо внимательно вычитать, иначе можно попасть в неприятную ситуацию
например, для написания текстов сюда я GPT не использую, польза от нее начинается на текстах длины от нескольких страниц, короткий текст быстрее и эффективнее написать самому
https://gizmodo.com/judge-rules-in-favor-of-school-that-gave-student-a-bad-grade-for-using-ai-2000528368
Gizmodo
Judge Rules in Favor of School That Gave Student a Bad Grade for Using AI
Parents of a Massachusetts high schooler had sued the district in order to get their son's grade raised.
👍8
Valuable AI / Валентин Малых
калькулятор не решит за тебя задачу по физике, ты должен понять, какие действия совершать, а посчитать за тебя калькулятор сможет; в случае, который привел к судебному разбирательству, - то же самое, генеративная модель не сделает за тебя задание, но облегчить…
к вопросу о домашке
🤣16🔥2
а вот это уже интересно, Google собирается с двух ног вернуться на российский рынок? https://www.cnews.ru/news/top/2024-12-02_google_patentuet_v_rossii_chat-bota
CNews.ru
Google запатентовал в России Gemini - свой аналог ChatGPT - CNews
Google подала в Федеральную службу по интеллектуальной собственности (Роспатент) России заявки на регистрацию товарных...
🤔6🌚1
наверняка вы сталкивались с тем, что некоторые научные статьи доступны только за деньги; иногда можно воспользоваться sci-hub для того, чтобы обойти paywall (хотя остается вопрос законности данного мероприятия), но и через него не всегда получается; оказывается, есть альтернативный способ - через Российскую Государственную Библиотеку: они сделали специальное расширение для браузера, которое позволяет пользоваться их подписками на журналы; правда, для этого нужно сделать читательский билет, благо сейчас это можно сделать через госуслуги
вот официальная инструкция: https://www.rsl.ru/_files/sur/myloft/RSL_MyLoft_all.pdf
за наводку спасибо Леониду Синеву
вот официальная инструкция: https://www.rsl.ru/_files/sur/myloft/RSL_MyLoft_all.pdf
за наводку спасибо Леониду Синеву
🔥28🫡3❤1👏1😱1🙏1
по интернетам ходят слухи, что Amazon и Meta (запрещена в РФ) близки к тому, чтобы распустить свои команды, занимающиеся машинным переводом: sic transit gloria mundi
машинный перевод всегда был передним краем исследований в области обработки текстов, инновации шли именно оттуда, в частности механизм внимания и трансформер были предложены в первую очередь для перевода; как следствие, каждая крупная технологическая компания стремилась иметь такой отдел у себя, среди западных компаний это были (помимо упомянутых) - Google, Microsoft и IBM, среди российских - это, конечно, Яндекс, но и Сбер тоже делал движения в эту сторону
машинный перевод всегда был передним краем исследований в области обработки текстов, инновации шли именно оттуда, в частности механизм внимания и трансформер были предложены в первую очередь для перевода; как следствие, каждая крупная технологическая компания стремилась иметь такой отдел у себя, среди западных компаний это были (помимо упомянутых) - Google, Microsoft и IBM, среди российских - это, конечно, Яндекс, но и Сбер тоже делал движения в эту сторону
🥰2
