Valuable AI / Валентин Малых
1.88K subscribers
448 photos
55 videos
2 files
439 links
личный канал про ИИ
Download Telegram
пришла новость, девелопер MR Group будет внедрять Алису, как "цифрового консьержа"; с одной стороны - дело хорошее, но меня это все несколько смущает в свете недавних новостей про то, что Claude будет автоматически оповещать соответствующие органы, если пользователь будет запрашивать что-то противозаконное; я готов поставить на то, что так сказать лучшие практики Яндекс переймет у коллег из-за океана очень быстро, как не раз уже бывало
🫡7👍4🔥2🤔2👎1🤯1😱1
сообщают, что устав бороться с ChatGPT преподаватели в США начали переходить обратно на тетради, в смысле на прием работ в письменной форме; тут велик соблазн сказать, что это современные луддиты, но я думаю, что тут скорее уместна другая аналогия - с калькуляторами в российских школах; когда я учился их еще запрещали, сейчас, насколько я знаю, разрешили

проблема не в калькуляторах, а в том, чему и как мы учимся; учиться писать тексты важно, но важно уметь именно выражать свои мысли; в выражении принципиально важна логическая структура, а саму техническую работу по красивым формулировкам можно оставить и ChatGPT; на мой взгляд тут полная аналогия с программированием

@valuableai
👍8🤔2👎1😱1🤣1
ой, как нехорошо получилось

утащил из дружеского чатика, за аутентичность не ручаюсь
😁41🤣5😱4
к вопросу о технологической нейтральности: официально объявлено о создании подразделения “Executive Innovation Corps” в Армии США; туда войдут директора топовых ИИ-компаний
On Friday, the service is set to swear-in Meta’s chief technology officer Andrew Bosworth, OpenAI’s chief product officer Kevin Weil, Palantir’s CTO Shyam Sankar and Bob McGrew, an advisor at Thinking Machines Lab who was previously OpenAI’s chief research officer.
🤔7💯1
недавно в новостях привели фразу Сундара Пичаи (CEO Google):
Google CEO Sundar Pichai says There's a new term for the current phase of AI: "AJI."
It stands for "artificial jagged intelligence," and is the precursor to AGI.

первым это определение придумал Андрей Карпаты (автор термина вайб-кодинг), но на мой взгляд тут интересно не авторство, а семантика термина: jagged переводится, как "зазубренный" и смысл такого определения в том, что современные ИИ-модели очень хороши в чем-то одном, но при этом совершенно элементарные вещи делать не способны (типа посчитать, сколько "r" в слове "strawberry"); и тут вступает в игру уже семантика русского языка, в котором есть близкое по звучанию слово "зубрежка", обозначающее заучивание ответов; и как раз зубрежка лучше всего подходит для описания процесса обучения современных LLM; так что предлагаю все ИИ-модели называть зубрами тут уместно вспомнить, высказывание Козьмы Пруткова: "специалист подобен флюсу, и полнота его одностороння"
👍8🤔5🔥32💯2
кто про что, а я про RNN-ки; тут вышла работа, в которой показано, что постепенное обучение (c подкреплением, конечно) сначала подзадачам, а потом на основе них - сложным задачам (первая картинка), эффективно, как для животных (вторая картинка), так и для RNN (третья картинка, обратите внимание на ушки у компьютера); само по себе это не новость, но в этой работе показано, что именно сам процесс обучения у животных и RNN схож
🔥19👍2
вышла статья с на мой взгляд сбивающим с толку названием "Reinforcement Pre-Training"; с толку оно сбивает потому, что они фактически работают с уже предобученной моделью и просто ее вот так хитро дообучают; хитрость заключается в том, что они стандартную задачу предсказания следующего токена решают с помощью размышлений (как показано на первой картинке); очевидно, что так (предсказывая цепочку рассуждений для каждого токена) было бы очень долго и неэффективно тренировать, поэтому они маленькой моделькой сначала выбирают токены, на которых большая перплексия и дообучаются только на них; за счет этого трюка они на два процента смогли поднять качество на бенчмарках (вторая картинка)
👍7🤔4
тут пишут, что один сообразительный молодой человек из Индии вышел на новую работу, ничего не делал целый месяц, а когда у него потребовали продемонстрировать результат за 6 часов работы при помощи Cursor сделал работающий прототип приложения; в новости пишут, что он выгорел и не мог работать, что он работал удаленно, а заканчивают многоумной фразой, что "это поднимает этические вопросы про выгорание и удаленную работу"

на мой взгляд больше всего это поднимает вопросы к менеджеру данного молодого человека - если за целый месяц человек ни строчки кода не написал (будучи программистом), то это - серьезный звоночек
😁8🤔2🔥1😱1💯1
мне тут пришло письмо, ищут интересующихся жепой, могу дать контакт, если кто загорелся

P.S. к слову, недавно ЛеКун представил вторую версию визуальной жепы - для роботов
😁161
сегодня - новое видео, я в среду ходил на конференцию ItSec, рассказывал, как можно c помощью этих наших LLM искать уязвимости

P.S. в нашей секции были и другие интересные доклады, их можно посмотреть всем скопом тут
🔥83👍2
коллеги из AIRI и СколТеха (привет, Андрей!) выпустили очень интересный препринт; базовая идея из него показана на первой картинке, а на второй - прогнозируемый результат; если описывать это простыми словами, то дело в том, что при использовании т.н. самодистилляции - обучении модели на своих собственных выводах - получается "заострить" выдаваемое распределение, что позволяет получить до 20% прибавки на современных рассуждательных бенчмарках (AIME, MATH500)

насколько я понял, данная работа вдохновлена недавней работой TTRL (обсуждали месяц назад), только вместо генерирования псевдометок тут коллеги работают напрямую с логитами
🔥92😱1
полностью согласен с CEO GitLab:
ИИ-помощники для программирования, такие как GitLab Duo, приведут к увеличению числа сотрудников, поскольку теперь писать код можно без глубоких технических навыков

я сам писал про это месяц назад, правда, в контексте того, что станет больше работы для профессиональных программистов - надо будет переписывать за вайб-кодерами; однако, очевидно, что вайб-кодеры будут кратно превосходить по числу профессиональных программистов
🔥10💯1
в тему вчерашнего поста, Андрей Карпаты (без дураков - один из самых интересных ИИ-визионеров) высказался на тему того, что теперь уже есть ПО 3.0 (7 лет назад он говорил про ПО 2.0 - машинное обучение, я разбирал это недавно), а теперь вот ПО 3.0

так он называет промт-инжиниринг, то есть написание запросов к LLM на естественном языке для выполнения какой-то работы; что интересно, больше года назад аналогичную мысль, только менее пафосно, высказывал один китайский товарищ гендир Baidu; а если совсем по-честному, то это на мой взгляд реализация давнишней (аж 1984 года) идеи Кнута про "литературное программирование"; 40 лет назад мощностей не хватало, поэтому реализовано было довольно примитивно, зато сейчас это развернулось на всю мощь
👍19🔥2🤔1
New York Times пишет, что рекрутеры не справляются с потоком сгенерированных резюме и агентами, которые общаются с рекрутерами агентами рекрутеров

это уже было с художниками, уже было с опенсорсом; дивный новый мир наступает довольно быстро
👍14😁9😱2💯1
Коллеги уже в пятый раз проводят научную конференцию при поддержке IEEE, посвященную проблемам качества программного кода: ICCQ. В этом году программный комитет возглавляет Александр Иванович Легалов, профессор ВШЭ. Все остальные члены ПК — ученые не из России, в том числе два ACM Fellow. До 10-го августа принимают доклады. Принятые статьи будут опубликованы в IEEE Xplore и индексированы в Scopus.
👍6🔥3
вероятно, не все в курсе (как и я был в свое время), что существует отдельная наука по изучению Библии - библеистика (первая картинка для привлечения внимания), она не имеет ничего общего с теологией, это именно изучение текстов, как исторических памятников; ну а где тексты, там и NLP, само собой; (слава богу, LLM сюда еще не добрались)
вышла работа, посвященная определению авторства разных книг в Библии (утверждается, что в Ветхом Завете было как минимум три группы авторов); к задаче определения авторства применили довольно я бы сказал ветхозаветные методы NLP: лемматизация и потом мешок слов; дальше между получившимися мешками таблицами частот применяют метод сравнения, похожий на обычный t-критерий Стьюдента (вторая картинка); на основании построенной модели делают разные выводы для отдельных библейских текстов, за деталями отсылаю к оригинальной статье

P.S. в качестве бонуса могу порекомендовать книгу внезапно Пола Верховена (автора самого первого Робокопа и Шоу гёрлз, на минуточку) "Иисус из Назарета"
🔥12👍5😁1🤔1😱1🎉1