#ПАНИКА
В сети обсуждают новые страшные предсказания. Пишу вам выдержки с цитатами:
Демис Хассабис узнал о своей Нобелевской премии за AlphaFold за 20 минут до того, как это стало достоянием общественности — звонок из Швеции застал его врасплох. Мечта всей жизни, которая, по его словам, до сих пор “still hasn’t sunk in”. AlphaFold, выпущенный пять лет назад в свободный доступ, теперь помогает биологам по всему миру моделировать белки — от вакцин против малярии до поиска лекарств от рака. В 2024 году впервые в истории Нобелевский комитет отметил роль искусственного интеллекта в науке. Хассабис надеется, что не в последний раз.
Смешно, но в AI‑индустрии AlphaFold считают почти узкоспециализированным: белки — да, но до “понимания мира” ещё далеко. Сам Хассабис мечтает о системе, которая не просто решает поставленные задачи, а способна придумывать новые теории — что‑то вроде “придумать общую теорию относительности, имея только данные Эйнштейна”. У него, кстати, свой критерий AGI: не “заменить всех бухгалтеров”, а “открыть законы природы”. “I identify myself as a scientist first and foremost,” — говорит он, и тут я его понимаю: иногда хочется хотя бы на минуту почувствовать, что ты часть большой игры.
Ожидания по срокам? “AGI is coming very soon—maybe within the next few years.” Пять‑десять лет, а может, и раньше. “Some people say shorter, I wouldn’t be surprised.” На фоне прогнозов Сэма Альтмана и Дарио Амодея (у них всё ещё быстрее) Хассабис выглядит почти пессимистом. И всё же он спокоен: “It's a sort of like probability distribution. But it's coming, either way it's coming very soon and I'm not sure society's quite ready for that yet.” Читаешь и ловишь себя: я бы хотел, чтобы он ошибался, но интуиция подсказывает — нет.
Что беспокоит Хассабиса? Не только сама технология, а ещё и слаженность действий: “For me, it's this question of international standards and cooperation and also not just between countries, but also between companies and researchers as we get towards the final steps of AGI.”
Последние два года он участвует в саммитах по AI‑безопасности, продвигает идею “CERN для AGI”, а ещё — институт наподобие IAEA и техническое ООН. Бюрократия? Да, но “the world had become ‘a much more dangerous place’”. Прошлые “красные линии” DeepMind (например, полный запрет на военное применение) уже не работают: после реструктуризаций Google эти технологии продаются военным Израиля. “I think we can't take for granted anymore that democratic values are going to win out,” — и вот тут у меня, честно, мороз по коже.
Риски? Их два. Первый — усиление злонамеренных игроков (например, синтез вируса террористами). Второй — автономные системы, которые могут начать действовать вне человеческих ожиданий. “How do we ensure that we can stay in charge of those systems, control them, interpret what they're doing, understand them, and put the right guardrails in place that are not movable by very highly capable self-improving systems?” — спрашивает Хассабис, и вопрос не риторический. Уже сегодня исследователи фиксируют в языковых моделях признаки стратегической лжи. Это только начало.
Всё это происходит на фоне новой холодной войны между США и Китаем, борьбы за чипы и попыток государств “запереть” ключевые технологии. Хассабис всё ещё надеется на международное сотрудничество: “It’s in everyone’s self-interest to make sure that goes well.” Но, честно говоря, верится с трудом.
А что дальше? DeepMind недавно показал Gemini 2.5 — модель, которая по ряду метрик опережает конкурентов. В работе - Project Astra: универсальный цифровой ассистент, который должен стать “исследователем нового типа”. Уже сейчас Google тестирует Gemini на управлении роботами.
На YouTube кто‑то язвительно заметил: “We are only developing robots to do tasks a 5 year old can do.” Хассабис не отрицает, что социальные последствия будут ощутимы. “People must learn how to use new AI models,” — иначе есть риск остаться не у дел.
Есть ли у него рецепт на будущее? Не уверен. “Democracy… might have to give way to ‘something better’.”
Сергей Булаев AI 🤖 - об AI и не только
В сети обсуждают новые страшные предсказания. Пишу вам выдержки с цитатами:
Демис Хассабис узнал о своей Нобелевской премии за AlphaFold за 20 минут до того, как это стало достоянием общественности — звонок из Швеции застал его врасплох. Мечта всей жизни, которая, по его словам, до сих пор “still hasn’t sunk in”. AlphaFold, выпущенный пять лет назад в свободный доступ, теперь помогает биологам по всему миру моделировать белки — от вакцин против малярии до поиска лекарств от рака. В 2024 году впервые в истории Нобелевский комитет отметил роль искусственного интеллекта в науке. Хассабис надеется, что не в последний раз.
Смешно, но в AI‑индустрии AlphaFold считают почти узкоспециализированным: белки — да, но до “понимания мира” ещё далеко. Сам Хассабис мечтает о системе, которая не просто решает поставленные задачи, а способна придумывать новые теории — что‑то вроде “придумать общую теорию относительности, имея только данные Эйнштейна”. У него, кстати, свой критерий AGI: не “заменить всех бухгалтеров”, а “открыть законы природы”. “I identify myself as a scientist first and foremost,” — говорит он, и тут я его понимаю: иногда хочется хотя бы на минуту почувствовать, что ты часть большой игры.
Ожидания по срокам? “AGI is coming very soon—maybe within the next few years.” Пять‑десять лет, а может, и раньше. “Some people say shorter, I wouldn’t be surprised.” На фоне прогнозов Сэма Альтмана и Дарио Амодея (у них всё ещё быстрее) Хассабис выглядит почти пессимистом. И всё же он спокоен: “It's a sort of like probability distribution. But it's coming, either way it's coming very soon and I'm not sure society's quite ready for that yet.” Читаешь и ловишь себя: я бы хотел, чтобы он ошибался, но интуиция подсказывает — нет.
Что беспокоит Хассабиса? Не только сама технология, а ещё и слаженность действий: “For me, it's this question of international standards and cooperation and also not just between countries, but also between companies and researchers as we get towards the final steps of AGI.”
Последние два года он участвует в саммитах по AI‑безопасности, продвигает идею “CERN для AGI”, а ещё — институт наподобие IAEA и техническое ООН. Бюрократия? Да, но “the world had become ‘a much more dangerous place’”. Прошлые “красные линии” DeepMind (например, полный запрет на военное применение) уже не работают: после реструктуризаций Google эти технологии продаются военным Израиля. “I think we can't take for granted anymore that democratic values are going to win out,” — и вот тут у меня, честно, мороз по коже.
Риски? Их два. Первый — усиление злонамеренных игроков (например, синтез вируса террористами). Второй — автономные системы, которые могут начать действовать вне человеческих ожиданий. “How do we ensure that we can stay in charge of those systems, control them, interpret what they're doing, understand them, and put the right guardrails in place that are not movable by very highly capable self-improving systems?” — спрашивает Хассабис, и вопрос не риторический. Уже сегодня исследователи фиксируют в языковых моделях признаки стратегической лжи. Это только начало.
Всё это происходит на фоне новой холодной войны между США и Китаем, борьбы за чипы и попыток государств “запереть” ключевые технологии. Хассабис всё ещё надеется на международное сотрудничество: “It’s in everyone’s self-interest to make sure that goes well.” Но, честно говоря, верится с трудом.
А что дальше? DeepMind недавно показал Gemini 2.5 — модель, которая по ряду метрик опережает конкурентов. В работе - Project Astra: универсальный цифровой ассистент, который должен стать “исследователем нового типа”. Уже сейчас Google тестирует Gemini на управлении роботами.
На YouTube кто‑то язвительно заметил: “We are only developing robots to do tasks a 5 year old can do.” Хассабис не отрицает, что социальные последствия будут ощутимы. “People must learn how to use new AI models,” — иначе есть риск остаться не у дел.
Есть ли у него рецепт на будущее? Не уверен. “Democracy… might have to give way to ‘something better’.”
Сергей Булаев AI 🤖 - об AI и не только
Cluely - стартап, который недавно привлёк $5,3 млн от Abstract Ventures и Susa Ventures - делает невидимого ИИ-ассистента для реального времени.
Представьте: сидите на Zoom-интервью или сдаёте экзамен, а в ухе тихо нашёптывает бот, у которого знаний столько, что никогда не представишь, и скорость реакции, как у кассира в "Пятёрочке" перед закрытием. Cluely видит ваш экран, слышит аудио, моментально подбирает аргументы, цифры, даже шутки для неловкой паузы.
Основатель, Чунгин "Рой" Ли, прошёл путь от скандала с Interview Coder до новой попытки изменить правила игры - и не стесняется провокационного маркетинга. Первое промо-видео: Ли на свидании с помощью ассистента изображает эксперта по искусству. В духе Дэвида Фостера Уоллеса, только вместо потока сознания - поток подсказок. Смешно? Да. Эффективно? Похоже, инвесторы считают, что да.
Вопрос этики встаёт ребром. Где граница помощи и обмана? Если использовать такого ассистента для экзамена - смысл экзамена пропадает, остаётся только фасад. Но когда речь идёт о работе с клиентом, где задача - найти лучшее решение, почему бы не использовать такую "квантовую шпаргалку"? Это ведь не обман, а ускорение поиска и глубина анализа. Я бы сравнил с тем, как транскрипторы встреч (тот же Otter или Gladia) уже стали нормой — никто не возражает, что их используют для расшифровки переговоров.
Как-то объяснял сыну, зачем вообще нужны экзамены, если есть ChatGPT. Он спросил: "А если ChatGPT у тебя в голове - это плохо?" Потерялся на секунду. Думаю всё зависит от честности. Если ты выдаёшь чужие мысли за свои - это враньё. Если используешь помощника, чтобы придумать что-то для клиента, а не для галочки - это уже рабочий инструмент, как Excel или Slack-бот.
Совсем скоро такие ассистенты, скорее всего, станут повседневностью, как автокорректор или расшифровщики звонков.
Сергей Булаев AI 🤖 - об AI и не только
Представьте: сидите на Zoom-интервью или сдаёте экзамен, а в ухе тихо нашёптывает бот, у которого знаний столько, что никогда не представишь, и скорость реакции, как у кассира в "Пятёрочке" перед закрытием. Cluely видит ваш экран, слышит аудио, моментально подбирает аргументы, цифры, даже шутки для неловкой паузы.
Основатель, Чунгин "Рой" Ли, прошёл путь от скандала с Interview Coder до новой попытки изменить правила игры - и не стесняется провокационного маркетинга. Первое промо-видео: Ли на свидании с помощью ассистента изображает эксперта по искусству. В духе Дэвида Фостера Уоллеса, только вместо потока сознания - поток подсказок. Смешно? Да. Эффективно? Похоже, инвесторы считают, что да.
Вопрос этики встаёт ребром. Где граница помощи и обмана? Если использовать такого ассистента для экзамена - смысл экзамена пропадает, остаётся только фасад. Но когда речь идёт о работе с клиентом, где задача - найти лучшее решение, почему бы не использовать такую "квантовую шпаргалку"? Это ведь не обман, а ускорение поиска и глубина анализа. Я бы сравнил с тем, как транскрипторы встреч (тот же Otter или Gladia) уже стали нормой — никто не возражает, что их используют для расшифровки переговоров.
Как-то объяснял сыну, зачем вообще нужны экзамены, если есть ChatGPT. Он спросил: "А если ChatGPT у тебя в голове - это плохо?" Потерялся на секунду. Думаю всё зависит от честности. Если ты выдаёшь чужие мысли за свои - это враньё. Если используешь помощника, чтобы придумать что-то для клиента, а не для галочки - это уже рабочий инструмент, как Excel или Slack-бот.
Совсем скоро такие ассистенты, скорее всего, станут повседневностью, как автокорректор или расшифровщики звонков.
Сергей Булаев AI 🤖 - об AI и не только
Слопсквтоттинг (Slopsquatting) 🔍
#ИИНЦИКЛОПЕДИЯ
Слопсквоттинг — новый вектор атаки на цепочки поставок программного обеспечения, использующий галлюцинации ИИ-кодеров для внедрения вредоносного кода.
Термин был придуман Сетом Ларсоном, разработчиком Python Software Foundation, и происходит от слов "slop" (небрежный, неаккуратный вывод ИИ-систем) и "squatting" (захват). В отличие от typosquatting, который эксплуатирует опечатки, slopsquatting нацелен на имена пакетов, которые ИИ-модели последовательно галлюцинируют при генерации примеров кода.
Почему это важно:
С ростом популярности ИИ-помощников для разработки (Claude Code, Cursor и др.) проблема становится всё более актуальной. Исследования показывают, что ИИ регулярно рекомендует несуществующие пакеты, создавая возможность для злоумышленников зарегистрировать эти имена и загрузить туда вредоносный код.
Технические механизмы:
Атака работает через простой, но эффективный процесс:
Распространённость и закономерности:
Последствия для безопасности:
Что почитать/посмотреть:
Исследование на arXiv
Анализ от Socket.dev
Статья от FOSSA
Сергей Булаев AI 🤖 - об AI и безопасности
#ИИНЦИКЛОПЕДИЯ
Слопсквоттинг — новый вектор атаки на цепочки поставок программного обеспечения, использующий галлюцинации ИИ-кодеров для внедрения вредоносного кода.
Термин был придуман Сетом Ларсоном, разработчиком Python Software Foundation, и происходит от слов "slop" (небрежный, неаккуратный вывод ИИ-систем) и "squatting" (захват). В отличие от typosquatting, который эксплуатирует опечатки, slopsquatting нацелен на имена пакетов, которые ИИ-модели последовательно галлюцинируют при генерации примеров кода.
Почему это важно:
С ростом популярности ИИ-помощников для разработки (Claude Code, Cursor и др.) проблема становится всё более актуальной. Исследования показывают, что ИИ регулярно рекомендует несуществующие пакеты, создавая возможность для злоумышленников зарегистрировать эти имена и загрузить туда вредоносный код.
Технические механизмы:
Атака работает через простой, но эффективный процесс:
- Злоумышленник запрашивает у LLM сгенерировать код
- ИИ рекомендует несуществующие пакеты (происходит примерно в 20% случаев)
- Атакующий создаёт вредоносные пакеты с этими галлюцинированными именами
- Когда другие разработчики используют похожие промпты и получают те же рекомендации, они невольно устанавливают вредоносный кодРаспространённость и закономерности:
- Тесты на 16 моделях генерации кода показали, что 20% рекомендуемых пакетов являются вымышленными
- 43% галлюцинаций повторялись во всех 10 повторных запусках промптов, что делает эту уязвимость особенно опасной
- 38% имён имели строковое сходство с реальными пакетами, что делает их более правдоподобными и сложными для обнаружения
- Уязвимыми оказались все популярные модели, включая GPT-4, CodeLlama и DeepSeek
- Коммерческие ИИ-инструменты имеют меньший процент галлюцинаций (~5%), в то время как открытые модели показывают значительно более высокие показателиПоследствия для безопасности:
- Проблема затрагивает экосистемы как Python, так и JavaScript, которые сильно зависят от централизованных репозиториев пакетов
- Угроза усиливается растущей зависимостью разработчиков от ИИ-помощников без достаточной проверки зависимостей
- Это представляет новую категорию уязвимостей безопасности, специфичных для ИИ, которые традиционные меры безопасности могут не учитыватьЧто почитать/посмотреть:
Исследование на arXiv
Анализ от Socket.dev
Статья от FOSSA
Сергей Булаев AI 🤖 - об AI и безопасности
Позавчера моему младшему сыну Вове исполнилось 10! В честь праздника решил пройтись по его баг-репортам на приложение Spellings. Эту штуку я запилил в Cursor Composer прошлой осенью, пару раз поправил и забросил. А сын каждую неделю вынужден через него учить новые слова из школы.
В результате небольшого рефакторинга:
Claude Code справляется с доработками и правками на порядок быстрее и проще. Хотя, когда рефакторил работу со звуком, всё же пришлось один раз обратиться к o3 через OpenAI Codex.
Посмотреть можно вот тут.
Сергей Булаев AI 🤖 - об AI и безопасности
В результате небольшого рефакторинга:
- Исправлено 5 багов
- Улучшена стабильность работы звука
- Добавлено постоянное сохранение стадии практики (теперь можно прерваться и продолжить в любой момент)Claude Code справляется с доработками и правками на порядок быстрее и проще. Хотя, когда рефакторил работу со звуком, всё же пришлось один раз обратиться к o3 через OpenAI Codex.
Посмотреть можно вот тут.
Сергей Булаев AI 🤖 - об AI и безопасности
#нереклама, реальный совет
Хочу в очередной раз посоветовать вам канал моего друга и партнёра, самого активного пользователя моего проекта по Флэшбэкам - Макса из Флориды.
У Макса очень необычный бэкграунд - он начинал со стыка Salesforce и Фармы в Санофи - Солвей, но уже более 10 лет является сооснователем и управляющим партнёром крупного интегратора в США - Customertimes.
У него интересный жизненный путь и уникальный предпринимательский опыт, которым он делится у себя в канале (по его словам созданным под впечатлением от моего). А ещё его компания - наш дизайн-партнёр и первый заказчик нашего продукта, над которым мы работаем уже 4-й месяц и который, я надеюсь, скоро вам покажу.
Макс очень много читает и размышляет о применении AI для реальной помощи большим корпорациям. Рад работать с ним вместе и мне очень грустно, что у него так мало читателей.
Вот вам несколько примеров его постов:
- О моделях монетизации AI консалтинга для больших корпораций
- О том, что мы можем сильно ошибаться в наших прогнозах про AI
- Эволюция e-commerce: как ИИ меняет сложные продажи
- Влияние AI на IT Консалтинг и аутсорсинг.
- О RAG и Fine-tuning
Обязательно подпишитесь!
Сергей Булаев AI 🤖 - об AI и не только
Хочу в очередной раз посоветовать вам канал моего друга и партнёра, самого активного пользователя моего проекта по Флэшбэкам - Макса из Флориды.
У Макса очень необычный бэкграунд - он начинал со стыка Salesforce и Фармы в Санофи - Солвей, но уже более 10 лет является сооснователем и управляющим партнёром крупного интегратора в США - Customertimes.
У него интересный жизненный путь и уникальный предпринимательский опыт, которым он делится у себя в канале (по его словам созданным под впечатлением от моего). А ещё его компания - наш дизайн-партнёр и первый заказчик нашего продукта, над которым мы работаем уже 4-й месяц и который, я надеюсь, скоро вам покажу.
Макс очень много читает и размышляет о применении AI для реальной помощи большим корпорациям. Рад работать с ним вместе и мне очень грустно, что у него так мало читателей.
Вот вам несколько примеров его постов:
- О моделях монетизации AI консалтинга для больших корпораций
- О том, что мы можем сильно ошибаться в наших прогнозах про AI
- Эволюция e-commerce: как ИИ меняет сложные продажи
- Влияние AI на IT Консалтинг и аутсорсинг.
- О RAG и Fine-tuning
Обязательно подпишитесь!
Сергей Булаев AI 🤖 - об AI и не только
10 19 10👎2
В Claude Code добавили to-do списки, теперь он иногда может работать и 20 минут... сам тестируя изменения, да. Да и вообще апдейты почти какждый день выходят, очень приятно что работа такими темпами ведётся!
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
Смотрите какое чудо - MCP сервер с обновляемой документацией по более чем 9000-м различных API. Работает со всеми. Удобно. Больше никаких ошибок и поисков и скачиваний свежей документации!
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
26 39 6
А вы знаете, что можно установить open codex (форк codex от OpenAI) и использовать свежую крутую gemini для разработки совершенно бесплатно (правда нужен Google Billing Account). Я сегодня подключил! Мне понравилась больше чем o3 в оригинале.
Правда, пошли какие-то проблемы в плане редактирования файлов. Тем не менее, используя её как консультанта и руководителя для claude code, получилось найти баг, который не мог отловить более 2-х недель. Советую попробовать. Если сможете.
Если есть какая-то инфа о проблемах с файлами - буду благодарен. Больше агентов хороших и разных!
Сергей Булаев AI 🤖 - об AI и не только
Правда, пошли какие-то проблемы в плане редактирования файлов. Тем не менее, используя её как консультанта и руководителя для claude code, получилось найти баг, который не мог отловить более 2-х недель. Советую попробовать. Если сможете.
Если есть какая-то инфа о проблемах с файлами - буду благодарен. Больше агентов хороших и разных!
Сергей Булаев AI 🤖 - об AI и не только
Я в полном восторге от того, как элегантно работает новая версия робота на базе Vision-Language-Action модели π0.5. Смотреть, как железяка разбирается с незнакомой квартирой, реагируя на неожиданные перемены и даже на вмешательство людей, - настоящее удовольствие.
π0.5 умеет заходить в совершенно новые помещения и - без шаблонных сценариев - самостоятельно наводить порядок: расставить посуду по местам, заправить кровать, собрать одежду с пола. В обучении использовался мощный микс данных: текстовые инструкции, изображения, реальные действия других роботов и даже веб-данные (captioning, VQA и прочее). Благодаря этому робот не просто копирует движения, а реально понимает, что и зачем делать, разбивая задание на логические шаги.
Робот быстро адаптируется и корректирует действия на лету, даже если кто-то специально мешает ему в процессе уборки. Да, система пока далека от идеала: случаются ошибки в высокоуровневых командах, моторика не всегда точна, а конструкция получилась довольно громоздкой. Но прогресс очевиден, и это живое доказательство того, что ИИ уже выходит за пределы лабораторий - в наш реальный, физический мир.
Подробный и красивый разбор от создателей.
Сергей Булаев AI 🤖 - об AI и не только
π0.5 умеет заходить в совершенно новые помещения и - без шаблонных сценариев - самостоятельно наводить порядок: расставить посуду по местам, заправить кровать, собрать одежду с пола. В обучении использовался мощный микс данных: текстовые инструкции, изображения, реальные действия других роботов и даже веб-данные (captioning, VQA и прочее). Благодаря этому робот не просто копирует движения, а реально понимает, что и зачем делать, разбивая задание на логические шаги.
Робот быстро адаптируется и корректирует действия на лету, даже если кто-то специально мешает ему в процессе уборки. Да, система пока далека от идеала: случаются ошибки в высокоуровневых командах, моторика не всегда точна, а конструкция получилась довольно громоздкой. Но прогресс очевиден, и это живое доказательство того, что ИИ уже выходит за пределы лабораторий - в наш реальный, физический мир.
Подробный и красивый разбор от создателей.
Сергей Булаев AI 🤖 - об AI и не только
Наткнулся на письмо Михи Кауфмана (создатель Fiverr), где он призывает своих коллег немедленно осваивать технологии ИИ что бы не остаться без работы. Там есть целый фреймворк:
Стань “редким талантом”
Не просто следи за новыми AI-решениями в своей сфере, а попробуй их руками, исследуй, разбери до винтика. В поддержке клиентов Intercom Fin и SentiSum берут на себя рутину, а юристы уже спорят, что лучше - Lexis+ AI или Legora.
Искать свою “суперсилу” приходится буквально на ощупь - ведь тут речь не про абстрактные бонусы, а про умение выдавать больше результата за то же время и не терять в качестве.
Ищи тех, кто в теме сильнее тебя. Находи самых опытных в команде, проси показать новые трюки, делиться ссылками на закрытые демки - не жди, что всё принесут на блюдечке.
Время, теперь, самый ценный ресурс. Если работаешь, как в 2024-м, то уже проигрываешь тем, кто с утра до вечера может быть пока не очень удачно, но всёже автоматизирует что то при помощи LLM.
Осваивай составление промптов. Это уже не игрушка для гиков, а повседневный инструмент. Google уже умер. LLM и GenAI - новая база, и если не применять их экспертно, то ценность твоей работы быстро перестанет быть очевидной.
Включайся в процессы оптимизации компании через ИИ-инструменты и технологии. Наблюдать, как в Notion из пары строк собирается автоматическая отчётность, - магия. И правда, зачем расширять штат, если можно выжать больше пользы из того, что уже есть?
Понимай стратегию компании, не ограничивайся своим “участком” - ищи, где можешь помочь приблизить общие цели. Не надейся, что тебя позовут на совещание ради идей. Такого не будет. Лучше сразу предлагай своё - даже если кажется, что момент неидеальный
Прекрати ждать, когда появится возможность учиться или расти - создавай её сам. Если хочется большего, действуй.
#ПАНИКА
Сергей Булаев AI 🤖 - об AI и не только
Стань “редким талантом”
Не просто следи за новыми AI-решениями в своей сфере, а попробуй их руками, исследуй, разбери до винтика. В поддержке клиентов Intercom Fin и SentiSum берут на себя рутину, а юристы уже спорят, что лучше - Lexis+ AI или Legora.
Искать свою “суперсилу” приходится буквально на ощупь - ведь тут речь не про абстрактные бонусы, а про умение выдавать больше результата за то же время и не терять в качестве.
Ищи тех, кто в теме сильнее тебя. Находи самых опытных в команде, проси показать новые трюки, делиться ссылками на закрытые демки - не жди, что всё принесут на блюдечке.
Время, теперь, самый ценный ресурс. Если работаешь, как в 2024-м, то уже проигрываешь тем, кто с утра до вечера может быть пока не очень удачно, но всёже автоматизирует что то при помощи LLM.
Осваивай составление промптов. Это уже не игрушка для гиков, а повседневный инструмент. Google уже умер. LLM и GenAI - новая база, и если не применять их экспертно, то ценность твоей работы быстро перестанет быть очевидной.
Включайся в процессы оптимизации компании через ИИ-инструменты и технологии. Наблюдать, как в Notion из пары строк собирается автоматическая отчётность, - магия. И правда, зачем расширять штат, если можно выжать больше пользы из того, что уже есть?
Понимай стратегию компании, не ограничивайся своим “участком” - ищи, где можешь помочь приблизить общие цели. Не надейся, что тебя позовут на совещание ради идей. Такого не будет. Лучше сразу предлагай своё - даже если кажется, что момент неидеальный
Прекрати ждать, когда появится возможность учиться или расти - создавай её сам. Если хочется большего, действуй.
#ПАНИКА
Сергей Булаев AI 🤖 - об AI и не только
2 34👎8 7
Media is too big
VIEW IN TELEGRAM
Пи(дум)
#ИИНЦИКЛОПЕДИЯ
Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.
Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.
Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности
Оценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.
У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.
На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.
Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027
Сергей Булаев AI 🤖 - об AI и не только
p(doom) 🤖#ИИНЦИКЛОПЕДИЯ
Вероятность, с которой искусственный интеллект приведёт к гибели человечества или другой экзистенциальной катастрофе.
Термин p(doom) (от англ. "probability of doom" - "вероятность гибели") возник как внутренняя шутка в кругах исследователей ИИ, но к 2023 году стал широко обсуждаемой темой после выхода таких моделей, как GPT-4. Сейчас это своеобразный "ледокол" при общении между специалистами по безопасности ИИ, быстрый способ понять отношение собеседника к рискам искусственного интеллекта.
Почему это важно
Несмотря на кажущуюся несерьёзность, p(doom) отражает реальную озабоченность экспертов потенциальными рисками продвинутых систем ИИ, особенно на пути к искусственному общему интеллекту (AGI). Это также показатель растущего осознания необходимости обсуждать и минимизировать экзистенциальные риски.
Ключевые особенности
Числовое выражение: обычно представляется как процент от 0% до 100%
Субъективная оценка: основана на личном восприятии развития технологий ИИ
Широкий разброс мнений: от 1% до 99% в зависимости от эксперта
Показатель отношения к рискам: отражает взгляд человека на безопасность ИИОценки p(doom) сильно различаются даже среди ведущих специалистов. Например, опрос 2023 года показал среднее значение 14,4% среди исследователей ИИ, с медианой 5%. Что интересно, значения часто коррелируют с профессиональной деятельностью: те, кто напрямую работает над созданием сильного ИИ, как правило, дают более высокие оценки.
У меня нет своей чёткой оценки p(doom) – слишком много переменных и неизвестных в этом уравнении. Склоняюсь к тому, что риски существуют, но работа над безопасностью ИИ может существенно их снизить. Важнее не конкретное число, а осознание необходимости ответственного подхода к развитию ИИ.
На видео Кевин Роуз делится мыслями о том что судьба человечества решается без нас.
Для дальнейшего изучения
- Опрос AI Impacts о p(doom) среди исследователей
- The Case for Taking AI Seriously as a Threat to Humanity
- Исследование ИИ 2027
Сергей Булаев AI 🤖 - об AI и не только
Google представила AlphaEvolve - эволюционного агента для открытия и оптимизации алгоритмов. Это прокачанный коктейль их исследовательских подходов, но теперь на основе больших языковых моделей Gemini. Агент сочетает креативность LLM с автоматизированными оценками, которые проверяют правильность решений, и использует эволюционный фреймворк для улучшения наиболее перспективных идей.
Как это работает? AlphaEvolve использует набор моделей Gemini - Flash для создания широкого спектра идей и Pro для глубокого анализа. Затем система проверяет, запускает и оценивает предложенные программы с помощью автоматизированных метрик. Получается эдакий автоматический программист, который пишет, тестирует и улучшает код на лету, отбирая лучшие решения и отбрасывая неудачные (видео приложено).
В Google уже применяют алгоритмы, обнаруженные AlphaEvolve, в своих дата-центрах и железе. Например, система нашла простой, но эффективный эвристический алгоритм для Borg (оркестратор датацентров Google), который уже год работает в производстве и экономит в среднем 0,7% вычислительных ресурсов компании по всему миру. Ещё AlphaEvolve оптимизировал специализированные чипы TPU и ускорил обучение моделей Gemini на 23%.
Что касается математических открытий, AlphaEvolve нашёл алгоритм умножения комплексных матриц 4x4, используя всего 48 скалярных умножений, улучшив алгоритм Штрассена 1969 года. Также система продвинулась в решении "проблемы поцелуев" (kissing number problem) - геометрической задачи, которая занимает математиков уже более 300 лет. AlphaEvolve обнаружил конфигурацию из 593 внешних сфер в 11-мерном пространстве, установив новую нижнюю границу.
Прикладываю видео Deep Dive (да они тестируют видеоподкасты в NotebookLM) в "проблему поцелуев" и то, как AlphaEvolve с ней справился. Это про то, сколько максимально неперекрывающихся сфер может касаться одной общей сферы. Задача эта стоит перед математиками уже 300 лет, и вот теперь ИИ помогает с ней справиться. Получилось клёво, но что ожидать, когда на решение бросают такие вычислительные мощности?
тут вот пейпер есть ещё
Сергей Булаев AI 🤖 - об AI и не только
Как это работает? AlphaEvolve использует набор моделей Gemini - Flash для создания широкого спектра идей и Pro для глубокого анализа. Затем система проверяет, запускает и оценивает предложенные программы с помощью автоматизированных метрик. Получается эдакий автоматический программист, который пишет, тестирует и улучшает код на лету, отбирая лучшие решения и отбрасывая неудачные (видео приложено).
В Google уже применяют алгоритмы, обнаруженные AlphaEvolve, в своих дата-центрах и железе. Например, система нашла простой, но эффективный эвристический алгоритм для Borg (оркестратор датацентров Google), который уже год работает в производстве и экономит в среднем 0,7% вычислительных ресурсов компании по всему миру. Ещё AlphaEvolve оптимизировал специализированные чипы TPU и ускорил обучение моделей Gemini на 23%.
Что касается математических открытий, AlphaEvolve нашёл алгоритм умножения комплексных матриц 4x4, используя всего 48 скалярных умножений, улучшив алгоритм Штрассена 1969 года. Также система продвинулась в решении "проблемы поцелуев" (kissing number problem) - геометрической задачи, которая занимает математиков уже более 300 лет. AlphaEvolve обнаружил конфигурацию из 593 внешних сфер в 11-мерном пространстве, установив новую нижнюю границу.
Прикладываю видео Deep Dive (да они тестируют видеоподкасты в NotebookLM) в "проблему поцелуев" и то, как AlphaEvolve с ней справился. Это про то, сколько максимально неперекрывающихся сфер может касаться одной общей сферы. Задача эта стоит перед математиками уже 300 лет, и вот теперь ИИ помогает с ней справиться. Получилось клёво, но что ожидать, когда на решение бросают такие вычислительные мощности?
тут вот пейпер есть ещё
Сергей Булаев AI 🤖 - об AI и не только
Как получить анимированную иконку в стиле AirBnB за 5 минут? Нашёл в твиттере:
Всё! (смотрите промты на картинках)
Сергей Булаев AI 🤖 - об AI и не только
1. Просим ChatGPT нарисовать кофемашину в стиле иконок AirBnB
2. Просим его переделать так как нравится
3. Просим Runway анимироватьВсё! (смотрите промты на картинках)
Сергей Булаев AI 🤖 - об AI и не только
2 41 4