This media is not supported in your browser
VIEW IN TELEGRAM
DeepMind выпустил Alpha Fold3.
Я тот еще биолог, но вот что я вынес из поста в блоге Гугла.
Они еще выше повысили точность предсказания формы белков (а теперь и не только белков).
Они вышли за пределы предсказания только белков и теперь могут предсказывать формы многих молекул. Моделируются большие биомолекулы, такие как белки, ДНК и РНК, а также небольшие молекулы, также известные как лиганды — категория, охватывающая множество лекарств. Кроме того, AlphaFold 3 может моделировать химические модификации этих молекул, которые контролируют здоровое функционирование клеток, разрушение которых может привести к заболеванию.
Они заменили старый предсказатель на Дифузионную модель! Теперь она из шума генерит предсказываемую форму (пишут, что иногда косячит, но множественные генерации решают).
Предсказания AlphaFold 3 о молекулярных взаимодействиях превосходят точность всех существующих систем, в том числе основанных на физике.
Они запустил Alpha Fold 3 Server для всех:
http://alphafoldserver.com/
Судя по описанию - это очень серьезный прорыв. Если в читателях есть настоящие сварщики, напишите в коментах подробности.
Ссылки:
Блог: https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/
Статья в Nature: https://www.nature.com/articles/s41586-024-07487-w
Видео от двухминутного доктора: https://www.youtube.com/watch?v=Mz7Qp73lj9o
Гитхаб: https://github.com/lucidrains/alphafold3-pytorch
Я тот еще биолог, но вот что я вынес из поста в блоге Гугла.
Они еще выше повысили точность предсказания формы белков (а теперь и не только белков).
Они вышли за пределы предсказания только белков и теперь могут предсказывать формы многих молекул. Моделируются большие биомолекулы, такие как белки, ДНК и РНК, а также небольшие молекулы, также известные как лиганды — категория, охватывающая множество лекарств. Кроме того, AlphaFold 3 может моделировать химические модификации этих молекул, которые контролируют здоровое функционирование клеток, разрушение которых может привести к заболеванию.
Они заменили старый предсказатель на Дифузионную модель! Теперь она из шума генерит предсказываемую форму (пишут, что иногда косячит, но множественные генерации решают).
Предсказания AlphaFold 3 о молекулярных взаимодействиях превосходят точность всех существующих систем, в том числе основанных на физике.
Они запустил Alpha Fold 3 Server для всех:
http://alphafoldserver.com/
Судя по описанию - это очень серьезный прорыв. Если в читателях есть настоящие сварщики, напишите в коментах подробности.
Ссылки:
Блог: https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/
Статья в Nature: https://www.nature.com/articles/s41586-024-07487-w
Видео от двухминутного доктора: https://www.youtube.com/watch?v=Mz7Qp73lj9o
Гитхаб: https://github.com/lucidrains/alphafold3-pytorch
🔥38👍11👎1
Ну, за ученых.
По мотивам выхода Alpha Fold3 на Ycombinatore идет интереснейшая дискуссия о том, что кожаный мозг слишком слаб, чтобы понять "как" и "почему" работает окружающий мир. И что кожаные модели мира (интерпретируемые, но сильно ограниченные), уже проигрывают в разы более сложным моделям мира от ИИ. Моделям, которые не могут быть интерпретированы, черным ящикам, выполняющим свою работу лучше лучших ученых.
"можно сказать, что метод ML выигрывает у физически обоснованных методов точного предсказания мира.
Что произойдет, если лучшие методы вычислительной гидродинамики, молекулярной динамики, ядерной физики окажутся неинтерпретируемыми ML-моделями? Оторвет ли это прогресс от нашего нынешнего понимания научного процесса - движение к все более совершенным моделям мира без интерпретируемых человеком теорий и математических моделей/объяснений? Является ли это итерационно устойчивым, как доказал научный прогресс?"
Хороший вопрос. Куда приведут нас точные мощные черные ящики? К какому прогрессу? И кто сможет понять, что это прогресс, когда будет казаться обратное?
На все воля ИИ, в общем.
https://news.ycombinator.com/item?id=40298927
По мотивам выхода Alpha Fold3 на Ycombinatore идет интереснейшая дискуссия о том, что кожаный мозг слишком слаб, чтобы понять "как" и "почему" работает окружающий мир. И что кожаные модели мира (интерпретируемые, но сильно ограниченные), уже проигрывают в разы более сложным моделям мира от ИИ. Моделям, которые не могут быть интерпретированы, черным ящикам, выполняющим свою работу лучше лучших ученых.
"можно сказать, что метод ML выигрывает у физически обоснованных методов точного предсказания мира.
Что произойдет, если лучшие методы вычислительной гидродинамики, молекулярной динамики, ядерной физики окажутся неинтерпретируемыми ML-моделями? Оторвет ли это прогресс от нашего нынешнего понимания научного процесса - движение к все более совершенным моделям мира без интерпретируемых человеком теорий и математических моделей/объяснений? Является ли это итерационно устойчивым, как доказал научный прогресс?"
Хороший вопрос. Куда приведут нас точные мощные черные ящики? К какому прогрессу? И кто сможет понять, что это прогресс, когда будет казаться обратное?
На все воля ИИ, в общем.
https://news.ycombinator.com/item?id=40298927
🔥42👎10👍9
This media is not supported in your browser
VIEW IN TELEGRAM
IC-Light: Новый ИИ-релайтер от автора ControlNet, Fooocus, Forge, и LayerDiffusion.
https://github.com/lllyasviel/IC-Light
Выглядит очень правдоподобно.
Уже прикрутили в ComfyUI:
https://github.com/kijai/ComfyUI-IC-Light-Wrapper
А ещё есть демо:
https://huggingface.co/spaces/lllyasviel/IC-Light
Обязательно полистайте вниз на гитхабе, хорошие примеры. И оно также умеет светить картинкой. И ставится локально, как отдельный web-интерфейс.
Ждём в Forge.
https://github.com/lllyasviel/IC-Light
Выглядит очень правдоподобно.
Уже прикрутили в ComfyUI:
https://github.com/kijai/ComfyUI-IC-Light-Wrapper
А ещё есть демо:
https://huggingface.co/spaces/lllyasviel/IC-Light
Обязательно полистайте вниз на гитхабе, хорошие примеры. И оно также умеет светить картинкой. И ставится локально, как отдельный web-интерфейс.
Ждём в Forge.
🔥58👍11
This media is not supported in your browser
VIEW IN TELEGRAM
В Krea.ai завезли видео.
Правда скорее VFX, чем видео.
В отличие от остальных генераторов там есть Key Frames, то есть попытки контроля генерации. В целом это скорее морфинг в латентном пространстве с нормальным UI.
Не думаю, что это для генерации историй, это скорее классные перебивки, ИИ-транзишены и короткие визуальные эффекты.
Смотрится симпатично, особенно учитывая факт наличия кифреймов и человеческого интерфейса.
Больше атомных видосов с элементами интерфейса вот тут:
https://twitter.com/krea_ai/status/1788465406971453814
Правда скорее VFX, чем видео.
В отличие от остальных генераторов там есть Key Frames, то есть попытки контроля генерации. В целом это скорее морфинг в латентном пространстве с нормальным UI.
Не думаю, что это для генерации историй, это скорее классные перебивки, ИИ-транзишены и короткие визуальные эффекты.
Смотрится симпатично, особенно учитывая факт наличия кифреймов и человеческого интерфейса.
Больше атомных видосов с элементами интерфейса вот тут:
https://twitter.com/krea_ai/status/1788465406971453814
🔥28👍18👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Бернини: 3D генератор от Автодеска!
Корпораты нехотя поднимают веки и начинают спускаться с горы, чтобы начать уже генерить контент.
Наконец-то мы видим подобие 3Д-генератора заточенного под 3Д-пайплайн, а не многочисленные демо в вебе, которые просят денег за каждую фичу.
В отличие от этих дем, тут на входе не только картинка или текст, но и воксели или пойнтклауды. На сороковой секунде мы видим идеальную сетку, текстуру, потом подобие UV, потом обмешивание жидкостей (не уверен, что оно ИИ-шное, но хочется верить).
Пишут, что проект еще учится, туда заливают больше 3Д-моделей. Но уже щас в датасете десять миллионов разнообразных 3D-форм из общедоступных данных, смеси объектов САПР и органических форм.
И они умеют генерить не только выпуклые статуэтки, но и сложные вогнутые формы (тут явно есть насмотренность их модели на 3Д-стоки, а не на ад с Objaverse).
Цитирую: "Простым примером может служить кувшин с водой. Многие другие 3D-генеративные модели могут создавать формы, похожие на кувшины, с текстурами, которые улучшают их внешний вид в очень специфической среде освещения. Но модель Бернини генерирует форму и текстуру отдельно и не смешивает и не объединяет эти переменные. Таким образом, кувшины с водой, созданные нашей моделью, полые посередине и могут фактически удерживать воду, как и любой реальный кувшин."
Пока выглядит как лучшее из продемонстрированных в интернетике 3Д-решений. Но проект "экспериментальный и недоступен для использования".
Надеюсь его не присунут под сукно, как было с их AIUV в 2018 году.
А тем временим в их твитторе пользователей разрывает от хейта:
https://twitter.com/autodesk/status/1788231224856616976
Корпораты нехотя поднимают веки и начинают спускаться с горы, чтобы начать уже генерить контент.
Наконец-то мы видим подобие 3Д-генератора заточенного под 3Д-пайплайн, а не многочисленные демо в вебе, которые просят денег за каждую фичу.
В отличие от этих дем, тут на входе не только картинка или текст, но и воксели или пойнтклауды. На сороковой секунде мы видим идеальную сетку, текстуру, потом подобие UV, потом обмешивание жидкостей (не уверен, что оно ИИ-шное, но хочется верить).
Пишут, что проект еще учится, туда заливают больше 3Д-моделей. Но уже щас в датасете десять миллионов разнообразных 3D-форм из общедоступных данных, смеси объектов САПР и органических форм.
И они умеют генерить не только выпуклые статуэтки, но и сложные вогнутые формы (тут явно есть насмотренность их модели на 3Д-стоки, а не на ад с Objaverse).
Цитирую: "Простым примером может служить кувшин с водой. Многие другие 3D-генеративные модели могут создавать формы, похожие на кувшины, с текстурами, которые улучшают их внешний вид в очень специфической среде освещения. Но модель Бернини генерирует форму и текстуру отдельно и не смешивает и не объединяет эти переменные. Таким образом, кувшины с водой, созданные нашей моделью, полые посередине и могут фактически удерживать воду, как и любой реальный кувшин."
Пока выглядит как лучшее из продемонстрированных в интернетике 3Д-решений. Но проект "экспериментальный и недоступен для использования".
Надеюсь его не присунут под сукно, как было с их AIUV в 2018 году.
А тем временим в их твитторе пользователей разрывает от хейта:
https://twitter.com/autodesk/status/1788231224856616976
👍28👎2🔥2
Загнал данные (в процентах) опросов про графику и процессоры в диаграммы Вороного.
Щас сделаю опрос про возраст, интересно посмотреть сколько тут бумеров, зумеров и динозавров.
Щас сделаю опрос про возраст, интересно посмотреть сколько тут бумеров, зумеров и динозавров.
👍12🔥3
Пока возился с Вороным, нашел 3Д "Воронизатор".
Берете свою (или ИИ-шную) 3Д-модель (obj, dae, 3ds, stl, stla, stlb, ply) выбираете размер дырок и толщину перегородок и получаете вот такие вот вороненые 3Д-сетки.
На выходе только PLY или STL - можете присунуть в 3Д-принтер и сделать абажур или корзину для грибов.
https://www.voronator.com/
Берете свою (или ИИ-шную) 3Д-модель (obj, dae, 3ds, stl, stla, stlb, ply) выбираете размер дырок и толщину перегородок и получаете вот такие вот вороненые 3Д-сетки.
На выходе только PLY или STL - можете присунуть в 3Д-принтер и сделать абажур или корзину для грибов.
https://www.voronator.com/
👍30🔥15👎1
Forwarded from Psy Eyes (Andrey Bezryadin)
Udio: внедрили инпейтинг, позволяя менять слова в песне, добавлять инструменты, или исправлять проблемные места.
Заходим на страницу нужного трека и нажимаем Inpaint. Выделяем целевой фрагмент, заменяем нужные слова или прописываем гитарку, жмём Create и получаем искомое. Можно выделять сразу несколько секций через Add Region.
Также появился тумблер Advanced Controls, где можно указать размер контекстного окна с 1 секунды по 2:10 мин. Контекст отвечает за то какую часть трека видно для генерации на его основе. Если вы зададите фрагмент с 0:35 по 0:57 то нейронка будет опираться на него при создании новых кусков. Сама генерация будет также по 30 секунд, а не по 2 минуты.
Инпейтинг доступен только по подписке и вместе с этим Udio обновили тарифы:
* Standard ($10) — есть инпейтинг, можно пришивать свои обложки или аватаров (?), и даётся 1200 кредитов/месяц без дневного лимита, чего должно хватить на 1200 фрагментов по 30 секунд. Одновременно можно генерить до 3 треков (6 фрагментов).
* Pro ($30) — те же плюшки плюс 4800 кредитов/месяц без дневного лимита и одновременная генерация до 4 треков (8 фрагментов).
Всем существующим пользователям накинули 400 кредитов.
PS: опенсорсный VoiceCraft уже умеет менять слова в речи... го тренить его петь!
Твиттер
Сайт
Заходим на страницу нужного трека и нажимаем Inpaint. Выделяем целевой фрагмент, заменяем нужные слова или прописываем гитарку, жмём Create и получаем искомое. Можно выделять сразу несколько секций через Add Region.
Также появился тумблер Advanced Controls, где можно указать размер контекстного окна с 1 секунды по 2:10 мин. Контекст отвечает за то какую часть трека видно для генерации на его основе. Если вы зададите фрагмент с 0:35 по 0:57 то нейронка будет опираться на него при создании новых кусков. Сама генерация будет также по 30 секунд, а не по 2 минуты.
Инпейтинг доступен только по подписке и вместе с этим Udio обновили тарифы:
* Standard ($10) — есть инпейтинг, можно пришивать свои обложки или аватаров (?), и даётся 1200 кредитов/месяц без дневного лимита, чего должно хватить на 1200 фрагментов по 30 секунд. Одновременно можно генерить до 3 треков (6 фрагментов).
* Pro ($30) — те же плюшки плюс 4800 кредитов/месяц без дневного лимита и одновременная генерация до 4 треков (8 фрагментов).
Всем существующим пользователям накинули 400 кредитов.
PS: опенсорсный VoiceCraft уже умеет менять слова в речи... го тренить его петь!
Твиттер
Сайт
👍25🔥5
Если вы пилите AI Стартап, то понятно, куда вам ехать за деньгами.
Примечательно, что Израиль вонзает больше, чем все европейцы и даже больше чем Индия. На душу наcеления получится вообще неприличная цифра.
В Англии хорошие законы для стартапов - результат налицо.
А вот в Европе с деньгами на AI Стартапы и просто стартапы как-то не очень.
Ну и китайцев второе место по вливанию в ИИ.
Также интересная разбивка по "фокусу" - на что дают деньги (данные 2023):
🤖 AI infrastructure, research, and governance $18.3
🗣 Natural language processing $8.1
📊 Data management $5.5
⚕️ Healthcare $4.2
🚗 Autonomous vehicles $2.7
💰 Fintech $2.1
⚛️ Quantum computing $2.0
🔌 Semiconductor $1.7
⚡️ Energy, oil, and gas $1.5
🎨 Creative content $1.3
📚 Education $1.2
📈 Marketing $1.1
🛸 Drones $1.0
🔒 Cybersecurity $0.9
🏭 Manufacturing $0.9
Подробнее тут:
https://www.visualcapitalist.com/mapped-the-number-of-ai-startups-by-country/
Примечательно, что Израиль вонзает больше, чем все европейцы и даже больше чем Индия. На душу наcеления получится вообще неприличная цифра.
В Англии хорошие законы для стартапов - результат налицо.
А вот в Европе с деньгами на AI Стартапы и просто стартапы как-то не очень.
Ну и китайцев второе место по вливанию в ИИ.
Также интересная разбивка по "фокусу" - на что дают деньги (данные 2023):
🤖 AI infrastructure, research, and governance $18.3
🗣 Natural language processing $8.1
📊 Data management $5.5
⚕️ Healthcare $4.2
🚗 Autonomous vehicles $2.7
💰 Fintech $2.1
⚛️ Quantum computing $2.0
🔌 Semiconductor $1.7
⚡️ Energy, oil, and gas $1.5
🎨 Creative content $1.3
📚 Education $1.2
📈 Marketing $1.1
🛸 Drones $1.0
🔒 Cybersecurity $0.9
🏭 Manufacturing $0.9
Подробнее тут:
https://www.visualcapitalist.com/mapped-the-number-of-ai-startups-by-country/
🔥16👍5👎1
Сколько вам лет? (все анонимно! ИИ ничего не узнает, наверное):
Anonymous Poll
4%
меньше 20
9%
20-24
15%
24-29
19%
30-34
22%
35-39
15%
40-44
8%
45-49
4%
50-54
2%
55-59
2%
60+
🔥21👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Не знаю зачем вам такой датасайенс, но сделал динамику голосования за час. Трактуйте, как хотите, например, кто постоянно сидит в телеге, а кто нет.
👍40👎9🔥8
Stable Diffusion вернулась в Дискорд.
Именно там я начинал как бета тестер летом 2022.
Теперь уже за деньги.
Стоимость генераций SD3, судя по прайсингу, в 30 раз дороже, чем для SDXL.
Теперь это называется Stable Artisan. См видео в след посте.
Обещаны всякие кунштюки типа Search and Replace, Remove Background, Creative Upscale and Outpainting.
Подробности тут:
https://stability.ai/news/stable-artisan
Дискорд тут:
https://discord.gg/stablediffusion
Цены тут:
https://platform.stability.ai/pricing
Именно там я начинал как бета тестер летом 2022.
Теперь уже за деньги.
Стоимость генераций SD3, судя по прайсингу, в 30 раз дороже, чем для SDXL.
Теперь это называется Stable Artisan. См видео в след посте.
Обещаны всякие кунштюки типа Search and Replace, Remove Background, Creative Upscale and Outpainting.
Подробности тут:
https://stability.ai/news/stable-artisan
Дискорд тут:
https://discord.gg/stablediffusion
Цены тут:
https://platform.stability.ai/pricing
Stability AI
Stable Artisan: Media Generation and Editing on Discord — Stability AI
One of the most frequent requests from the Stable Diffusion community is the ability to use our models directly on Discord. Today, we are excited to introduce Stable Artisan, a user-friendly bot for media generation on Discord.
👎23👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Подробности тут:
https://stability.ai/news/stable-artisan
Дискорд тут:
https://discord.gg/stablediffusion
Цены тут:
https://platform.stability.ai/pricing
https://stability.ai/news/stable-artisan
Дискорд тут:
https://discord.gg/stablediffusion
Цены тут:
https://platform.stability.ai/pricing
👍13👎6
Немножко разобрался с ценами.
Если в дискорде набрать /credits, то выдаст цены на генерацию, апскейлы, видео и пр.
10 баксов - 1000 кредитов
И хорошо бы понять, что такое Image Core...
https://x.com/Lykon4072/status/1780716554734239893
Если в дискорде набрать /credits, то выдаст цены на генерацию, апскейлы, видео и пр.
10 баксов - 1000 кредитов
И хорошо бы понять, что такое Image Core...
https://x.com/Lykon4072/status/1780716554734239893
👎8👍4
Оппаньки, OpenAI похоже сообразили, что упускают огромную долю рынка секстинга, дейтинга и адалт чат-ботов.
И собираются сделать галочку "ЯВзрослый".
И ну генерить всякие глупости.
“We’re exploring whether we can responsibly provide the ability to generate NSFW content in age-appropriate contexts through the API and ChatGPT,” the note says, using a colloquial term for content considered “not safe for work” contexts. “We look forward to better understanding user and societal expectations of model behavior in this area.”
Также ждём такую галочку в Dalle-3. Будет весело.
https://www.wired.com/story/openai-is-exploring-how-to-responsibly-generate-ai-porn/
И собираются сделать галочку "ЯВзрослый".
И ну генерить всякие глупости.
“We’re exploring whether we can responsibly provide the ability to generate NSFW content in age-appropriate contexts through the API and ChatGPT,” the note says, using a colloquial term for content considered “not safe for work” contexts. “We look forward to better understanding user and societal expectations of model behavior in this area.”
Также ждём такую галочку в Dalle-3. Будет весело.
https://www.wired.com/story/openai-is-exploring-how-to-responsibly-generate-ai-porn/
👍54🔥33👎1