Forwarded from Tensor Banana
Подключаем кучу видеокарт к мини-пк или ноутбуку
В наличии имею мини-пк GenMachine на Ryzen 7 7730u (брал за 27к) https://aliexpress.ru/item/1005005560402861.html?sku_id=12000036067533846
Есть 2 варианта подключения внешней видеокарты к ноуту или мини-пк: по Thunderbolt или через переходник m2->pcie. Thunderbolt есть только в дорогих моделях, и он обычно только один + к нему нужен будет корпус ценой еще в полвидюхи. У меня Thunderbolt нет, поэтому будем юзать m2-nvme.
У моего мини-пк есть целых три слота m2 (x4 SSD, x4 SSD, x1 m2-e-key-wifi), это довольно много. Чаще всего, в дешёвых мини-пк идёт ровно 1 слот для SSD и всё. Например, в beelink s12 pro (17к на озоне) всего 1 x1 слот, но и там есть варианты.
Следует отметить, что не все слоты m2 являются PCIE. В старых ноутах/мини-пк будет стоять m2-SATA, а не m2-nvme, нам такие не подходят.
Для подключения видеокарт нам понадобится переходник с m2 на PCIE x16. Он позволит подключить одну видеокарту. Я купил 2 штуки на PCIE 3.0 x4, они довольно быстрые.
Но одной видеокарты нам мало, нам надо 4, поэтому нужен ещё сплиттер с x1 на 4 x1. Такой обычно используют майнеры, он не супер быстрый, но зато позволяет подключить до 4 карт на один слот в режиме PCIE 2.0 x1 (полоса будет по умному делиться между всеми устройствами). Предположу, что для этого сплиттера не нужна поддержка бифуркации в матери, но это неточно (в моем биосе никакой бифуркации я не нашел). Карту с разъемом x1 можно воткнуть в разъем x16.
## Железки
Порядковый номер соответствует номеру на фотке. Часть моих ссылок на Али устарела, заменил на аналогичные найденные.
1. Переходник m2 e key (wifi) to m2 m key (ssd) PCIE 3.0 x1 https://aliexpress.ru/item/1005004711422885.html?sku_id=12000030192041528
2. Переходник m2 to PCIE 3.0 x16 (использует от x1 до x4 линий, взял 2) https://aliexpress.ru/item/1005004727347382.html?sku_id=12000030249734865
3. Сплиттер (райзер) x1 to 4 x1 with PCIEUSB cables, PCIE 2.0 x1 https://aliexpress.ru/item/1005003519054789.html
4. Переходник (райзер) PCIEUSB to PCIE 3.0 x16 https://aliexpress.ru/item/1005004134020455.html?sku_id=12000028145182159
5. Переходник m2 to 4 x1 with PCIEUSB cables (работает, но нестабильно, иногда BSODит. Возможно, брак, отзывы были отличные) https://aliexpress.ru/item/1005004402356641.html?sku_id=12000029049805779
6. Переходник m2 to 1 x1 with PCIEUSB cables https://www.ozon.ru/product/m-2-ngff-v-pci-e-x16-usb3-0-adapter-riser-card-card-adapter-342305387/
7. Переходник PCIE x16 to PCIE x16 + 2 m2 (у меня m2 слоты не заработали) https://aliexpress.ru/item/1005005277952427.html
Блок питания взял свой старый на 750W. Чтобы он автоматом включался, я замкнул нужный контакт на землю. Сперва включаю БП, потом мини-пк, иначе видюхи не определятся.
## Скорость загрузки
Слот x1 и 2 видюхи на сплиттере pcie 2.0 x1
- Скорость загрузки T-lite-instruct-0.1.Q8_0 (файнтюн llama-3-8b, 7.95 GB) из ram в vram - 22s (0.35 GB/s)
Полное время загрузки llama.cpp server от дабл клика до готовности:
- в одну видюху --tensor-split 1.0,0.0 - 34s
- в две видюхи --tensor-split 0.5,0.5 - 35s
- два экземпляра llama.cpp параллельно, каждый в свою видюху - 48s
- в comfyui flux почему-то загружается со скоростью 0.08 GB/s (возможно, налету еще пересчитывает fp16 в fp8)
Скорость загрузки в режиме pcie 3.0 x4 (без сплиттера) в llama.cpp примерно 1.20 GB/s. В comfyui тоже быстрее, затестю цифры чуть позже.
Скорость чтения SSD в зависимости от слота. В родном PCIE 3.0 x4 - 3.65 GB/s, в x1 - 0.91 GB/s. На практике в винде почти не замечаю разницы, ощущую ее только, когда делаю полнотекстовой поиск по куче файлов. Я хз почему скорость чтения/записи с SSD в 2-3 раз выше чем при работе с видеокартой при аналогичном режиме.
## Скорость инференса
не влезла, вынесу в комменты.
В теории в эти 3 слота я смогу подключить через сплиттер до 12 видюх. Сколько получится на практике - пока неизвестно. В данный момент работают 2. Интернет говорит, что в этом проце 16 PCIE 3.0 линий. Но каждому сплиттеру нужна всего одна линия. Пока подключил 2 видюхи каждую на x4, а ssd на x1.
В наличии имею мини-пк GenMachine на Ryzen 7 7730u (брал за 27к) https://aliexpress.ru/item/1005005560402861.html?sku_id=12000036067533846
Есть 2 варианта подключения внешней видеокарты к ноуту или мини-пк: по Thunderbolt или через переходник m2->pcie. Thunderbolt есть только в дорогих моделях, и он обычно только один + к нему нужен будет корпус ценой еще в полвидюхи. У меня Thunderbolt нет, поэтому будем юзать m2-nvme.
У моего мини-пк есть целых три слота m2 (x4 SSD, x4 SSD, x1 m2-e-key-wifi), это довольно много. Чаще всего, в дешёвых мини-пк идёт ровно 1 слот для SSD и всё. Например, в beelink s12 pro (17к на озоне) всего 1 x1 слот, но и там есть варианты.
Следует отметить, что не все слоты m2 являются PCIE. В старых ноутах/мини-пк будет стоять m2-SATA, а не m2-nvme, нам такие не подходят.
Для подключения видеокарт нам понадобится переходник с m2 на PCIE x16. Он позволит подключить одну видеокарту. Я купил 2 штуки на PCIE 3.0 x4, они довольно быстрые.
Но одной видеокарты нам мало, нам надо 4, поэтому нужен ещё сплиттер с x1 на 4 x1. Такой обычно используют майнеры, он не супер быстрый, но зато позволяет подключить до 4 карт на один слот в режиме PCIE 2.0 x1 (полоса будет по умному делиться между всеми устройствами). Предположу, что для этого сплиттера не нужна поддержка бифуркации в матери, но это неточно (в моем биосе никакой бифуркации я не нашел). Карту с разъемом x1 можно воткнуть в разъем x16.
## Железки
Порядковый номер соответствует номеру на фотке. Часть моих ссылок на Али устарела, заменил на аналогичные найденные.
1. Переходник m2 e key (wifi) to m2 m key (ssd) PCIE 3.0 x1 https://aliexpress.ru/item/1005004711422885.html?sku_id=12000030192041528
2. Переходник m2 to PCIE 3.0 x16 (использует от x1 до x4 линий, взял 2) https://aliexpress.ru/item/1005004727347382.html?sku_id=12000030249734865
3. Сплиттер (райзер) x1 to 4 x1 with PCIEUSB cables, PCIE 2.0 x1 https://aliexpress.ru/item/1005003519054789.html
4. Переходник (райзер) PCIEUSB to PCIE 3.0 x16 https://aliexpress.ru/item/1005004134020455.html?sku_id=12000028145182159
5. Переходник m2 to 4 x1 with PCIEUSB cables (работает, но нестабильно, иногда BSODит. Возможно, брак, отзывы были отличные) https://aliexpress.ru/item/1005004402356641.html?sku_id=12000029049805779
6. Переходник m2 to 1 x1 with PCIEUSB cables https://www.ozon.ru/product/m-2-ngff-v-pci-e-x16-usb3-0-adapter-riser-card-card-adapter-342305387/
7. Переходник PCIE x16 to PCIE x16 + 2 m2 (у меня m2 слоты не заработали) https://aliexpress.ru/item/1005005277952427.html
Блок питания взял свой старый на 750W. Чтобы он автоматом включался, я замкнул нужный контакт на землю. Сперва включаю БП, потом мини-пк, иначе видюхи не определятся.
## Скорость загрузки
Слот x1 и 2 видюхи на сплиттере pcie 2.0 x1
- Скорость загрузки T-lite-instruct-0.1.Q8_0 (файнтюн llama-3-8b, 7.95 GB) из ram в vram - 22s (0.35 GB/s)
Полное время загрузки llama.cpp server от дабл клика до готовности:
- в одну видюху --tensor-split 1.0,0.0 - 34s
- в две видюхи --tensor-split 0.5,0.5 - 35s
- два экземпляра llama.cpp параллельно, каждый в свою видюху - 48s
- в comfyui flux почему-то загружается со скоростью 0.08 GB/s (возможно, налету еще пересчитывает fp16 в fp8)
Скорость загрузки в режиме pcie 3.0 x4 (без сплиттера) в llama.cpp примерно 1.20 GB/s. В comfyui тоже быстрее, затестю цифры чуть позже.
Скорость чтения SSD в зависимости от слота. В родном PCIE 3.0 x4 - 3.65 GB/s, в x1 - 0.91 GB/s. На практике в винде почти не замечаю разницы, ощущую ее только, когда делаю полнотекстовой поиск по куче файлов. Я хз почему скорость чтения/записи с SSD в 2-3 раз выше чем при работе с видеокартой при аналогичном режиме.
## Скорость инференса
не влезла, вынесу в комменты.
В теории в эти 3 слота я смогу подключить через сплиттер до 12 видюх. Сколько получится на практике - пока неизвестно. В данный момент работают 2. Интернет говорит, что в этом проце 16 PCIE 3.0 линий. Но каждому сплиттеру нужна всего одна линия. Пока подключил 2 видюхи каждую на x4, а ssd на x1.
🔥6👍1🐳1
Forwarded from LLM под капотом
Самый частый комментарий про исходники решения - победителя Enterprise RAG Challenge звучит примерно так:
Я и сам удивился. Не ожидал, что checklists в сочетании со structured outputs - это настолько мощная связка, что может вытягивать сразу десятки-сотни сущностей из документа за раз.
Удивление было уже давно, целый месяц назад (это вечность по современным меркам 😂). А сейчас уже в ряде проектов у нас сложные пайплайны переделаны под эту связку. Сложными они были раньше, теперь скучные, и это хорошо.
Основная сложность теперь не в написании кода, а в написании такого дерева Structured Output объектов, чтобы оно работало как Checklist, заполняя который последовательно, мы приходим к правильным выводам.
Получается прямо захардкоженный Chain-of-thought, который выполняется одним запросом! Причем в нем можно сразу закладывать ветвления и выделять места для дополнительных рассуждений (см ниже).
Поэтому я сейчас всех консультируемых клиентов с подходящими кейсами тороплю - пробуйте эту связку. Времени она тратит немного, а вот разработку может сократить заметно. Ну и код становится скучным и эффективным. Все, как мы любим.
Пара подсказок сразу:
(1) Не используем function calling syntax для передачи structured output, а передаем response_format
(2) gpt-4o-2024-08-06 работает хорошо. Вроде даже на Azure она уже есть со structured output.
(3) порядок полей очень важен! Они заполняются последовательно. Сначала можно ставить наводящие вопросы или даже давать место для размышлений (например, List[ThinkStep]).
(4) Там, где нужно делать классификацию, используем Literal. Опциональные поля помечаем как Optional, используем смело Dict/List. Ну и вообще знакомимся с фишками из Typing, которые поддерживает OpenAI API.
(5) Optional + вложенный класс - это возможность для GPT в рамках для Chain-of-thought пройтись по опциональной ветке размышлений. Еще есть anyOf, но так далеко с программированием на constrained decoding автомате я пока не заходил 😁
(6) Там, где важен формат ответа, ставим описание и примеры в Field. Это GPT тоже увидит. Можно повторить в названии и в описании. Например:
Понятно, что подход не универсальный. Но в продуктовых задачах для бизнеса такие самодельные ChainOfThought могут решать очень много задач одним запросом.
Тогда получится мой любимый вид продукта с LLM под капотом - когда снаружи он работает на одном уровне с передовыми решениями своего сектора, а то и лучше. Но у него есть маленький секрет - вместо монструозно сложной конструкции из кучи разных технологий (RAG/LangChain/Hybrid search/Agents итп) там просто пара простых и эффективных использований LLM. В итоге AI кода в решении - 5%, а все остальные 95% - это обычные интеграции, интерфейсы.
И такие типы продуктов очень важны для маленьких компаний и стартапов. При необходимости роста не нужно искать и нанимать редких ML специалистов. Код же простой и он на 95% обычен. Тут нужно искать обычных Front-End, Back-End и Full-stack итп. И нанять их можно будет сильно проще, т.к. зовут их не в обычный продукт, а в модный LLM-driven. Выигрывают от этого все.
Только вчера фаундер одного MedTech стартапа сказал, что после такого описания (с приоритизацией кейсов под этот паттерн) у него стратегия развития поменялась кардинально. И теперь pre-seed раунд на пару миллионов евро не выглядит недостижимым.
В общем, паттерн простой и мощный. Особенно, если приоритизировать кейсы, где он сработает хорошо (такие есть в каждой отрасли), а конкурентам оставлять более сложные.
Ваш, @llm_under_hood 🤗
PS: Я писал раньше про кейс с новой AI Platform для клиента. И он тоже теперь сильно использует этот паттерн на "одну кружку чая".
Заварил чайник, чтобы сесть разобраться в исходниках. К концу первой кружки удивился, что так мало кода.
Я и сам удивился. Не ожидал, что checklists в сочетании со structured outputs - это настолько мощная связка, что может вытягивать сразу десятки-сотни сущностей из документа за раз.
Удивление было уже давно, целый месяц назад (это вечность по современным меркам 😂). А сейчас уже в ряде проектов у нас сложные пайплайны переделаны под эту связку. Сложными они были раньше, теперь скучные, и это хорошо.
Основная сложность теперь не в написании кода, а в написании такого дерева Structured Output объектов, чтобы оно работало как Checklist, заполняя который последовательно, мы приходим к правильным выводам.
Получается прямо захардкоженный Chain-of-thought, который выполняется одним запросом! Причем в нем можно сразу закладывать ветвления и выделять места для дополнительных рассуждений (см ниже).
Поэтому я сейчас всех консультируемых клиентов с подходящими кейсами тороплю - пробуйте эту связку. Времени она тратит немного, а вот разработку может сократить заметно. Ну и код становится скучным и эффективным. Все, как мы любим.
Пара подсказок сразу:
response = client.beta.chat.completions.parse(
model="gpt-4o-2024-08-06",
messages=messages,
response_format=ChainOfThoughtPydanticClass
)
(1) Не используем function calling syntax для передачи structured output, а передаем response_format
(2) gpt-4o-2024-08-06 работает хорошо. Вроде даже на Azure она уже есть со structured output.
(3) порядок полей очень важен! Они заполняются последовательно. Сначала можно ставить наводящие вопросы или даже давать место для размышлений (например, List[ThinkStep]).
(4) Там, где нужно делать классификацию, используем Literal. Опциональные поля помечаем как Optional, используем смело Dict/List. Ну и вообще знакомимся с фишками из Typing, которые поддерживает OpenAI API.
(5) Optional + вложенный класс - это возможность для GPT в рамках для Chain-of-thought пройтись по опциональной ветке размышлений. Еще есть anyOf, но так далеко с программированием на constrained decoding автомате я пока не заходил 😁
(6) Там, где важен формат ответа, ставим описание и примеры в Field. Это GPT тоже увидит. Можно повторить в названии и в описании. Например:
class Size(BaseModel):
width: float
height: float
size_inches: Optional[Size] = Field(None, description="Dimensions in inches (width, length)")
Понятно, что подход не универсальный. Но в продуктовых задачах для бизнеса такие самодельные ChainOfThought могут решать очень много задач одним запросом.
Тогда получится мой любимый вид продукта с LLM под капотом - когда снаружи он работает на одном уровне с передовыми решениями своего сектора, а то и лучше. Но у него есть маленький секрет - вместо монструозно сложной конструкции из кучи разных технологий (RAG/LangChain/Hybrid search/Agents итп) там просто пара простых и эффективных использований LLM. В итоге AI кода в решении - 5%, а все остальные 95% - это обычные интеграции, интерфейсы.
И такие типы продуктов очень важны для маленьких компаний и стартапов. При необходимости роста не нужно искать и нанимать редких ML специалистов. Код же простой и он на 95% обычен. Тут нужно искать обычных Front-End, Back-End и Full-stack итп. И нанять их можно будет сильно проще, т.к. зовут их не в обычный продукт, а в модный LLM-driven. Выигрывают от этого все.
Только вчера фаундер одного MedTech стартапа сказал, что после такого описания (с приоритизацией кейсов под этот паттерн) у него стратегия развития поменялась кардинально. И теперь pre-seed раунд на пару миллионов евро не выглядит недостижимым.
В общем, паттерн простой и мощный. Особенно, если приоритизировать кейсы, где он сработает хорошо (такие есть в каждой отрасли), а конкурентам оставлять более сложные.
Ваш, @llm_under_hood 🤗
PS: Я писал раньше про кейс с новой AI Platform для клиента. И он тоже теперь сильно использует этот паттерн на "одну кружку чая".
👍7❤1🔥1
Media is too big
VIEW IN TELEGRAM
Anaconda запускает AI Navigator: работа с ИИ-моделями локально на вашем компьютере
Позволяет локально запускать свыше 200 предобученных и проверенных командой Анаконды моделей без отправки данных в облако.
Пока только на Mac & Windows. Ждем Ubuntu.
Есть так же локальный API-сервер и встроенный чат.
Планы: расширение возможностей создания и обмена ИИ-агентами к 2025 году.
Фактически клон LM Studio, но с интеграцией в среды разработки.
Удобно.
Качаем тут
#Anaconda #AINavigator #GenerativeAI
———
@tsingular
Позволяет локально запускать свыше 200 предобученных и проверенных командой Анаконды моделей без отправки данных в облако.
Пока только на Mac & Windows. Ждем Ubuntu.
Есть так же локальный API-сервер и встроенный чат.
Планы: расширение возможностей создания и обмена ИИ-агентами к 2025 году.
Фактически клон LM Studio, но с интеграцией в среды разработки.
Удобно.
Качаем тут
#Anaconda #AINavigator #GenerativeAI
———
@tsingular
🔥7
Media is too big
VIEW IN TELEGRAM
Ещё одна наглядная демонстрация, как работает трансформер.
https://poloclub.github.io/transformer-explainer/
В коллекцию демок.
#demo #обучение #LLM
———
@tsingular
https://poloclub.github.io/transformer-explainer/
В коллекцию демок.
#demo #обучение #LLM
———
@tsingular
Forwarded from NN
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI добавила в ChatGPT мощный инструмент для работы над проектами — Canvas. Специальный интерфейс октрывается в отдельном окне и предлагает новые возможности при работе с кодом и текстами.
Главные фишки для кодинга:
– Редактирование полученного кода прямо в окне ответа;
– Код-ревью от алгоритма, исправление ошибок и комментирование;
– Моментальный перенос кода на другой язык программирования.
Возможности для написания текстов:
– Редактирование длины без нового промта;
– Регулирование стилей — сложность текста можно менять на ходу;
– Проверка текста на ошибки, понятность и логическую последовательность.
Canvas постепенно появляются у подписчиков ChatGPT Plus и Team. Владельцы бесплатных аккаунтов смогут попробовать «холсты» когда закончится бета-тестирование.
Главные фишки для кодинга:
– Редактирование полученного кода прямо в окне ответа;
– Код-ревью от алгоритма, исправление ошибок и комментирование;
– Моментальный перенос кода на другой язык программирования.
Возможности для написания текстов:
– Редактирование длины без нового промта;
– Регулирование стилей — сложность текста можно менять на ходу;
– Проверка текста на ошибки, понятность и логическую последовательность.
Canvas постепенно появляются у подписчиков ChatGPT Plus и Team. Владельцы бесплатных аккаунтов смогут попробовать «холсты» когда закончится бета-тестирование.
⚡7
Рубрика - управление железом.
Давным-давно, во времена Doom2 и DOS пользовались мы RAMdrive утилитами, размещая игру в диске в оперативке, чтобы, значит, загружалась она не 3 минуты, а 30 секунд.
И тут прям флэшбэк:
В общем, представьте, что у вас есть 1 видеокарта и 2-3 модели ИИ (текст, картинка и звук, допустим) и вам их нужно быстро переключать.
Решение "в лоб", - это загрузка с диска, но даже самый быстрый SSD вам даст, скажем, 10гигов в секунду на чтение, а модели у вас 20гигов (да, мало, но видеокарта, допустим больше не поместит за раз)
Получается, что на смену "обоймы" вам нужно около 3х секунд, что невероятно долго для пользователя.
Решение - разместить модели на виртуальном диске в оперативке.
Она-то явно быстрее, чем любой ССД.
Так вот, - Клод за 10 минут накидал 250 строк скрипта, который создаёт такой диск и сразу сервис под него, который пересоздает его при перезагрузке.
Оставлю в комментариях.
#RAMdrive #devops #linux
———
#tsingular
Давным-давно, во времена Doom2 и DOS пользовались мы RAMdrive утилитами, размещая игру в диске в оперативке, чтобы, значит, загружалась она не 3 минуты, а 30 секунд.
И тут прям флэшбэк:
В общем, представьте, что у вас есть 1 видеокарта и 2-3 модели ИИ (текст, картинка и звук, допустим) и вам их нужно быстро переключать.
Решение "в лоб", - это загрузка с диска, но даже самый быстрый SSD вам даст, скажем, 10гигов в секунду на чтение, а модели у вас 20гигов (да, мало, но видеокарта, допустим больше не поместит за раз)
Получается, что на смену "обоймы" вам нужно около 3х секунд, что невероятно долго для пользователя.
Решение - разместить модели на виртуальном диске в оперативке.
Она-то явно быстрее, чем любой ССД.
Так вот, - Клод за 10 минут накидал 250 строк скрипта, который создаёт такой диск и сразу сервис под него, который пересоздает его при перезагрузке.
Оставлю в комментариях.
#RAMdrive #devops #linux
———
#tsingular
👏11👍1🔥1
China Telecom обучает триллионную LLM на чипах Huawei
China Telecom разрабатывает две крупномасштабные языковые модели:
• TeleChat2-115B с более чем 100 млрд параметров
• Вторая модель (название пока не известно) приближается к 1 триллиону параметров
Обучение проводится на десятках тысяч отечественных (китайских) чипов, преимущественно от Huawei.
Huawei позиционируется как локальная альтернатива Nvidia и активно тестирует свой новый процессор Ascend 910C, которых, для примера, ByteDance (разработчики TikTok) уже заказали около 100тыс штук.
Курс на создание автономных решений инициирован в ответ на экспортные ограничения США на высокопроизводительные GPU.
#ChinaTelecom #Huawei #Китай
-------
@tsingular
China Telecom разрабатывает две крупномасштабные языковые модели:
• TeleChat2-115B с более чем 100 млрд параметров
• Вторая модель (название пока не известно) приближается к 1 триллиону параметров
Обучение проводится на десятках тысяч отечественных (китайских) чипов, преимущественно от Huawei.
Huawei позиционируется как локальная альтернатива Nvidia и активно тестирует свой новый процессор Ascend 910C, которых, для примера, ByteDance (разработчики TikTok) уже заказали около 100тыс штук.
Курс на создание автономных решений инициирован в ответ на экспортные ограничения США на высокопроизводительные GPU.
#ChinaTelecom #Huawei #Китай
-------
@tsingular
👍14
Техногиганты возрождают атомную энергетику
Amazon, Microsoft и Google активно инвестируют в АЭС для питания своих дата-центров под ИИ.
Microsoft планирует перезапустить АЭС Three Mile Island к 2028 году. (об этом уже писали - https://xn--r1a.website/tsingular/2414)
Теперь:
Amazon Web Services приобрела кампус, питаемый АЭС Susquehanna. (тоже, кстати, в Пенсильвании)
Билл Гейтс основал TerraPower для развития ядерных технологий.
В целом, минэнерго США прогнозирует трехкратный рост ядерных мощностей к 2050 году.
Интересный тренд.
Ладно электричество, - тут атом, - выход.
А вот, что, интересно, с теплом, - ведь сколько ты энергии потратил, столько тепла и нужно отвести, а названные локации совсем не Арктика.
Получается, что значительная часть мощности еще и на охлаждение пойдет. ⚡️
#Microsoft #Amazon #NuclearEnergy
-------
@tsingular
Amazon, Microsoft и Google активно инвестируют в АЭС для питания своих дата-центров под ИИ.
Microsoft планирует перезапустить АЭС Three Mile Island к 2028 году. (об этом уже писали - https://xn--r1a.website/tsingular/2414)
Теперь:
Amazon Web Services приобрела кампус, питаемый АЭС Susquehanna. (тоже, кстати, в Пенсильвании)
Билл Гейтс основал TerraPower для развития ядерных технологий.
В целом, минэнерго США прогнозирует трехкратный рост ядерных мощностей к 2050 году.
Интересный тренд.
Ладно электричество, - тут атом, - выход.
А вот, что, интересно, с теплом, - ведь сколько ты энергии потратил, столько тепла и нужно отвести, а названные локации совсем не Арктика.
Получается, что значительная часть мощности еще и на охлаждение пойдет. ⚡️
#Microsoft #Amazon #NuclearEnergy
-------
@tsingular
🤔5👍2
Беспилотники Sany революционизируют строительство автомагистрали Пекин-Гонконг-Макао
В Китае стартовал масштабный проект реконструкции и расширения ключевой транспортной артерии.
Беспилотные технологии Sany демонстрируют впечатляющие возможности:
• Асфальтоукладчик шириной 20 м и умные катки работают полностью автономно.
• Достигнута рекордная ширина укладки - 19,25 м за один проход.
• Высокоточное позиционирование обеспечивает бесшовную укатку.
Проект знаменует новую эру в дорожном строительстве, сочетая масштаб и передовые технологии.
Почти 160км полностью автономно.
Это ж так можно вообще все дороги в порядок привести за 5-10 лет.
🚜🤖
#Sany #UAV #Китай
------
@tsingular
В Китае стартовал масштабный проект реконструкции и расширения ключевой транспортной артерии.
Беспилотные технологии Sany демонстрируют впечатляющие возможности:
• Асфальтоукладчик шириной 20 м и умные катки работают полностью автономно.
• Достигнута рекордная ширина укладки - 19,25 м за один проход.
• Высокоточное позиционирование обеспечивает бесшовную укатку.
Проект знаменует новую эру в дорожном строительстве, сочетая масштаб и передовые технологии.
Почти 160км полностью автономно.
Это ж так можно вообще все дороги в порядок привести за 5-10 лет.
🚜🤖
#Sany #UAV #Китай
------
@tsingular
🔥52👍17⚡5😁4❤🔥1
Много разных прогнозов,- заменит ИИ программистов или нет и когда.
Некоторых товарищей слушать бесполезно и не интересно. Как алармистов так и неолуддитов.
Но вот этих точно стоит.
https://youtu.be/oFfVt3S51T4?si=XDTWiwJAGEavQNff
Лекс Фридман и команда разработчиков Курсора,- среды разработки с ИИ.
UPD: Перевод в комментариях
#LexFridman #Cursor #dev
------
@tsingular
Некоторых товарищей слушать бесполезно и не интересно. Как алармистов так и неолуддитов.
Но вот этих точно стоит.
https://youtu.be/oFfVt3S51T4?si=XDTWiwJAGEavQNff
Лекс Фридман и команда разработчиков Курсора,- среды разработки с ИИ.
UPD: Перевод в комментариях
#LexFridman #Cursor #dev
------
@tsingular
👍8
Эрик Шмидт: к чёрту климатическую повестку, - ИИ разберётся
Бывший CEO Google заявил, что приоритет следует отдать развитию ИИ, а не борьбе с изменением климата.
Бум ИИ увеличил энергопотребление дата-центров.
Прогнозируется, что к 2030 году они будут потреблять 35 гигаватт ежегодно!!!
Шмидт при этом полагает, что рост потребления энергии на ИИ превзойдет все экологические ограничения, и цели по защите климата не будут достигнуты из-за отсутствия координации.
Он предпочитает делать ставку на то, что ИИ сам решит проблему в будущем, вместо ограничения его развития сейчас через снижение энергопотребления.
АХхаха. Pedal to the metal! :) гонка энергетиков началась!
#EricSchmidt #datacenters #energy
-------
@tsingular
Бывший CEO Google заявил, что приоритет следует отдать развитию ИИ, а не борьбе с изменением климата.
Бум ИИ увеличил энергопотребление дата-центров.
Прогнозируется, что к 2030 году они будут потреблять 35 гигаватт ежегодно!!!
Шмидт при этом полагает, что рост потребления энергии на ИИ превзойдет все экологические ограничения, и цели по защите климата не будут достигнуты из-за отсутствия координации.
Он предпочитает делать ставку на то, что ИИ сам решит проблему в будущем, вместо ограничения его развития сейчас через снижение энергопотребления.
АХхаха. Pedal to the metal! :) гонка энергетиков началась!
#EricSchmidt #datacenters #energy
-------
@tsingular
🤨7🗿2👾2😁1