🚀 Terraform и Ansible — прошлый век, встречайте Pulumi
Раньше выбор стоял между Terraform и Ansible: один — для создания инфраструктуры, другой — для настройки серверов. Но времена меняются. В эпоху облаков, DevOps и масштабируемых решений Pulumi выходит на первый план. Это современный инструмент инфраструктуры как кода (IaC), который позволяет использовать привычные языки программирования — TypeScript, Python, Go и даже C# — вместо ограниченного DSL, как в Terraform, или YAML, как в Ansible 🧠.
💻 Почему Pulumi — это будущее IaC
Pulumi объединяет в себе лучшее от Terraform и Ansible, устраняя их ограничения. Вместо декларативных описаний, вы пишете полноценный код: с логикой, циклами, условиями, модулями и тестами. Это делает инфраструктуру гибкой, читаемой и легко масштабируемой. А главное — вы используете один стек технологий и один язык и для разработки, и для инфраструктуры. Меньше контекста — больше продуктивности 💡.
⚙️ Деплой приложений? Да, Pulumi тоже умеет!
Многие думают, что Pulumi — это только про облачные ресурсы. Но на деле с его помощью можно разворачивать приложения на хостах, подобно Ansible. Вы можете использовать SSH-подключения, запускать команды, копировать файлы и даже управлять системными службами. Для этого понадобится:
• Pulumi + язык (например, Python),
• плагин pulumi-command для выполнения команд на хостах,
• доступ по SSH и правильно настроенные credentials.
Это открывает путь к единой системе: и инфраструктура, и конфигурация, и деплой — всё в одном месте ⚡.
🌟 Вывод
Если вы всё ещё пишете YAML-файлы для Ansible или ковыряетесь в HCL с Terraform — пора перейти на Pulumi. Это мощный, гибкий и современный инструмент, который меняет представление об инфраструктуре как коде. И да — он умеет не только поднимать серверы, но и запускать на них ваше приложение. Будущее уже здесь — и оно написано на TypeScript 😉📘.
Раньше выбор стоял между Terraform и Ansible: один — для создания инфраструктуры, другой — для настройки серверов. Но времена меняются. В эпоху облаков, DevOps и масштабируемых решений Pulumi выходит на первый план. Это современный инструмент инфраструктуры как кода (IaC), который позволяет использовать привычные языки программирования — TypeScript, Python, Go и даже C# — вместо ограниченного DSL, как в Terraform, или YAML, как в Ansible 🧠.
💻 Почему Pulumi — это будущее IaC
Pulumi объединяет в себе лучшее от Terraform и Ansible, устраняя их ограничения. Вместо декларативных описаний, вы пишете полноценный код: с логикой, циклами, условиями, модулями и тестами. Это делает инфраструктуру гибкой, читаемой и легко масштабируемой. А главное — вы используете один стек технологий и один язык и для разработки, и для инфраструктуры. Меньше контекста — больше продуктивности 💡.
⚙️ Деплой приложений? Да, Pulumi тоже умеет!
Многие думают, что Pulumi — это только про облачные ресурсы. Но на деле с его помощью можно разворачивать приложения на хостах, подобно Ansible. Вы можете использовать SSH-подключения, запускать команды, копировать файлы и даже управлять системными службами. Для этого понадобится:
• Pulumi + язык (например, Python),
• плагин pulumi-command для выполнения команд на хостах,
• доступ по SSH и правильно настроенные credentials.
Это открывает путь к единой системе: и инфраструктура, и конфигурация, и деплой — всё в одном месте ⚡.
🌟 Вывод
Если вы всё ещё пишете YAML-файлы для Ansible или ковыряетесь в HCL с Terraform — пора перейти на Pulumi. Это мощный, гибкий и современный инструмент, который меняет представление об инфраструктуре как коде. И да — он умеет не только поднимать серверы, но и запускать на них ваше приложение. Будущее уже здесь — и оно написано на TypeScript 😉📘.
🥴4👍1👏1
  Если вы думаете, что для вашего сервиса на 4 пользователя (из которых два это ваша бабушка и собака) нужен фронтенд фреймворк вроде вью, ангуляра или даже реакта - пройдите по ссылке ниже.
https://justfuckingusehtml.com
  
  https://justfuckingusehtml.com
Just fucking use HTML
  
  
  Stop reinventing the wheel. The web was doing just fine before your bloated frameworks crawled out of the sewer.
❤7
  Forwarded from Делаю вид что разбираюсь
Как известно yaml это лучший формат для конфигов, поэтому вашему вниманию представляется следующий образец творчества:
Ну и т.к. лучший формат настолько прост, что парсинг его крайне тривиальная задача, то можно попробовать прочитать этот файл из парсеров разных языков и увидеть что в поле lang будет каждый раз разное. Как работает все данные трюки можно прочитать в заметке у автора этого шедевра.
А если серьезно, то про ямл у меня есть небольшая видеоцитата, этот формат проще сжечь чем починить
  
  !!binary bGFuZx==: ruby
!!binary lang: rust
!!binary bGFuZy==: node
alias-lang: &lang !!binary bGFuZz==
? *lang
: go
alias-lang2: !!str &lang2 lang
<<: [
  {
    ? *lang2 : java,
    #lang: python
  },
]
!!merge qwerty: {lang: "python"}Ну и т.к. лучший формат настолько прост, что парсинг его крайне тривиальная задача, то можно попробовать прочитать этот файл из парсеров разных языков и увидеть что в поле lang будет каждый раз разное. Как работает все данные трюки можно прочитать в заметке у автора этого шедевра.
А если серьезно, то про ямл у меня есть небольшая видеоцитата, этот формат проще сжечь чем починить
Gist
  
  "Safe" YAML monster
  "Safe" YAML monster. GitHub Gist: instantly share code, notes, and snippets.
😁4
  Forwarded from Николай Тузов
Недавно и Docker, и Podman добавили возможность быстро и просто запускать LLM прямо в контейнерах.
Запуск LLM теперь такой же простой, как
docker run.В чём суть:
— В Docker добавили команду docker model (пока только на macOS с Apple Silicon). Теперь модели можно качать из Docker Hub и запускать в один клик, получая OpenAI-совместимый API.
— Podman с помощью расширения Podman AI Lab позволяет делать примерно то же самое, но ещё и с удобным GUI.
Почему это круто?
1. Теперь не надо мучиться с ручной установкой и настройкой LLM: пара кликов, и готово. Работает локально и без отправки данных куда-то в облако.
Привет всем, кто боится "сливать" рабочий код корпорациям!
2. Единый подход к упаковке моделей: модели хранятся и распространяются через те же механизмы, что и обычные образы. Удобно и надёжно для CI/CD и не только.
3. Значительно проще экспериментировать и интегрировать LLM в проекты даже для тех, кто раньше с моделями не работал.
4. Хороший толчок для индустрии — всё больше LLM-приложений будет появляться локально, без привязки к облачным сервисам.
Как было раньше?
До этого для локального запуска моделей приходилось возиться с кучей инструментов:
- Ollama (типа Docker для LLM, самый популярный вариант)
- LM Studio, GPT4All (GUI для тех, кто не любит терминал)
- llama.cpp (низкоуровневая штука, на которой всё построено)
Проблема была в том, что это всё жило отдельной жизнью от основной инфраструктуры. Модели управлялись отдельно, настройка окружения — отдельная песня с Python, CUDA и прочими радостями.
————
Всё это выглядит как большой подарок мне на день рождения!
Потому что оно уже скоро, и я заказал себе в подарок ПК с RTX 5090 — в основном, чтобы играть в игры, но и с моделями грех не поразвлекаться, чтобы такой монстр без дела не простаивал.
Если кто-то из вас уже успел с этим поиграться, делитесь в комментариях, как вам?
#docker #podman #llm
Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤1🔥1
  