Telegram Web Link
Forwarded from Инженер Тяпкин (Clear Gray)
😁7👍1
😁6😱2
Forwarded from Viktor Titov
Я эксперт по типо говноинфраструктура как говнокод
1
😁6
Если вы думаете что в питоне тип bool сэкономит вам память - то вы сильно ошибаетесь. Сравнивайте инты или флоты - больше памяти точно не займете.
😁12
Если кто-то вам скажет что джаваскрипт понятный язык - покажите ему эту картинку
😁6
Forwarded from Инженер Тяпкин (Clear Gray)
6
🚀 Terraform и Ansible — прошлый век, встречайте Pulumi
Раньше выбор стоял между Terraform и Ansible: один — для создания инфраструктуры, другой — для настройки серверов. Но времена меняются. В эпоху облаков, DevOps и масштабируемых решений Pulumi выходит на первый план. Это современный инструмент инфраструктуры как кода (IaC), который позволяет использовать привычные языки программирования — TypeScript, Python, Go и даже C# — вместо ограниченного DSL, как в Terraform, или YAML, как в Ansible 🧠.

💻 Почему Pulumi — это будущее IaC
Pulumi объединяет в себе лучшее от Terraform и Ansible, устраняя их ограничения. Вместо декларативных описаний, вы пишете полноценный код: с логикой, циклами, условиями, модулями и тестами. Это делает инфраструктуру гибкой, читаемой и легко масштабируемой. А главное — вы используете один стек технологий и один язык и для разработки, и для инфраструктуры. Меньше контекста — больше продуктивности 💡.

⚙️ Деплой приложений? Да, Pulumi тоже умеет!
Многие думают, что Pulumi — это только про облачные ресурсы. Но на деле с его помощью можно разворачивать приложения на хостах, подобно Ansible. Вы можете использовать SSH-подключения, запускать команды, копировать файлы и даже управлять системными службами. Для этого понадобится:
• Pulumi + язык (например, Python),
• плагин pulumi-command для выполнения команд на хостах,
• доступ по SSH и правильно настроенные credentials.
Это открывает путь к единой системе: и инфраструктура, и конфигурация, и деплой — всё в одном месте .

🌟 Вывод
Если вы всё ещё пишете YAML-файлы для Ansible или ковыряетесь в HCL с Terraform — пора перейти на Pulumi. Это мощный, гибкий и современный инструмент, который меняет представление об инфраструктуре как коде. И да — он умеет не только поднимать серверы, но и запускать на них ваше приложение. Будущее уже здесь — и оно написано на TypeScript 😉📘.
🥴4👍1👏1
Если вы думаете, что для вашего сервиса на 4 пользователя (из которых два это ваша бабушка и собака) нужен фронтенд фреймворк вроде вью, ангуляра или даже реакта - пройдите по ссылке ниже.

https://justfuckingusehtml.com
7
Как известно yaml это лучший формат для конфигов, поэтому вашему вниманию представляется следующий образец творчества:

!!binary bGFuZx==: ruby
!!binary lang: rust
!!binary bGFuZy==: node
alias-lang: &lang !!binary bGFuZz==
? *lang
: go
alias-lang2: !!str &lang2 lang
<<: [
{
? *lang2 : java,
#lang: python
},
]
!!merge qwerty: {lang: "python"}


Ну и т.к. лучший формат настолько прост, что парсинг его крайне тривиальная задача, то можно попробовать прочитать этот файл из парсеров разных языков и увидеть что в поле lang будет каждый раз разное. Как работает все данные трюки можно прочитать в заметке у автора этого шедевра.

А если серьезно, то про ямл у меня есть небольшая видеоцитата, этот формат проще сжечь чем починить
😁4
Forwarded from NOP::Humor
🥰3
Если вы хотите подставить переменные окружения в текстовый файл, но у вас нет команды envsubst, например в alpine докер контейнере, то есть выход. Используйте команду eval "echo \"$(cat deployment.yaml.template)\"" > deployment.yaml
🤝3❤‍🔥1
🥰3😁1
👩‍💻 Docker и Podman научились запускать LLM. Что это значит для нас?

Недавно и Docker, и Podman добавили возможность быстро и просто запускать LLM прямо в контейнерах.

Запуск LLM теперь такой же простой, как docker run.

В чём суть:

— В Docker добавили команду docker model (пока только на macOS с Apple Silicon). Теперь модели можно качать из Docker Hub и запускать в один клик, получая OpenAI-совместимый API.

— Podman с помощью расширения Podman AI Lab позволяет делать примерно то же самое, но ещё и с удобным GUI.

Почему это круто?

1. Теперь не надо мучиться с ручной установкой и настройкой LLM: пара кликов, и готово. Работает локально и без отправки данных куда-то в облако.
Привет всем, кто боится "сливать" рабочий код корпорациям! ❤️

2. Единый подход к упаковке моделей: модели хранятся и распространяются через те же механизмы, что и обычные образы. Удобно и надёжно для CI/CD и не только.

3. Значительно проще экспериментировать и интегрировать LLM в проекты даже для тех, кто раньше с моделями не работал.

4. Хороший толчок для индустрии — всё больше LLM-приложений будет появляться локально, без привязки к облачным сервисам.

Как было раньше?

До этого для локального запуска моделей приходилось возиться с кучей инструментов:

- Ollama (типа Docker для LLM, самый популярный вариант)
- LM Studio, GPT4All (GUI для тех, кто не любит терминал)
- llama.cpp (низкоуровневая штука, на которой всё построено)

Проблема была в том, что это всё жило отдельной жизнью от основной инфраструктуры. Модели управлялись отдельно, настройка окружения — отдельная песня с Python, CUDA и прочими радостями.

————

Всё это выглядит как большой подарок мне на день рождения! 😏
Потому что оно уже скоро, и я заказал себе в подарок ПК с RTX 5090 — в основном, чтобы играть в игры, но и с моделями грех не поразвлекаться, чтобы такой монстр без дела не простаивал.


Если кто-то из вас уже успел с этим поиграться, делитесь в комментариях, как вам?

#docker #podman #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1
👍9👎2💩1💯1
Forwarded from кошька
👨‍💻6💯2👀1
2025/10/31 04:12:56
Back to Top
HTML Embed Code: