Okay. So, a I'm running a load of different #Docker containers. I can easily handle the backup of the compose YAML files, but I'm trying to find a nice and easy way to backup the data (volumes), for both the files and the DB data in those containers, so that in event of hardware failure, I can spark up a replacement server easily.
I must be missing something really obvious, because I can't see a neat way to get backups of named data volumes, and DB volumes, into a tarball or similar for Rsync?
Развернем n8n и postgres под проекты на серваке, подключим свой домен и настроим бекапы в s3
Статья в формате шпаргалки, для тех кто понимает о чем тут написано и зачем оно надо. Я вчерашний был бы рад, если бы такая статья существовала. Тут максимально кратко изложен мой опыт, без воды и отступлений. По итогу получим полностью готовую инфраструктуру под свои проекты на n8n. Погнали
https://habr.com/ru/articles/972752/
#n8n #postgresql #бекапы #open_source #автоматизация #ai #docker #dockercompose
For an existing #emacs #transient command, I would like to add another, custom argument. Can someone point me to some docs how to do that, please?
(It's #docker.el's "list containers" command and I would like to add a custom filter)
Собственный суверенный интернет: настраиваем DNS, CA и TLS своими руками
Всем привет, меня зовут Олег Юрчик, я старший разработчик в Cloud.ru . Современный интернет — это не только IT-гиганты и готовые облачные сервисы. Под капотом глобальной сети скрываются базовые принципы, которые может воспроизвести любой технический специалист. В этой статье сначала вспомним, как появился Интернет и как он работает. А затем разберем, как создать его уменьшенную, но полностью управляемую копию с собственными DNS, центром сертификации и веб-сервисами. Статья будет полезна всем, кто хочет знать, как взаимодействуют шестеренки всемирной паутины. Добро пожаловать
https://habr.com/ru/companies/cloud_ru/articles/970834/
#интернет #dns #центр_авторизации #сети #децентрализация #docker #автономность
The tremendous increase in the use of AI coding agents has made Docker Sandboxes essential. https://hackernoon.com/contain-your-ai-agents-with-docker-sandboxes #docker
GotoSocial进阶配置:迁移数据至 Backblaze B2(S3 Storage)
自用备忘
其他:增大VIDEO_MAX_SIZE到40MB
GTS_MEDIA_VIDEO_MAX_SIZE: "41943040"
20MB---40MB,将使用S3存储图片、视频,可以适当放开视频大小限制。
由于Mastodon 通常默认最大 40MB,过大的视频可能被拒绝联合
更大的视频需要托管到 https://video.feddit.social (施工中)
1.配置backblaze B2
没有海外信用卡看这个教程:https://linux.do/t/topic/1093338
创建桶
bucketName: gotosocial-s3-media
类型: Private
创建Application Keys
keyName: gts-s3
bucketName: gotosocial-s3-media
KeyID: XXX
APPLICATION_KEY: XXX
2. 配置MinIO mc
curl -O https://dl.min.io/client/mc/release/linux-amd64/mc
sudo chmod +x mc
sudo mv mc /usr/local/bin/
mc -v
mc alias set b2-gts https://Endpoint ACCESS_KEY APPLICATION_KEY
3. 迁移本地数据到backblaze bucket
docker compose down
停机,防止迁移数据时仍有新文件
mc mirror --exclude "sqlite.db*" ~/gotosocial/data b2-gts/gotosocial-s3-media/
备份
cp -r ~/gotosocial/data ~/gotosocial/data_backup
编辑docker-compose.yaml
mv docker-compose.yaml docker-compose.yaml.bak
nano docker-compose.yaml
启动服务器
docker compose up -d
4. 验证S3成功(本地文件未增加)
find ~/gotosocial/data -type f | wc -l
# 上传几个文件
find ~/gotosocial/data -type f | wc -l
# 输出数量不变,
验证S3成功(远程文件增加)
mc find b2-gts/gotosocial-s3-media --name "*" | wc -l
# 或者来到 backblaze browse Files。进入gotosocial-s3-media,全选,查看档案数量是否增加
5. 访问Web客户端
访问正常,确认迁移成功,可删去~/gotosocial/data内除了sqlite-db-*的所有文件/文件夹
#gotosocial #peertube #s3 #backblaze #url #torrent #sysadmin #admin #fediverse #mastodon #socialmedia #linux #docker

Как я учу Kubernetes. Запуск локального Minikube, реальные ошибки и как я их решал
Я изучаю Kubernetes как часть практики по контейнеризации и автоматизации развертывания. Чтобы системно выстроить понимание, я веду рабочий конспект в формате статьи: фиксирую используемые команды, практические наблюдения и способы решения возникающих проблем. Моя цель - уверенно понимать, как устроен кластер изнутри, и уметь работать с ним в реальных условиях. Эта статья будет полезна тем, кто также начинает путь в Kubernetes и сталкивается с тем, что документация даёт базу, но не всегда описывает полную последовательность действий и типичные ошибки, возникающие в процессе. Для практики я использую локальный кластер на Minikube - он позволяет экспериментировать с компонентами Kubernetes без аренды серверов или облачных инфраструктуры.
https://habr.com/ru/articles/969404/
#kubernetes #minikube #docker #docker_desktop #devops #инфраструктура #troubleshooting #junior #обучение #решение_проблем
Filebrowser: Cách đặt hạn ngạch (quota) cho từng user? Có cách nào tự động cấp 25GB cho mỗi người dùng mới không? Nếu Filebrowser không làm được, có dịch vụ self-host nào khác (chạy Docker) có thể? 🤔 #selfhosted #filebrowser #docker #lưu_trữ #tự_lưu_trữ
https://www.reddit.com/r/selfhosted/comments/1pcp15a/setting_user_quotas_in_filebrowser/
Included Health is hiring Staff Cloud Security Engineer
🔧 #golang #python #ruby #aws #cicd #docker #gcp #kubernetes #terraform #securityengineer
🌎 Remote
⏰ Full-time
🏢 Included Health
Job details https://jobsfordevelopers.com/jobs/staff-cloud-security-engineer-at-includedhealth-com-jul-18-2025-d62696?utm_source=mastodon.world&utm_medium=social&utm_campaign=posting
#jobalert #jobsearch #hiring
Ứng dụng tự host đồng bộ lịch sử xem Plex lên Trakt bằng webhook. Hỗ trợ nhiều người dùng với tài khoản Trakt riêng. Đồng bộ theo thời gian thực, hỗ trợ phim, TV series, anime. Tự động làm mới token. Triển khai bằng Docker.
#Plex #Trakt #Webhook #Selfhosted #Docker #Vietnamese #PlexToTrakt #Tự_host #Việt_Nam
https://www.reddit.com/r/selfhosted/comments/1pckhib/plex_to_trakt_realtime_webhookbased_sync_with/
📝 Daily report 📈
Here are today's most popular trending hashtags #⃣ on our website 🌐️:
#endof10, #gnulinux, #docker, #selfhosting, #conservation, #fineartphotography, #gnu, #fineart, #gaming, #climate, #security, #programming
🔥 Stay tuned! 🔥
#TIL if you accidentally did not mount the MySQL data volume in #docker compose and accidentally recreate the container - for example by docker down/up - the old volume with the data still can be there in /var/lib/docker/volumes. No backup - sometimes still mercy :-)