👈👈👈 欢迎点赞收藏关注哟 首先分享之前的所有文章 >>>> 😜😜😜 文章合集 : 🎁 juejin.cn/post/694164… Github : 👉 github.com/black-ant CASE 备份 : 👉 gitee.com/antbla
前言 接上文了解K8S集群后开始尝试搭建K8S集群,由于原生K8S集群搭建时问题重重,花费了一周后还在解决问题,于是便想到了使用工具来搭建K8S集群。一开始想使用官网minikube,但是仅能部署单节点,就选用了rancher作为搭建工具。 1、环境 1台master节点(192.168.153.5
故事背景是 一个 0 经验的运维小白,没有接触过任何 K8S 知识,在公司突如其来的云原生战略转型中临危受命,担任大规模集群的运维工作中发生的各种翻车事件... 我是小白,当听说公司采购了一些 K8S 基础设施由我运维管理时,我是兴奋的。一想到原本虚拟机上部署的业务都会迁移到我这里,我掌控着公司各
k8s 客户端 用于连接k8s集群,建议下载1.23.x的版本,其他的版本本地运行可能会有莫名其妙的报错 dl.k8s.io/release/v1.… k8s 集群 minikube Minikube 会在当前宿主机上启动一个最小的 K8S 集群,用于实验性质,全过程比较傻瓜,一键安装即可 kube
前言 在使用 K8S 部署 RSS 全套自托管解决方案- RssHub + Tiny Tiny Rss, 我介绍了将 RssHub + Tiny Tiny RSS 部署到 K8s 集群中的方案. 其中 TTRSS 会用到 Postgres 存储数据, 也一并部署到 K8s 容器中. 但是最近, 由于
背景 在前面三节中已经讲到如何将我们的应用部署到 k8s 集群并提供对外访问的能力,x现在可以满足基本的应用开发需求了。 现在我们需要更进一步,使用 k8s 提供的一些其他对象来标准化我的应用开发。 首先就是 ConfigMap,从它的名字也可以看出这是用于管理配置的对象。 ConfigMap 不管
本文主要整理了Kubernetes常用命令,给朋友们一个备忘录。 查看K8S的帮助命令 kubectl --help 切换被操作的集群 默认情况下会在.kube目录下的config文件里的证书去操作K8S集群。如果碰到需要切换访问别的K8S集群的场景,可以使用kubectl --kubeconf
背景在前面三节中已经讲到如何将我们的应用部署到 k8s 集群并提供对外访问的能力,x现在可以满足基本的应用开发需求了。现在我们需要更进一步,使用 k8s 提供的一些其他对象来标准化我的应用开发。首先就是 ConfigMap,从它的名字也可以看出这是用于管理配置的对象。ConfigMap不管我们之前是
引言 Kubernetes出现的报错如下: Failed to create pod sandbox: rpc error: code = Unknown desc = failed to get sandbox image "k8s.gcr.io/pause:3.5": failed to pul
K3s是什么? K3s 是轻量级的 Kubernetes,是一个完全兼容的 Kubernetes 发行版,占用内存小,非常适合在有限的资源下部署体验云原生环境。 更多参考:官方文档 为什么选择K3s? 笔者趁着腾讯云、天翼云等云服务做活动时,入手了2台轻量级云服务器。在实操K8s相关技术知识时,总觉
部署MinIO Operator # 下载MinIO的K8s插件 curl https://github.com/minio/operator/releases/download/v5.0.9/kubectl-minio_5.0.9_linux_amd64 -o kubectl-minio #
大家好,我是蓝胖子,都知道,k8s拥有自动扩缩容机制HPA,我们能够通过配置针对不同的扩缩容场景进行自动扩缩容,往往初学者在面对其中繁多配置的时候会学了又忘记,今天我将会以一种不同的视角,结合api server 请求 来探索这部分的配置,看完本篇,应该会对扩缩容这部分配置会有更深的理解。 自动扩
对于需要自建Git服务实现CI/CD及DevOps的,gitea无疑是个非常好的选择。而对于小型运维团队来说,使用K3s能减少大量的维护成本。 gitea和K3s都是非常轻量和易于安装的。 gitea文档:docs.gitea.com/zh-cn/ K3s文档:docs.k3s.io/zh/ 安装
综述 在微服务、DevOps和云平台流行的当下,使用一个高效的持续集成工具也是一个非常重要的事情。虽然市面上目前已经存在了比较成熟的自动化构建工具,比如jekines,还有一些商业公司推出的自动化构建工具,但他们都不能够很好的和云环境相结合。那么究竟该如何实现一个简单、快速的基于云环境的自动化构建系
在 pve 中使用 LXC 创建 k3s 在之前这里是使用 vm的方式创建了一个新的虚拟机来创建 k8s 节点,但是带来的问题就是在基本没有任何应用的情况下负载居高不下 所以考虑使用 k3s 来替代 k8s。 准备工作 在 pve 使用 lxc安装k3s需要修改一些宿主机配置 节点内核参数开启
背景在做传统业务开发的时候,当我们的服务提供方有多个实例时,往往我们需要将对方的服务列表保存在本地,然后采用一定的算法进行调用;当服务提供方的列表变化时还得及时通知调用方。student: url: - 192.168.1.1:8081 - 192.168.
作者:宇轩辞白,运维研发工程师,目前专注于云原生、Kubernetes、容器、Linux、运维自动化等领域。 前言 2023 年 7 月 23 日在项目上线前夕,K8s 生产环境出现故障,经过紧急修复之后,K8s 环境恢复正常;另外我们环境引入了 KubeSphere 云原生平台技术,为了方便研发
背景 最近这这段时间更新了一些 k8s 相关的博客和视频,也收到了一些反馈;大概分为这几类: 公司已经经历过服务化改造了,但还未接触过云原生。 公司部分应用进行了云原生改造,但大部分工作是由基础架构和运维部门推动的,自己只是作为开发并不了解其中的细节,甚至 k8s 也接触不到。 还处于比较传统的以
概要 k8s的哲学是不要把Pod当成宠物,因此每次deployment的更新,都会导致Pod的删除和重建,对于一些场景而言,Pod的重建是完全不必要的,因此需要一种办法,在特定情况,例如只是更新镜像时,让Pod不要重建,而是重启,并且对业务无损,OpenKruise实现了这个功能。 详情 k8s核心
k8s 1.24之后弃用了docker容器运行时,安装方式上有所不同,网上找到的大多数都是1.24之前的版本。所以把自己搭建的完整过程记录下来供大家参考。 一、前言 k8s的部署方式有多种kubeadm、kind、minikube、Kubespray、kops等本文介绍官方推荐的kubeadm的方式