本文是对ClusterMesh(Cilium的多集群实现)的深入研究。简而言之,ClusterMesh 提供: 通过隧道或直接路由,以本地性能对多个Kubernetes集群进行Pod IP路由,而无需任何网关或代理。 使用标准Kubernetes服务和coredns/kube-dns的透明服务发现
1.多集群网格背景介绍 Istio 并不是单一领域的技术,它综合了诸多服务治理领域的解决方案和最佳实践。在模型上,istio 提供了多个层次的抽象,以适配不同的平台场景; 在实际应用上,istio 提供了若干可选的开源系统和技术,并合理的将这些系统组合在一起,以实现服务网格中的「连接」、「安全」、「
随着容器技术的流行,大量互联网公司和传统 IT 企业都在尝试应用容器化和服务上云。容器化是一个持续的过程,伴随着多地域部署、安全等级隔离、多云和混合云等复杂的场景需求。 上篇文章中我们成功将广州和新加坡 2 地的 kubernetes 集群连通为一个服务网格,实现了多集群服务透明共享:recomme
编者按 本文从多个维度阐述了使用更少的大节点与更多的小节点来组建 Kubernetes 集群各自的优势与劣势,并结合实践经验给出了选择工作节点数量和大小的一般方法。 引言 欢迎来到 Kubernetes 学习园地,这是一个常规专栏,收集整理了我们在线上以及线下研讨会上由 Kubernetes 专家回
Kubernetes 作为 eBay 的统一云平台,统管了在线业务、大数据、搜索后台等多种异构应用。集群数量高达上百,其中的大型集群中,单个集群运行数千个微服务,数十万 Pod。不同类型的应用,针对流量管控的需求也各有不同,如何用一套统一的模型将各种流量管控需求统一起来是 eBay 多年来一直面临的
本文翻译自 To Multicluster, or Not to Multicluster: Inter-Cluster Communication Using a Service Mesh。Istio 服务网格是解决 Kubernetes 集群间通信的一个关键,虽然翻译这篇文章距离原文发表也有快
本文将向大家介绍同程旅行大数据集群在Kubernetes上服务化建设的一些实践和经验。 前言 同程旅行大数据集群从 2017 年开始容器化改造,经历了自研调度 docker 容器 ,到现在的云舱平台,采用 Kubernetes 调度编排工具管理大数据集群服务。 在这个过程中遇到很多问题和
前言 这篇内容篇幅比较长,如果不想深入探讨或时间有限,这是全文简述: 在默认设置下,扩展 Kubernetes 集群中的 pod 和节点可能需要几分钟时间。 了解如何调整集群节点的大小、配置水平和集群自动缩放器以及过度配置集群以加快扩展速度。 目录 当自动伸缩的 Pod 报错 Kubernetes
本文译自 Istio 官网。 当用户将他们的服务转移到Istio服务网格中运行时,他们通常会惊讶地发现,控制平面默认会观察和处理集群中所有命名空间中的所有Kubernetes资源。这对于拥有大量命名空间和部署的大型集群,甚至对于拥有快速流动资源(例如Spark作业)的中等规模的集群来说,都可能是一个
背景 随着云原生概念的普及,服务网格技术的流行以及 Istio 的成熟,使用Istio 进行服务治理的实践也越来越多,正成为服务治理的趋势。 在这样的背景下,我们也加入到 Istio 的研究中,希望初期通过 Istio 实现公司产品迭代版本的灰度发布,后续基于 Istio 为业务产品提供更多的流量管
Kubernetes1.4主要新特性: 创建kubernetes集群只需要两条命令 增强了对有状态应用的支持 增加了集群联盟API 支持容器安全控制 增强包括调度在内的Kubernetes基础架构 通过Kubernetes DashBoard UI已经可以实现90%的命令行操作 两条命令创建集
Docker Native Orchestration 基本结构 Docker Engine 1.12 集成了原生的编排引擎,用以替换了之前独立的Docker Swarm项目。Docker原生集群(Swarm)同时包括了(Docker Engine \/ Daemons),这使原生dock
编者注: 这篇帖子来源于 Kubernetes 官方文档,是「深度探讨 Kubernetes 1.5 系列」之中的一篇,深度阐述集群联盟。 最近,Kubernetes 1.5 发布,不难发现,它对于集群联盟的支持正趋于成熟。集群联盟功能是在 Kubernetes1.3 的时候引入的。1.5 版本不仅
简介 Velero前身是Heptio Ark ,是由GO语言编写的一款用于灾难恢复和迁移工具,可以安全的备份、恢复和迁移Kubernetes集群资源和持久卷。 Velero主要提供以下能力 备份Kubernetes 集群资源,并在资源丢失情况下进行还原 将集群资源迁移到其他集群 将生产集群复制到开
目前,有很多种基于Kubernetes搭建RabbitMQ集群的解决方案。今天笔者今天将要讨论我们在Fuel CCP项目当中所采用的方式。这种方式加以转变也适用于搭建RabbitMQ集群的一般方法。所以如果你想要设计自己的解决方案,你应该收集一些更符合你定制化需求的文章。 命名你的集群 在Kuber
经常遇到全新初始安装k8s集群的问题,所以想着搞成离线模式,本着最小依赖原则,采用纯shell脚本编写 基于Centos7-1503-minimal运行脚本测试OK, 默认安装docker1.12.3 etcd-v3.0.15 k8s-v1.5.1 本离线安装所有的依赖都打包放到了百度网盘,不放心安
前言 这是kubernete官方文档中Ingress Resource的翻译,因为最近工作中用到,文章也不长,也很好理解,索性翻译一下,也便于自己加深理解,同时造福kubernetes中文社区。后续准备使用Traefik来做Ingress controller,文章末尾给出了几个相关链接,实际使用案
前言 近期由于产品需求需要打通多个 K8s 集群的容器网络,要求在一个集群的容器内,通过 Pod IP直接访问另外一个集群的容器,因此笔者对相关网络技术进行了一番学习。本文将解释整体的组网思路,简单分析数据包的流转过程,最后给出详细的实验步骤。 整体思路 Kubernetes 中常见的网络插件如 c
前言 原生 Kubernetes 调度器仅基于资源的 Request 进行调度,在生产环境资源的真实使用率和申请率往往相差巨大,造成资源浪费的同时也会造成节点的负载不均衡。crane-sheduler 基于prometheus集群真实资源负载进行调度,将其应用于调度过程中的 Filter 和 Sco
利用Ansible部署kubernetes集群 本系列文档致力于提供快速部署高可用`k8s`集群的工具,并且也努力成为`k8s`实践、使用的参考书;基于二进制方式部署和利用`ansible-playbook`实现自动化:既提供一键安装脚本,也可以分步执行安装各个组件,同时讲解每一步主要参数配置和注