Ceph基础知识和基础架构

文章目录

  • 一、Ceph概述
  • 1.2 OSD逻辑结构
  • 1.2 Ceph 基本组件
  • 1.3 Ceph存储过程 (Ceph IO算法流程)
  • 1.4 Ceph集群
  • 1.5 Ceph特点
  • 1.6 Ceph架构
  • 1.7 Ceph核心组件及概念✌️✌️
  • 二、三种存储类型
  • 2.2 文件存储 fs
  • 2.3 对象存储 rgw
  • 三、Ceph IO流程及数据发布
  • 3.2 新主io流程图
  • 3.3 Ceph IO算法流程
  • 3.4 Ceph RBD IO 流程 & Ceph RBD IO框架图
  • 3.5 Ceph Pool和PG分布情况
  • 3.6 Ceph 心跳机制
  • 相关文章:
  • 一、Ceph概述

    这里简单的说一下相关的组件,只是简单介绍

    组件 概念
    Monitor 一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据
    OSD OSD负责相应客户端请求返回具体数据的进程,一个Ceph集群一般都有很多个OSD
    MDS MDS 全称Cepg Metadata Service,是CephFs服务依赖的元数据服务
    Object Ceph最底层的存储单位是Object对象,每个Object包含元数据和原始数据
    PG PG全称Placement Groups,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据
    RADOS 是Ceph集群的精华,为用户实现数据分配,Failover等集群操作
    Libradio Libradio是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFs都是通过librados访问的目前提供PHP、Ruby、Java、Python等支持
    CRUSH CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。
    RBD RBD全称RADOS block device,是Ceph对外提供的块设备服务
    Image RBD image是简单的块设备,可以直接被mount到主机,成为一个device,用户可以直接写入二进制数据。image的数据被保存为若干个RADOS对象存储中的对象;image的数据空间是thin provision的,意味着Ceph不预分配空间,而是等到实际写入数据时按照object分配空间;每个data object被保存为多份。pool将RBD镜像的ID和name等基本信息保存在rbd_directory中,这样rbd ls命令就可以快速返回一个pool中所有的RBD镜像了 更多Image信息
    RGW RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容
    CephFs CephFs全称Ceph File System,是Ceph对外提供的文件系统服务
    Pool pool 是Ceph存储时的逻辑分区,它起到namespace的作用