目录
1.对象存储概念
2.创建 RGW 接口
2.1 管理节点创建一个 RGW 守护进程
2.2 开启 http+https ,更改监听端口
2.3 创建 RadosGW 账户
2.4 客户端测试
3.OSD 故障模拟与恢复
3.1 模拟 OSD 故障
3.2 将坏掉的 osd 踢出集群
3.3 把原来坏掉的 osd 修复后重新加入集群
1.对象存储概念
对象存储(object storage)是非结构数据的存储方法,对象存储中每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,通常用于云计算环境中。不同于其他数据存储方法,基于对象的存储不使用目录树。
虽然在设计与实现上有所区别,但大多数对象存储系统
对外呈现的核心资源类型大同小异。从客户端的角度来看,分为以下几个逻辑单位:
●Amazon S3:
提供了
1、用户(User)
2、存储桶(Bucket)
3、对象(Object)
三者的关系是:
1、User将Object存储到系统上的Bucket
2、存储桶属于某个用户并可以容纳对象,一个存储桶用于存储多个对象
3、同一个用户可以拥有多个存储桶,不同用户允许使用相同名称的Bucket,因此User名称即可做为Bucket的名称空间
●OpenStack Swift:
提供了user、container和object分别对应于用户、存储桶和对象,不过它还额外为user提供了父级组件account,用于表示一个项目或用户组,因此一个account中可以包含一到多个user,它们可共享使用同一组container,并为container提供名称空间
●RadosGW:
提供了user、subuser、bucket和object,其中的user对应于S3的user,而subuser则对应于Swift的user,不过user和subuser都不支持为bucket提供名称空间,因此不同用户的存储桶不允许同名;不过,自jewel版本起,RadosGW引入了tenant(租户)用于为user和bucket提供名称空间,但他是个可选组件
从上可以看出大多数对象存储的核心资源类型大同小异,如 Amazon S3、OpenStack Swift 与 RadosGw。其中 S3 与 Swift 互不兼容,RadosGw 为了兼容 S3 与 Swift, Ceph 在 RadosGW 集群的基础上提供了 RGW(RadosGateway)数据抽象层和管理层,它可以原生兼容 S3 和 Swift 的 API。
S3和Swift它们可基于http或https完成数据交换,由RadosGW内建的Civetweb提供服务,它还可以支持代理服务器包括nginx、haproxy等以代理的形式接收用户请求,再转发至RadosGW进程。
RGW 的功能依赖于对象网关守护进程实现,负责向客户端提供 REST API 接口。出于冗余负载均衡的需求,一个 Ceph 集群上通常不止一个 RadosGW 守护进程。(##可以在多个节点去开启RGW守护进程)
如果需要使用到类似 S3 或者 Swift 接口时候才需要部署/创建 RadosGW 接口,RadosGW 通常作为对象存储(Object Storage)使用,类于阿里云OSS。
2.1 管理节点创建一个 RGW 守护进程
ceph-deploy rgw create node01
创建成功后默认情况下会自动创建一系列用于 RGW 的存储池
default.rgw.control
#控制器信息
default.rgw.buckets.index
#为 rgw 的 bucket 信息,写入数据后生成
default.rgw.buckets.data
#是实际存储的数据信息,写入数据后生成
默认情况下 RGW 监听 7480 号端口
netstat -lntp | grep 7480
2.2 开启 http+https ,更改监听端口
RadosGW 守护进程内部由 Civetweb 实现,通过对 Civetweb 的配置可以完成对 RadosGW 的基本管理。
#要在 Civetweb 上启用SSL,首先需要一个
证书,在 rgw 节点生成
证书
openssl genrsa -out civetweb.key 2048
openssl req -new -x509 -key civetweb.key -out civetweb.crt -days 3650 -subj "/CN=192.168.9.111"
cat civetweb.key civetweb.crt > /etc/ceph/civetweb.pem
更改监听端口
Civetweb 默认监听在 7480 端口并提供 http 协议,如果需要修改配置需要在管理节点编辑 ceph.conf 配置文件
rgw_frontends = "civetweb port=80+443s ssl_certificate=/etc/ceph/civetweb.pem num_threads=500 request_timeout_ms=60000"
------------------------------------------------------------
●rgw_host:对应的RadosGW名称或者
IP地址
●rgw_frontends:这里
配置监听的
端口,是否使用https,以及一些常用
配置:
•port:如果是https
端口,需要在
端口后面加一个s。
•ssl_certificate:指定
证书的
路径。
•num_threads:最大并发连接数,默认为
50,根据需求调整,通常在生产
集群环境中此值应该更大
•request_timeout_ms:发送与接收超时时长,以ms为单位,默认为30000
•
error_log_
file:错误
日志路径,默认为空
------------------------------------------------------------
ceph-deploy --overwrite-conf config push node0{1..3}
scp civetweb.pem node
01:
/etc
/ceph #
推送证书文件给node节点
scp civetweb.pem node02:/etc/ceph
scp civetweb.pem node03:/etc/ceph
systemctl restart ceph-radosgw.target
netstat -lntp | grep radosgw
curl -k https://node01:443
2.3 创建 RadosGW 账户
在管理节点使用 radosgw-admin 命令创建 RadosGW 账户
radosgw-admin user create --uid
="scj" --display-name
="rgw test user"
#
创建成功后将输出
用户的基本信息,其中最重要的两项信息为
access_
key 和 secret_
key 。
用户创建成后功,如果忘记
用户信息可以使用下面的命令
查看
radosgw-admin user info --uid="scj"
yum install -y python
3 python
3-p
IP
#boto s3手册:http://boto.readthedocs.org/en/latest/ref/s3.html
#boto s3快速入门:http://boto.readthedocs.org/en/latest/s3_tut.html
import boto.s3.connection
from boto.s3.key import Key
_create_unverified_https_context = ssl._create_unverified_context
ssl._create_default_https_context = _create_unverified_https_context
access_key = "A1HILZD6RHGGC4JV0U9Q"
secret_key = "v0i9JnYIlVFAqfT7uAPVLIshxKuHdKKLwsTJppYy"
#如果使用
443端口,下述链接应
设置is_secure
=True
#如果使用
80端口,下述链接应
设置is_secure
=False
aws_access_key_id=access_key,
aws_secret_access_key=secret_key,
calling_format=boto.s3.connection.OrdinaryCallingFormat()
conn.create_bucket(bucket_name=bucket01)
#conn.create_bucket(bucket_name=bucket02)
#exists = conn.lookup(bucket01)
#exists = conn.lookup(bucket02)
#bucket1 = conn.get_bucket(bucket01)
#bucket2 = conn.get_bucket(bucket02)
#print(list(bucket1.list()))
#print(list(bucket2.list()))
##五:向s
3上
存储数据,
数据来源可以是
file、stream、
or string
#bucket1 = conn.get_bucket(bucket01)
#key = Key(bucket=bucket1, name=myfile)
#key.set_contents_from_filename(rD:\PycharmProjects\ceph\123.txt)
## 读取 s
3 中
文件的内容,返回
string 即
文件 123.txt 的内容
#print(key.get_contents_as_string())
#bucket2 = conn.get_bucket(bucket02)
#key = Key(bucket=bucket2, name=mystr)
#key.set_contents_from_string(hello world)
#print(key.get_contents_as_string())
#bucket1 = conn.get_bucket(bucket01)
##bucket
1.
get_
all_keys()[
0].
delete() #
删除某一个
key
##迭代遍历
删除 buckets
and keys
# print(key.name,key.get_contents_as_string())
#bucket1 = conn.get_bucket(bucket01)
#res = bucket1.get_all_keys()
1.测试创建存储桶bucket01
2.获取存储桶中的内容
传入存储桶内容
echo zhangsan lisi > scj.txt
key.
set_contents_
from_filename(r
/opt/scj.txt) #
57行
修改
3.通过字符串方式上传内容
key = Key(bucket=bucket2, name=tangjun)
key.set_contents_from_string(tangjun like scj)
4.删除指定存储桶
bucket2 = conn.get_bucket(bucket02)
bucket
2.
get_
all_keys()[
0].
delete() #
删除某一个
key
删除整个存储桶
69 bucket2 = conn.get_bucket(bucket02)
3.OSD 故障模拟与恢复
3.1 模拟 OSD 故障
管理节点
node3节点
systemctl stop ceph-osd@8.service
systemctl status ceph-osd@8.service
3.2 将坏掉的 osd 踢出集群
ceph osd purge osd.8 --yes-i-really-mean-it
3.3 把原来坏掉的 osd 修复后重新加入集群
#在 osd 节点
创建 osd,无需指定名,会按序号自动生成
ceph-authtool --create-keyring /etc/ceph/ceph.osd.8.keyring --gen-key -n osd.8 --cap mon allow profile osd --cap mgr allow profile osd --cap osd allow *
ceph auth import -i /etc/ceph/ceph.osd.8.keyring
ceph auth get-or-create osd.8 -o /var/lib/ceph/osd/ceph-8/keyring
ceph osd crush add osd.8 1.000 host=node03
systemctl restart ceph-osd@8
ceph osd tree #稍等片刻后 osd 状态为 up