4.5. 多站点 Ceph 对象网关
从早期版本的 Red Hat Ceph Storage 复制元数据不再使用户访问密钥为"inactive"
在以前的版本中,当从 pre-8.0 元数据 master 区域运行 Red Hat Ceph Storage 8.0 复制用户元数据的二级区域时,这些用户的访问密钥被错误地标记为"inactive"。非活动密钥无法用于验证请求,因此这些用户被拒绝访问 second zone。
在这个版本中,二级区存储复制可以正常工作,访问密钥仍然可以验证请求。
来自客户端的无效 URL 编码文本不再创建错误
在以前的版本中,系统会错误地处理 URL 解码导致空 key.name
的场景。由于来自客户端的 URL 编码文本导致空 key.name
。因此,复制操作过程中会出现一个断言错误,有时会造成崩溃。
在这个版本中,无效的空 key.name
值会被忽略,复制操作不再触发断言或导致崩溃。
现在,网络错误代码会被正确映射
在以前的版本中,当目标区中的一个或多个 Ceph 对象网关停机时,源区中的 Ceph 对象网关中的 HTTP 客户端不会在内部正确映射网络连接错误代码。因此,客户端会保持尝试连接到 downed Ceph 对象网关,而不是回退到其他活跃的 Ceph 对象网关。
在这个版本中,网络错误代码会被正确映射。源区域中的 HTTP 客户端会检测网络错误,并无法通过与目标区域中正常工作的 Ceph 对象网关通信。
同步错误修剪
现在使用可选 -shard-id
输入按预期运行
在以前的版本中,同步错误 trim
命令不会将 --shard-id
选项标记为可选。
在这个版本中,--shard-id
选项被识别为可选,并在 radosgw-admin help
中被标记为 optional。
从 Cloud/Tape 恢复的对象现在可以正确地同步到远程位置
在以前的版本中,从 Cloud/Tape 恢复的对象保留其原始 mtime,使其不足以进行多站点同步检查。因此,这些恢复的对象不会同步到远程位置。
在这个版本中,一个新的扩展属性 internal_mtime
专门用于多站点使用,确保恢复的对象根据需要同步到远程位置。
同步率现在可以按预期工作
在以前的版本中,在某些情况下,不正确的内部错误返回会导致同步操作运行比预期慢。
在这个版本中,错误返回已被修复,预期的同步率会保持。