Jump to: navigation, search

Difference between revisions of "ReleaseNotes/Havana/zh cn"

(Chinese translation)
 
m
 
(6 intermediate revisions by 2 users not shown)
Line 1: Line 1:
= OpenStack 2013.2 (Havana) 发布说明 =
+
[[Category:I18n|Release Note]]
 
+
[[Category:I18n|Havana]]
你可以找到OpenStack Havana版本的重要新特性的描述,已知bug,和升级建议。
+
[[Category:Havana|Release Note]]
 +
[[Category:Release Note|Havana]]
 +
= OpenStack 2013.2 (Havana) 版本说明 =
  
 +
你可以找到OpenStack Havana版本的主要新特性的描述,已知问题,和升级建议。
  
 
== OpenStack 对象存储 (Swift) ==
 
== OpenStack 对象存储 (Swift) ==
  
=== 重要特性 ===
+
=== 主要新特性 ===
  
 
* 全局集群支持
 
* 全局集群支持
 
Swift 1.8.0引入了“区域”的概念,增强了对独立复制网络的使用和临近读写配置的支持。这些特性组合起来可以提供跨越广阔地域的单一Swift集群。
 
Swift 1.8.0引入了“区域”的概念,增强了对独立复制网络的使用和临近读写配置的支持。这些特性组合起来可以提供跨越广阔地域的单一Swift集群。
 
+
* 增加配置文件conf.d的支持
增加配置文件conf.d的支持
 
 
允许Swift守护进程和服务可选的接受一个目录作为配置参数。这可以允许分开管理不同的配置文件,例如,每个中间件可以使用不同的文件来设置自己特定的参数。
 
允许Swift守护进程和服务可选的接受一个目录作为配置参数。这可以允许分开管理不同的配置文件,例如,每个中间件可以使用不同的文件来设置自己特定的参数。
 
+
* 磁盘性能
磁盘性能
 
 
对象服务器限制可以配置线程池来提高性能,消除整个系统的延迟。并且,许多磁盘操作被重新排序来增加可靠性和提高性能。
 
对象服务器限制可以配置线程池来提高性能,消除整个系统的延迟。并且,许多磁盘操作被重新排序来增加可靠性和提高性能。
 +
* 增加memcache池化连接的支持
 +
* 选择切换节点的计算更快
  
* 增加memcache池化连接的支持
+
=== 修复的重要缺陷===
  
* 选择handoff节点的计算更快
+
* 修复了memcache条目不过期的bug
 +
* 修复了客户端连接断开后代理服务器继续读取存储服务器的问题
 +
* 修复了版本控制写操作的UTF-8处理问题
  
=== Significant bugs fixed ===
+
===其它的运行优化===
  
* Fixed bug where memcache entries would not expire
+
* 设置缺省的wsgi工作进程数目为cpu_count
 +
修改缺省的wsgi进程数值从1到auto。新的缺省值会在proxy,container,account和object wsgi服务器中派生出与CPU核数相等的工作进程。这对于某些配置来说不是最理想的,却更像是提供一个开箱即用的部署。
  
* Fixed issue where the proxy would continue to read from a storage
+
* 增加的reveal_sensitive_prefix配置选项来过滤proxy服务器日志里所记录的认证令牌。
server even after a client had disconnected
 
  
* Fix issue with UTF-8 handling in versioned writes
+
* 增加在对象复制时先复制切换分区的支持。现在可以在移除一个本地切换节点之前配置多个远程节点与存储节点通讯。
  
=== Additional operational polish ===
+
* 增加了crossdomain.xml中间件。详情请参考http://docs.openstack.org/developer/swift/crossdomain.html
  
* Set default wsgi workers to cpu_count
+
* 对Swift运行在PyPy下的大量改进
Change the default value of wsgi workers from 1 to auto. The new
 
default value for workers in the proxy, container, account & object
 
wsgi servers will spawn as many workers per process as you have cpu
 
cores. This will not be ideal for some configurations, but it's much
 
more likely to produce a successful out of the box deployment.
 
  
* Added reveal_sensitive_prefix config setting to filter the auth token
+
=== 已知问题 ===
logged by the proxy server.
 
  
* Added support to replicating handoff partitions first in object
+
* 如果你使用单元(cell),当删除云主机时会碰到问题。与Grizzly不同,删除云主机会在告知子单元删除之前立即从顶级(API)单元中删除。这本不是我们的初衷。这是因为当删除时,delete.start和delete.end通知被发送,如果子单元的云主机删除成功,第2个delete.start和delete.end通知会被发送。如果不这样,数据库会导致不一致,云主机已经从API单元中消失,但是仍存在于子单元中。自动治愈代码会更正这个错误,经过一段时间,API单元数据库中的云主机会被恢复,这段时间的长短取决于治愈代码的配置。该错误很快会在havana-stable内修订。
replication. Can also configure now many remote nodes a storage node
+
* 查看http://bugs.launchpad.net/nova
must talk to before removing a local handoff partition.
 
  
* Added crossdomain.xml middleware. See
+
===升级注意事项 ===
http://docs.openstack.org/developer/swift/crossdomain.html for details
 
  
* Numerous improvements to get Swift running under PyPy
+
在https://github.com/openstack/swift/blob/master/CHANGELOG上阅读所有变更日志,可以看到任何影响升级的配置变更。
  
=== Known Issues ===
+
Swift可以一如既往进行升级而不停机。
 
 
* If you're using cells, there's an issue when deleting instances.  Different than Grizzly, deleting instances will delete them immediately from the top level (API) cell before telling the child cell to delete the instance.  This was not intended.  A side effect of this is that delete.start and delete.end notifications will be sent.  If the instance delete in the child cell succeeds, a 2nd delete.start and delete.end notification will be sent.  If it does not, the DBs end up out of sync where the instance appears gone from the API cell, but still exists in the child cell.  The natural healing code built into cells will end up correcting this and restoring the instance in the API cell DB after some time, depending on healing configuration.  This bug will be corrected in havana-stable shortly after release.
 
* Check http://bugs.launchpad.net/nova
 
 
 
=== Upgrade Notes ===
 
 
 
Read full change log notes at https://github.com/openstack/swift/blob/master/CHANGELOG to see any config changes that would affect upgrades.
 
 
 
As always, Swift can be upgraded with no downtime.
 
  
 
== OpenStack计算(Nova) ==
 
== OpenStack计算(Nova) ==
  
=== 重要特性 ===
+
=== 主要新特性 ===
  
 
==== API ====
 
==== API ====
  
* 计算(Nova) REST API包含一个试验性的新版本(v3)。新版本的API经历了一个大清理,包括一个框架,用于实现和版本化API扩展。该API预期在Icehouse版本中被确定下来。([https://blueprints.launchpad.net/nova/+spec/v3-api-specification blueprint]).  
+
* 计算(Nova) REST API包含一个试验性的新版本(v3)。新版本的API包括了大量清理,以及一个用于实现和版本化API扩展的框架。该API预期在Icehouse版本中被确定下来。([https://blueprints.launchpad.net/nova/+spec/v3-api-specification blueprint]).  
  
* These extensions to the Compute (Nova) REST API have been added:
+
* 添加了对于计算 (Nova) REST API的以下扩展:
** '''CellCapacities''': Adds the ability to determine the amount of RAM in a Cell, and the amount of RAM that is free in a Cell ([https://blueprints.launchpad.net/nova/+spec/get-cell-free-ram blueprint]).
+
** '''CellCapacities''': 添加了确定一个单元中的RAM数量,以及一个单元中的可用RAM数量的能力([https://blueprints.launchpad.net/nova/+spec/get-cell-free-ram blueprint])
** '''ExtendedFloatingIps''': Adds optional '''fixed_address''' parameter to the add floating IP command, allowing a floating IP to be associated with a fixed IP address ([https://blueprints.launchpad.net/nova/+spec/multi-nic-floating-ip-assignment blueprint]).
+
** '''ExtendedFloatingIps''': 为增加浮动IP命令添加了可选的'''fixed_address'''参数,允许一个浮动IP地址被关联至一个固定IP地址 ([https://blueprints.launchpad.net/nova/+spec/multi-nic-floating-ip-assignment blueprint])
** '''ExtendedIpsMac''': Adds Mac address(es) to server response ([https://blueprints.launchpad.net/nova/+spec/os-ext-ips-mac-api-extension blueprint]).
+
** '''ExtendedIpsMac''': 向服务器响应中添加(多个)Mac地址 ([https://blueprints.launchpad.net/nova/+spec/os-ext-ips-mac-api-extension blueprint]).
** '''ExtendedQuotas''': Adds the ability for administrators to delete a tenant's non-default quotas, reverting them to the configured default quota ([https://blueprints.launchpad.net/nova/+spec/admin-api-for-delete-quota blueprint]).
+
** '''ExtendedQuotas''': 为管理员增加能力,以使其可以删除租户的非默认配额,并将其反转至配置过的默认配额([https://blueprints.launchpad.net/nova/+spec/admin-api-for-delete-quota blueprint])
** '''ExtendedServices''': Adds the ability to store and display the reason a service has been disabled ([https://blueprints.launchpad.net/nova/+spec/record-reason-for-disabling-service blueprint]).
+
** '''ExtendedServices''': 添加能力以存储和显示服务被禁止的原因([https://blueprints.launchpad.net/nova/+spec/record-reason-for-disabling-service blueprint])
** '''ExtendedVolumes''': Adds attached volumes to instance information ([https://blueprints.launchpad.net/nova/+spec/servers-add-volume-list blueprint]).
+
** '''ExtendedVolumes''': 添加连接至云主机的云硬盘信息([https://blueprints.launchpad.net/nova/+spec/servers-add-volume-list blueprint])
** '''Migrations''': Adds the ability to list resize and migration operations in progress by Cell or Region ([https://blueprints.launchpad.net/nova/+spec/list-resizes-through-admin-api blueprint]).
+
** '''Migrations''': 添加能力,以便逐单元或逐区域列出正在进行中的改变大小操作和迁移操作 ([https://blueprints.launchpad.net/nova/+spec/list-resizes-through-admin-api blueprint])
** '''ServerUsage''': Adds the '''launched_at''' and '''terminated_at''' values to the instance show response ([https://blueprints.launchpad.net/nova/+spec/usage-details-on-instance blueprint]).
+
** '''ServerUsage''': 在云主机显示响应中添加'''launched_at''''''terminated_at'''([https://blueprints.launchpad.net/nova/+spec/usage-details-on-instance blueprint])
** '''UsedLimitsForAdmin''': Allows for the retrieval of tenant specific quota limits via the administrative API ([https://blueprints.launchpad.net/nova/+spec/customer-quota-through-admin-api blueprint]).
+
** '''UsedLimitsForAdmin''': 允许通过管理员API获取针对某个租户的配额限制([https://blueprints.launchpad.net/nova/+spec/customer-quota-through-admin-api blueprint])
 +
* 计算服务的EC2 API已经被更新,以使用与[http://docs.aws.amazon.com/AWSEC2/latest/APIReference/api-error-codes.html official EC2 API]更为一致的错误代码。([https://blueprints.launchpad.net/nova/+spec/ec2-error-codes blueprint])
  
* The Compute service's EC2 API has been updated to use error codes that are more consistent with those of the [http://docs.aws.amazon.com/AWSEC2/latest/APIReference/api-error-codes.html official EC2 API]. ([https://blueprints.launchpad.net/nova/+spec/ec2-error-codes blueprint])
+
==== 单元 ====
  
==== Cells ====
+
* 单元调度器已经被更新,以支持通过'''[cells]'''配置组中的新的'''scheduler_filter_classes'''和'''scheduler_weight_classes'''选项,来支持过滤和权重计算。 新的'''ram_by_instance_type'''和'''weight_offset'''权重计算模块也已被加入,以替代以前版本中的单元随机选择。 此外,一个过滤器类,'''TargetCellFilter''',允许管理员指定一个调度器提示来指导一个特定单元上的建立过程。这使得单元调度在概念上与已有的宿主机调度类似。([https://blueprints.launchpad.net/nova/+spec/cells-filter-scheduler blueprint])
  
* The Cells scheduler has been updated to support filtering and weighting via the new '''scheduler_filter_classes''' and '''scheduler_weight_classes''' options in the '''[cells]''' configuration group. The new '''ram_by_instance_type''' and '''weight_offset''' weighting modules have also been added, removing the random selection of Cells used in previous releases. In addition a filter class, '''TargetCellFilter''', allows administrators to specify a scheduler hint to direct a build to a particular Cell. This makes Cell scheduling work conceptually similar to the existing host scheduling. ([https://blueprints.launchpad.net/nova/+spec/cells-filter-scheduler blueprint])
+
* 在一个单元范围内的虚拟机实例热迁移目前已经支持。单元间的虚拟机实例在线迁移尚不支持。 ([https://blueprints.launchpad.net/nova/+spec/cells-live-migration blueprint])
  
* Live migration of virtual machine instances is now supported within a single Cell. Live migration of virtual machine instances between Cells is not supported. ([https://blueprints.launchpad.net/nova/+spec/cells-live-migration blueprint])
+
* 在使用单元时,Nova已经支持Cinder。 ([https://blueprints.launchpad.net/nova/+spec/cells-cinder-support blueprint])
  
* Cinder is now supported by Nova when using Cells. ([https://blueprints.launchpad.net/nova/+spec/cells-cinder-support blueprint])
+
==== 计算 ====
  
==== Compute ====
+
===== 综合 =====
  
===== General =====
+
* 增加了对于使用[http://docker.io Docker]创建和管理的容器的虚拟机监控程序支持 ([https://blueprints.launchpad.net/nova/+spec/new-hypervisor-docker blueprint])。
 +
* Nova具备了一个新特性以允许你"搁置"一个云主机。这允许那些被停止一段时间的云主机被从虚拟机监控程序上移走以便释放资源([https://blueprints.launchpad.net/nova/+spec/shelve-instance blueprint])。
 +
* 一个'''vendor_data'''段被添加到元数据服务和配置驱动器工具中。这允许客户机可见的元数据扩展中包含针对供应商或站点的数据 ([https://blueprints.launchpad.net/nova/+spec/vendor-data blueprint])。
  
* Added Hypervisor support for containers created and managed using [http://docker.io Docker] ([https://blueprints.launchpad.net/nova/+spec/new-hypervisor-docker blueprint]).
+
===== 裸金属驱动 =====
  
* Nova has a new feature that allows you to "shelve" an instance. This allows instances that are stopped for an extended period of time to be moved off of the hypervisors to free up resources ([https://blueprints.launchpad.net/nova/+spec/shelve-instance blueprint]).
+
* 在裸金属驱动中增加了一个后端以支持[http://www.tilera.com/ Tilera]裸金属自动配置 ([https://blueprints.launchpad.net/nova/+spec/add-tilera-to-baremetal blueprint])
  
* A '''vendor_data''' section has been added to the metadata service and configuration drive facilities. This allows the extension of the metadata available to guests to include vendor or site specific data ([https://blueprints.launchpad.net/nova/+spec/vendor-data blueprint]).
+
===== Hyper-V驱动 =====
 +
* 支持Windows Server / Hyper-V Server 2012 R2 ([https://blueprints.launchpad.net/nova/+spec/hyper-v-wmi-v2 blueprint])
  
===== Baremetal driver =====
+
* VHDX格式支持([https://blueprints.launchpad.net/nova/+spec/hyper-v-vhdx blueprint])。
  
* Added a backend supporting [http://www.tilera.com/ Tilera] bare-metal provisioning to the Baremetal driver ([https://blueprints.launchpad.net/nova/+spec/add-tilera-to-baremetal blueprint]).
+
* 动态内存支持([https://blueprints.launchpad.net/nova/+spec/hyper-v-dynamic-memory blueprint])
  
===== Hyper-V driver =====
+
* 易失存储支持 ([https://blueprints.launchpad.net/nova/+spec/hyper-v-ephemeral-storage blueprint])。
  
* Support for Windows Server / Hyper-V Server 2012 R2 ([https://blueprints.launchpad.net/nova/+spec/hyper-v-wmi-v2 blueprint]).
+
* 为Ceilometer集成提供的计算计量支持 ([https://blueprints.launchpad.net/nova/+spec/hyper-v-metrics blueprint])
  
* VHDX format support ([https://blueprints.launchpad.net/nova/+spec/hyper-v-vhdx blueprint]).
+
===== libvirt (KVM) 驱动 =====
  
* Dynamic memory support ([https://blueprints.launchpad.net/nova/+spec/hyper-v-dynamic-memory blueprint]).
+
* 对于在创建时'''hw_qemu_guest_agent'''特性值设置为'''yes'''的客户机,已经添加对QEMU客户机代理('''qemu-guest-agent''')的支持( [https://blueprints.launchpad.net/nova/+spec/qemu-guest-agent-support blueprint])
  
* Ephemeral storage support ([https://blueprints.launchpad.net/nova/+spec/hyper-v-ephemeral-storage blueprint]).
+
* 在Nova中已经添加从物理计算节点向虚拟客户机直通PCI设备的支持。目前仅有libvirt驱动提供了一个可用实现( [https://blueprints.launchpad.net/nova/+spec/pci-passthrough-libvirt base blueprint], [https://blueprints.launchpad.net/nova/+spec/pci-passthrough-libvirt libvirt blueprint])
  
* Compute metrics support for Ceilometer integration ([https://blueprints.launchpad.net/nova/+spec/hyper-v-metrics blueprint]).
+
* 在使用基于libvirt的虚拟机管理程序时,添加了从Cinder中提取QoS参数的支持,以及基于这些参数实现速率受限磁盘访问的支持([https://blueprints.launchpad.net/nova/+spec/volume-rate-limiting blueprint])
  
===== libvirt (KVM) driver =====
+
* 添加了[http://plumgrid.com/technology/ IO Visor]虚拟接口驱动 ([https://blueprints.launchpad.net/nova/+spec/iovisor-vif-driver blueprint])
  
* Support for the QEMU guest agent ('''qemu-guest-agent''') has been added for guests created with the '''hw_qemu_guest_agent''' property set to '''yes''' ( [https://blueprints.launchpad.net/nova/+spec/qemu-guest-agent-support blueprint]).
+
* 添加了[https://github.com/floodlight/ivs/blob/master/README.md Indigo Virtual Switch]虚拟接口驱动([https://blueprints.launchpad.net/nova/+spec/ivs-vif-driver blueprint])
  
* Support for passthrough of PCI devices from the physical compute node to virtualized guests has been added to Nova. Currently only the libvirt driver provides a working implementation ( [https://blueprints.launchpad.net/nova/+spec/pci-passthrough-libvirt base blueprint], [https://blueprints.launchpad.net/nova/+spec/pci-passthrough-libvirt libvirt blueprint]).
+
* 添加了[https://wiki.openstack.org/wiki/Mellanox-vif-driver Mellanox]虚拟接口驱动([https://blueprints.launchpad.net/nova/+spec/mellanox-vif-driver blueprint])
  
* Added support for extracting QoS parameters from Cinder and rate limiting disk access based on them when using libvirt-based hypervisors ([https://blueprints.launchpad.net/nova/+spec/volume-rate-limiting blueprint]).
+
* RBD目前被支持作为一种镜像存储后端([https://blueprints.launchpad.net/nova/+spec/bring-rbd-support-libvirt-images-type blueprint])
  
* Added [http://plumgrid.com/technology/ IO Visor] virtual interface driver ([https://blueprints.launchpad.net/nova/+spec/iovisor-vif-driver blueprint]).
+
===== PowerVM 驱动 =====
  
* Added [https://github.com/floodlight/ivs/blob/master/README.md Indigo Virtual Switch] virtual interface driver ([https://blueprints.launchpad.net/nova/+spec/ivs-vif-driver blueprint]).
+
* 添加了硬重启支持([https://github.com/openstack/nova/commit/05e0ceb242f16a236f3c793305ed24e1f9a43efb change]).
  
* Added [https://wiki.openstack.org/wiki/Mellanox-vif-driver Mellanox] virtual interface driver ([https://blueprints.launchpad.net/nova/+spec/mellanox-vif-driver blueprint]).
+
===== vmwareapi (VMWare) 驱动 =====
  
* RBD is now supported as as a backend for storing images ([https://blueprints.launchpad.net/nova/+spec/bring-rbd-support-libvirt-images-type blueprint]).
+
* 支持多集群管理([https://blueprints.launchpad.net/nova/+spec/multiple-clusters-managed-by-one-service blueprint])
  
===== PowerVM driver =====
+
* 支持Cinder驱动([https://blueprints.launchpad.net/nova/+spec/vmware-nova-cinder-support nova blueprint], [https://blueprints.launchpad.net/cinder/+spec/vmware-vmdk-cinder-driver cinder blueprint])。
  
* Added hard reboot support ([https://github.com/openstack/nova/commit/05e0ceb242f16a236f3c793305ed24e1f9a43efb change]).
+
* 镜像克隆策略 - 允许镜像指定它们是否被用作链接克隆或全克隆镜像([https://blueprints.launchpad.net/nova/+spec/vmware-image-clone-strategy blueprint])
 
 
===== vmwareapi (VMWare) driver =====
 
 
 
* Support for managing multiple clusters ([https://blueprints.launchpad.net/nova/+spec/multiple-clusters-managed-by-one-service blueprint]).
 
 
 
* Cinder driver support ([https://blueprints.launchpad.net/nova/+spec/vmware-nova-cinder-support nova blueprint], [https://blueprints.launchpad.net/cinder/+spec/vmware-vmdk-cinder-driver cinder blueprint])
 
 
 
* Image clone strategy - allow images to specify if they are to be used as linked clone or full clone images ([https://blueprints.launchpad.net/nova/+spec/vmware-image-clone-strategy blueprint])
 
 
   
 
   
* Support for using a config drive ([https://bugs.launchpad.net/nova/+bug/1206584 blueprint])
+
* 支持使用一个配置驱动器([https://bugs.launchpad.net/nova/+bug/1206584 blueprint])
  
===== XenServer driver =====
+
===== XenServer 驱动 =====
  
* Supports showing a log of a server console ([https://blueprints.launchpad.net/nova/+spec/xenapi-server-log blueprint])
+
* 支持显示服务器控制台的日志 ([https://blueprints.launchpad.net/nova/+spec/xenapi-server-log blueprint])
  
* Support for splitting up large ephemeral disks into 1024GB or 2000GB chunks to work around VHD max disk size limitations ([https://blueprints.launchpad.net/nova/+spec/xenapi-large-ephemeral-disk-support blueprint])
+
* 支持将大易失磁盘分裂为1024GB或2000GB的块,以规避VHD的最大磁盘容量限制([https://blueprints.launchpad.net/nova/+spec/xenapi-large-ephemeral-disk-support blueprint])
  
* Allow images to have the setting of AutoDiskConfig=disabled, to mean users are unable to set AutoDiskConfig=Manual on these images and servers ([https://blueprints.launchpad.net/nova/+spec/auto-disk-config-disabled blueprint])
+
* 允许镜像具有AutoDiskConfig=disabled设定,这意味着用户不能在这些镜像和服务器上设定AutoDiskConfig=Manual ([https://blueprints.launchpad.net/nova/+spec/auto-disk-config-disabled blueprint])
  
* Improvements to how nova communicates with the Nova agent, so you are able to use both cloud-init and the Nova agent in the same cloud. ([https://blueprints.launchpad.net/nova/+spec/xenapi-guest-agent-cloud-init-interop blueprint])
+
* 改进Nova与Nova代理之间的通信方式,以使你可以在同一个云里同时使用cloud-init和Nova代理。([https://blueprints.launchpad.net/nova/+spec/xenapi-guest-agent-cloud-init-interop blueprint])
  
* Ability to boot VMs into a state where they are running a linux distribution installer, to help users build their own custom images ([https://blueprints.launchpad.net/nova/+spec/xenapi-ipxe-iso-boot-support blueprint])
+
* 能够启动虚拟机至一个运行Linux分发安装器的状态,以帮助用户建立他们自己的定制镜像([https://blueprints.launchpad.net/nova/+spec/xenapi-ipxe-iso-boot-support blueprint])
  
* Experimental support for XenServer core, and running nova-compute in a XenServer core Dom0. ([https://blueprints.launchpad.net/nova/+spec/xenserver-core blueprint])
+
* 对XenServer核心的实验性支持,以及在XenServer核心Dom0中运行nova-compute。([https://blueprints.launchpad.net/nova/+spec/xenserver-core blueprint])
  
* Experimental support for using the LVHD storage SR, and support for booting from compressed raw glance images ([https://blueprints.launchpad.net/nova/+spec/xenapi-supported-image-import-export blueprint])
+
* 对使用LVHD存储SR的实验性支持,并支持从压缩的raw格式Glance镜像中启动([https://blueprints.launchpad.net/nova/+spec/xenapi-supported-image-import-export blueprint])
  
* Much work to improve stability and supportability. Examples include the ability to configure the compression ratio used for snapshots sent to glance and auto rollback of errors during the Resize down of servers due to disks been too small for the destination size.
+
* 改进稳定性与可支持性的许多工作。例如:为发送至Glance的镜像配置压缩率的能力,和在服务器向下改变大小的过程中,由于磁盘对于目标空间而言过小而导致的错误的自动回滚能力。
  
==== Quota ====
+
==== 配额 ====
  
* The default quota is now editable, previously the value of this quota was fixed. Use the '''nova quota-class-update default <key> <value>''' command to update the default quota ([https://blueprints.launchpad.net/nova/+spec/edit-default-quota blueprint]).
+
* 默认配额现在是可编辑的,而以前这个配额的值是固定的。使用'''nova quota-class-update default <key> <value>'''来更新默认配额([https://blueprints.launchpad.net/nova/+spec/edit-default-quota blueprint])
  
* Quotas may now be defined on a per-user basis ([https://blueprints.launchpad.net/nova/+spec/per-user-quotas blueprint]).
+
* 现在可以针对每个用户定义配额([https://blueprints.launchpad.net/nova/+spec/per-user-quotas blueprint])
  
* Quotas for a given tenant or user can now be deleted, and their quota will reset to the default ([https://blueprints.launchpad.net/nova/+spec/admin-api-for-delete-quota blueprint]).
+
* 一个给定租户或用户的配额现在可以被删除,然后他们的配额将被重置为默认值([https://blueprints.launchpad.net/nova/+spec/admin-api-for-delete-quota blueprint])
  
==== Networking ====
+
==== 网络 ====
  
* Network and IP address allocation is now performed in parallel to the other operations involved in provisioning an instance, resulting in faster boot times ([https://blueprints.launchpad.net/nova/+spec/async-network-alloc blueprint]).
+
* 网络和IP地址的分配现在与云主机自动配置过程中的其他操作并行执行,以缩短启动时间([https://blueprints.launchpad.net/nova/+spec/async-network-alloc blueprint])
  
* Nova now passes the host name of the Compute node selected to host an instance to Neutron. Neutron plug-ins may now use this information to alter the physical networking configuration of the Compute node as required ([https://blueprints.launchpad.net/nova/+spec/vm-host-quantum blueprint]).
+
* Nova现在可以将被选定承载一个云主机的计算节点的主机名传递给Neutron。Neutron 插件现在可以在需要时使用这些信息改变计算节点的物理网络配置([https://blueprints.launchpad.net/nova/+spec/vm-host-quantum blueprint])
  
==== Notifications ====
+
==== 通知 ====
  
* Notifications are now generated when host aggregates are created, deleted, expanded, contracted, or otherwise updated ([https://blueprints.launchpad.net/nova/+spec/notification-host-aggregate blueprint]).
+
* 现在,通知将在宿主机聚合被创建、删除、扩张、订约和以其他方式更新时生成([https://blueprints.launchpad.net/nova/+spec/notification-host-aggregate blueprint])
  
* Notifications are now generated when building an instance fails ([https://blueprints.launchpad.net/nova/+spec/create-error-notification blueprint]).
+
* 现在,通知将在云主机建立失败时被生成([https://blueprints.launchpad.net/nova/+spec/create-error-notification blueprint])
  
==== Scheduler ====
+
==== 调度器 ====
  
* Added '''force_nodes''' to filter properties, allowing operators to explicitly specify the node for provisioning when using the baremetal driver ([https://blueprints.launchpad.net/nova/+spec/baremetal-force-node blueprint]).
+
* 在过滤器特性中添加了'''force_nodes''',允许运营者在使用裸金属驱动自动配置时显性指定节点([https://blueprints.launchpad.net/nova/+spec/baremetal-force-node blueprint])
  
* Added the ability to make the '''IsolatedHostsFilter''' less restrictive, allowing isolated hosts to use all images, by manipulating the value of the new '''restrict_isolated_hosts_to_isolated_images''' configuration directive in '''nova.conf''' ([https://blueprints.launchpad.net/nova/+spec/improve-isolatedhostsfilter blueprint]).
+
* 添加了使得'''IsolatedHostsFilter'''约束性更弱的能力,通过操作'''nova.conf'''中的新的'''restrict_isolated_hosts_to_isolated_images'''配置指令的值,来允许隔离的宿主机使用所有镜像([https://blueprints.launchpad.net/nova/+spec/improve-isolatedhostsfilter blueprint])
  
* Added a '''GroupAffinityFilter''' as a counterpart to the existing '''GroupAntiAffinityFilter'''. The new filter allows the scheduling of an instance on a host from a specific group of hosts ([https://blueprints.launchpad.net/nova/+spec/group-affinity-filter blueprint]).
+
* 添加了与已有的'''GroupAntiAffinityFilter'''相对的'''GroupAffinityFilter'''。这个新的过滤器允许向一个特定的宿主机组中的一个宿主机上调度一个云主机([https://blueprints.launchpad.net/nova/+spec/group-affinity-filter blueprint])
  
* Added the ability for filters to set the new '''run_filter_once_per_request''' parameter to '''True''' if their filtering decisions are expected to remain valid for all instances in a request. This prevents the filter having to be re-run for each instance in the request when it is unnecessary. This setting has been applied to a number of existing filters ([https://blueprints.launchpad.net/nova/+spec/once-per-request-filters blueprint]).
+
* 为过滤器增加了新的能力,使得如果希望它们的过滤决策对于一个申请中的所有云主机均保持有效,则可将新的'''run_filter_once_per_request'''参数设定为'''True'''。这防止了过滤器在不必要的情况下对每一云主机被迫重新运行一次。 这一设置已经被应用于若干已有过滤器([https://blueprints.launchpad.net/nova/+spec/once-per-request-filters blueprint])
  
* Added per-aggregate filters '''AggregateRamFilter''' and '''AggregateCoreFilter''' which enforce themselves on host aggregates rather than globally. '''AggregateDiskFilter''' will be added in a future release ([https://blueprints.launchpad.net/nova/+spec/per-aggregate-resource-ratio blueprint]).
+
* 添加了针对每个聚合的过滤器 '''AggregateRamFilter''''''AggregateCoreFilter''',它们对宿主机聚合而不是全局有效。'''AggregateDiskFilter'''将在未来的版本中被加入([https://blueprints.launchpad.net/nova/+spec/per-aggregate-resource-ratio blueprint])
  
* Scheduler performance has been improved by removing the periodic messages that were being broadcasted from all compute nodes to all schedulers ([https://blueprints.launchpad.net/nova/+spec/no-compute-fanout-to-scheduler blueprint]).
+
* 通过去除曾经从所有计算节点广播至所有调度器的周期性消息,改进了调度器性能([https://blueprints.launchpad.net/nova/+spec/no-compute-fanout-to-scheduler blueprint])
  
* Scheduler performance has been improved by allowing filters to specify that they only need to run once for a given request for multiple instances ([https://blueprints.launchpad.net/nova/+spec/once-per-request-filters blueprint]).
+
* 通过允许调度器设定它们对申请多个云主机的申请只需运行一次,改进了调度器的性能([https://blueprints.launchpad.net/nova/+spec/once-per-request-filters blueprint])
  
==== Storage ====
+
==== 存储 ====
  
* Attached Cinder volumes can now be encrypted. Data is decrypted as needed at read and write time while presenting instances with a normal block storage device ([https://blueprints.launchpad.net/nova/+spec/encrypt-cinder-volumes  blueprint]).
+
* 连接的Cinder云硬盘现在可以被加密。当作为云主机的正常块存储设备时,数据根据需要在读写时被解密([https://blueprints.launchpad.net/nova/+spec/encrypt-cinder-volumes  blueprint])
  
* Added the ability to transparently swap out the Cinder volume attached to an instance. While the instance may pause briefly while the volume is swapped no reads or writes are lost ([https://blueprints.launchpad.net/nova/+spec/volume-swap  blueprint]).
+
* 添加了对连接至云主机的云硬盘进行透明换出的能力。当云硬盘换出时云主机可以短暂暂停而不会发生读写丢失([https://blueprints.launchpad.net/nova/+spec/volume-swap  blueprint])
  
* When connecting to NFS or GlusterFS backed volumes Nova now uses the mount options set in the Cinder configuration. Previously the mount options had to be set on each Compute node that would access the volumes ([https://blueprints.launchpad.net/nova/+spec/cinder-volume-options blueprint]).
+
* 现在,当连接至基于NFS或GlusterFS的云硬盘时,Nova使用Cinder配置中设定的挂载选项。此前挂载选项必须在每个可能访问云硬盘的计算节点上设置([https://blueprints.launchpad.net/nova/+spec/cinder-volume-options blueprint])
  
* Added native GlusterFS support. If '''qemu_allowed_storage_drivers''' is set to '''gluster''' in '''nova.conf''' then QEMU is configured to access the volume directly using '''libgfapi''' instead of via '''fuse''' ([https://blueprints.launchpad.net/nova/+spec/glusterfs-native-support blueprint]).
+
* 添加了本地GlusterFS支持。如果在'''nova.conf'''中将'''qemu_allowed_storage_drivers'''设定为'''gluster''',则QEMU将被配置为直接使用'''libgfapi'''而不是通过'''fuse'''访问云硬盘([https://blueprints.launchpad.net/nova/+spec/glusterfs-native-support blueprint])
  
* QEMU assisted snapshotting is now used to provide the ability to create cinder volume snapshots, even when the storage backing storage in use does not support them natively, such as GlusterFS ([https://blueprints.launchpad.net/nova/+spec/qemu-assisted-snapshots blueprint]).
+
* 现在使用QEMU辅助快照来提供创建Cinder云硬盘快照的能力,即便支撑使用中的存储的后端存储不提供本地支持,例如GlusterFS ([https://blueprints.launchpad.net/nova/+spec/qemu-assisted-snapshots blueprint])
  
* The iSER transport protocol is now supported for accessing storage, providing performance improvements compared to using iSCSI over TCP ([https://blueprints.launchpad.net/nova/+spec/add-iser-support-to-nova blueprint]).
+
* 现在支持iSER传输协议用以访问存储,以提供相对于iSCSI over TCP的性能改进([https://blueprints.launchpad.net/nova/+spec/add-iser-support-to-nova blueprint])
  
==== Conductor ====
+
==== Conductor 协调器 ====
  
* The Conductor is now able to spawn multiple worker threads operating in parallel, the number of threads to spawn is determined by the value of '''workers''' in '''nova.conf''' ([https://blueprints.launchpad.net/nova/+spec/condutor-workers blueprint]).
+
* 协调器目前可以创建多个并行执行的工作线程,创建的线程数由'''nova.conf''''''workers''' 的值决定([https://blueprints.launchpad.net/nova/+spec/condutor-workers blueprint])
  
==== Internal Changes ====
+
==== 内部变化 ====
  
* Nova now uses the common service infrastructure provided by Oslo ([https://blueprints.launchpad.net/nova/+spec/use-oslo-services blueprint]).
+
* Nova现在使用由Oslo提供的公共服务架构([https://blueprints.launchpad.net/nova/+spec/use-oslo-services blueprint]).
 +
* 引入修改,以允许反向移植那些需要数据库迁移的bug修正 ([https://blueprints.launchpad.net/nova/+spec/backportable-db-migrations blueprint])。
  
* Changes have been made that will allow backporting bug fixes that require a database migration ([https://blueprints.launchpad.net/nova/+spec/backportable-db-migrations blueprint]).
+
* 为最终支持Nova部署的在线升级而进行的努力已经取得显著进展。在Havana中,改进包括通过服务间互发的消息版本实现的附加控制(参见nova.conf的'''[upgrade_levels]'''小节) ([https://blueprints.launchpad.net/nova/+spec/rpc-version-control blueprint]),以及一个新的、帮助将代码基础与数据库schema细节解耦合的对象层([https://blueprints.launchpad.net/nova/+spec/unified-object-model blueprint])。
  
* A significant amount of progress has been made toward eventually supporting live upgrades of a Nova deployment.  In Havana, improvements included additional controls over versions of messages sent between services (see the '''[upgrade_levels]''' section of nova.conf) ([https://blueprints.launchpad.net/nova/+spec/rpc-version-control blueprint]), and a new object layer that helps decouple the code base from the details of the database schema ([https://blueprints.launchpad.net/nova/+spec/unified-object-model blueprint]).
+
=== 已知问题 ===
  
=== Known Issues ===
+
* 如果你使用cell,当删除云主机时会碰到问题。与Grizzly不同,删除云主机会在告知子cell删除之前立即从顶级(API)cell中删除。这本不是我们的初衷。这是因为当删除时,delete.start和delete.end通知被发送,如果子cell的云主机删除成功,第2个delete.start和delete.end通知会被发送。如果不这样,数据库会导致不一致,云主机已经从API cell中消失,但是仍存在于子cell中。自动治愈代码会更正这个错误,经过一段时间,API cell数据库中的云主机会被恢复,这段时间的长短取决于治愈代码的配置。该bug很快会在havana-stable内修订。
 +
* 查看http://bugs.launchpad.net/nova
  
* If you're using cells, there's an issue when deleting instances.  Different than Grizzly, deleting instances will delete them immediately from the top level (API) cell before telling the child cell to delete the instance.  This was not intended.  A side effect of this is that delete.start and delete.end notifications will be sent.  If the instance delete in the child cell succeeds, a 2nd delete.start and delete.end notification will be sent.  If it does not, the DBs end up out of sync where the instance appears gone from the API cell, but still exists in the child cell.  The natural healing code built into cells will end up correcting this and restoring the instance in the API cell DB after some time, depending on healing configuration.  This bug will be corrected in havana-stable shortly after release.
+
===升级注意事项 ===
* Check http://bugs.launchpad.net/nova
 
  
=== Upgrade Notes ===
+
* 注意:周期性任务现在将比以前运行得更加频繁。周期性任务的运行频率始终是可以配置的。然而,控制任务何时再次运行的定时器以前是在任务上一次运行完成后启动。而现在任务则以恒定频率运行,无论一个任务运行多长时间。这使得任务应该运行的时刻更为清楚。但是,其附带效应是,任务默认将运行得更为频繁。(https://review.openstack.org/#/c/26448/)
 
+
* security_groups_handler选项已经被从nova.conf中移除。这一选项是为Quantum添加的,现在已经不再需要。 (https://review.openstack.org/#/c/28384/)
* Note that periodic tasks will now run more often than before.  The frequency of periodic task runs has always been configurable.  However, the timer for when to run the task again was previously started after the last run of the task completed.  The tasks now run at a constant frequency, regardless of how long a given run takes.  This makes it much more clear for when tasks are supposed to run.  However, the side effect is that tasks will now run a bit more often by default.  (https://review.openstack.org/#/c/26448/)
+
* 这一变化不应影响升级,但对于所有新的部署,它是一个行为中的变化。以前的版本创建的m1.tiny默认类型,其磁盘空间为0。而这一默认值现在是1。0意味着不进行任何磁盘大小调整,并且使用镜像中设定的任何磁盘大小。1意味着强加以1GB限制。特殊值0仍然被支持,如果你希望创建或修改类型以使用它。(https://review.openstack.org/#/c/27991/)
* The security_groups_handler option has been removed from nova.conf.  It was added for Quantum and is no longer needed. (https://review.openstack.org/#/c/28384/)
+
* 插件框架已经被去除,因为它能提供的功能已经被其他方式取代。(https://review.openstack.org/#/c/33595)
* This change should not affect upgrades, but it is a change in behavior for all new deployments. Previous versions created the default m1.tiny flavor with a disk size of 0. The default value is now 1. 0 means not to do any disk resizing and just use whatever disk size is set up in the image. 1 means to impose a 1 GB limit. The special value of 0 is still supported if you would like to create or modify flavors to use it. (https://review.openstack.org/#/c/27991/).
+
* notify_on_any_change配置选项已经被去除。(https://review.openstack.org/#/c/35264/)
* A plugins framework has been removed since what it provided was possible via other means. (https://review.openstack.org/#/c/33595)
+
* compute_api_class选项已经不被认可,并且将在未来的发布版本中被去除。(https://review.openstack.org/#/c/28750/)
* The notify_on_any_change configuration option has been removed. (https://review.openstack.org/#/c/35264/)
+
* 在Quantum被重命名后,Nova目前使用Neutron。(https://review.openstack.org/#/c/35425/)
* The compute_api_class option has been deprecated and will be removed in a future release. (https://review.openstack.org/#/c/28750/)
+
* 当定义了多个Neutron网络时,Nova将拒绝一个没有指定网络的创建服务器申请。Nova以前将把这一服务器连接至 *全部* 网络,但是这一行为并不合理。(https://review.openstack.org/#/c/33996/)
* Nova now uses Neutron after Quantum was renamed. (https://review.openstack.org/#/c/35425/)
+
* vmware 配置变量'vnc_password'已经不被认可。用户将不再被要求输入密码以访问VNC连接。这与其他所有virt驱动的工作方式一致。 (https://review.openstack.org/#/c/43268/)
* Nova will now reject requests to create a server when there are multiple Neutron networks defined, but no networks specified in the server create request.  Nova would previously attach the server to *all* networks, but consensus was that behavior didn't make sense. (https://review.openstack.org/#/c/33996/)
 
* The vmware configuration variable 'vnc_password' is now deprecated. A user will no longer be required to enter as password to have VNC access. This now works like all other virt drivers. (https://review.openstack.org/#/c/43268/)
 
  
  
 
== OpenStack Image Service (Glance) ==
 
== OpenStack Image Service (Glance) ==
=== 重要特性 ===
+
=== 主要新特性 ===
  
====Property Protections====
+
====属性保护====
Specific groups of users can now be authorized to create, update, and read different properties of arbitrary entities. There are two types of image properties in the Image Service:
+
现在被授权的特定用户组可以创建,更新,和读取任何实体的不同属性。镜像服务中有两类镜像属性:
* Core Properties, as specified by the image schema.
+
* 核心属性,被镜像schema所指定;
* Meta Properties, which are arbitrary key/value pairs that can be added to an image.
+
* 元属性,可以在镜像上任意添加键/值对。使用属性保护配置文件(glance-api.conf 文件中指定),通过镜像服务公共API访问元属性的能力,现在可以被限制给某些用户集合。例如:
Access to meta properties through the Image Service's public API calls can now be restricted to certain sets of users, using a property protections configuration file (specified in the glance-api.conf file). For example:
+
** 只有管理员才能访问所有属性。
* Limit all property interactions to admin only.
+
** 允许管理员和计费用户读取和修改前缀为``x_billing_code_``的所有属性。
* Allow both admins and users with the billing role to read and modify all properties prefixed with ``x_billing_code_``.
 
 
[https://blueprints.launchpad.net/glance/+spec/api-v2-property-protection blueprint]
 
[https://blueprints.launchpad.net/glance/+spec/api-v2-property-protection blueprint]
  
====Registry API====
+
====注册表API====
A new API has been created for the Registry service (db_api compliant) using RPC-over-HTTP. The API:
+
使用RPC-over-HTTP为注册表服务(Registry service)提供了新的API(兼容db_api)
* Allows Glance to continue to support legacy deployments that were using the earlier registry service. Glance v2 dropped completely the use of a registry service, which in some cases could result in a security vulnerability (all database parameters had to be present in glance-api.conf if deployed as a 'public' service).
+
* 支持使用早期注册表服务的旧的部署方法。Glance v2曾经彻底去掉了注册表服务,在某些情况下会导致安全漏洞 (如果被部署为'公开'服务,则所有的数据库参数会被呈现在glance-api.conf中)
* Makes it easier to implement new methods to the database API without having to modify the registry's API.
+
* 不需要修改注册表API,就可以很容易的实现数据库API的新方法。
 
[https://blueprints.launchpad.net/glance/+spec/registry-api-v2 blueprint]
 
[https://blueprints.launchpad.net/glance/+spec/registry-api-v2 blueprint]
  
Updates include a registry database driver that talks to a remote registry service, which in turn talks directly to a database back end. The registry service implements all the database API public functions that are actually used from outside the API. The Image Service's API v2 must be enabled, and the Image Service client must point to this. [https://blueprints.launchpad.net/glance/+spec/registry-db-driver blueprint]
+
更新包含了注册表数据库驱动程序,与远程注册服务和后台数据库通话。注册表服务实现了所有数据库API的公开服务。镜像服务API v2必须启用,镜像服务客户端必须指向这里。[https://blueprints.launchpad.net/glance/+spec/registry-db-driver blueprint]
  
====Storage Support====
+
 
The Image Service now supports the following for back-end storage:
+
====存储支持====
* '''Sheepdog'''.  The Image Service can now store images in a backend Sheepdog cluster. Sheepdog is an open-source project, offering a distributed storage system for QEMU.
+
镜像服务支持如下的后台存储:
 +
* '''Sheepdog'''.  镜像服务如今可以把镜像存储在一个后台Sheepdog群里。Sheepdoc是个开源项目,为QEMU提供了一个分布式存储系统。
 
[http://http://sheepdog.github.io/sheepdog/ "Sheepdog Website"]
 
[http://http://sheepdog.github.io/sheepdog/ "Sheepdog Website"]
 
[https://blueprints.launchpad.net/glance/+spec/add-sheepdog-support blueprint]
 
[https://blueprints.launchpad.net/glance/+spec/add-sheepdog-support blueprint]
* '''Cinder'''. OpenStack Cinder can now be used as a block-storage backend for the Image Service. [https://blueprints.launchpad.net/glance/+spec/glance-cinder-driver blueprint]
+
* '''Cinder'''. OpenStack Cinder现在可以被用做镜像服务的后台块存储。 [https://blueprints.launchpad.net/glance/+spec/glance-cinder-driver blueprint]
* '''GridFS'''. The Image Service now supports the GridFS distributed filesytem. Support is enabled using the new .conf options mongodb_store_uri and mongodb_dtore_db. GridFS locations with the form `gridfs://<IMAGE>` are supported. [http://docs.mongodb.org/manual/core/gridfs/ "GridFS Website"] [https://blueprints.launchpad.net/glance/+spec/gridfs-store blueprint]
+
* '''GridFS'''. 镜像服务现在支持GridFS分布式文件系统。使用新的.conf选项mongodb_store_uri和mongodb_store_db来启用这个功能。支持格式为`gridfs://<IMAGE>`的GridFS地址. [http://docs.mongodb.org/manual/core/gridfs/ "GridFS Website"] [https://blueprints.launchpad.net/glance/+spec/gridfs-store blueprint]
  
====Multiple Image Locations====
+
====多镜像地址====
Image service images can now be stored in multiple locations. This enables the efficient consumption of image data and the use of backup images for the event of a primary image failure. [https://blueprints.launchpad.net/glance/+spec/multiple-image-locations blueprint]
+
镜像服务中的镜像可以被存储在多个地址中。使得镜像数据得以高效使用,主镜像失败后备份镜像可以使用。[https://blueprints.launchpad.net/glance/+spec/multiple-image-locations blueprint]
  
Related updates include:
+
相关的更新包括:
* A policy layer for locations APIs, to enable the policy checks for changing image locations. [https://blueprints.launchpad.net/glance/+spec/locations-policy blueprint]
+
* 地址API的策略层,可以进行改变镜像地址的策略检查. [https://blueprints.launchpad.net/glance/+spec/locations-policy blueprint]
* Direct URL metadata. Each Image Service storage system can now store location metadata in the image location database, enabling it to return direct URL specific meta-data to the client when direct_url is enabled. For example, given a file://URL, the NFS exporting host, the mount point, and the FS type can now be returned to the client. [https://blueprints.launchpad.net/glance/+spec/direct-url-meta-data blueprint]
+
* 直接URL元数据。每个镜像服务存储系统可以在镜像地址数据库中存储地址元数据,当direct_url启用时,URL相关的元数据直接被返回客户端。例如,对于file://URL来说,NFS导出主机,加载点,和FS类型可被直接返回客户端。 [https://blueprints.launchpad.net/glance/+spec/direct-url-meta-data blueprint]
* Support for multiple locations when downloading images. This allows API clients to consume images from multiple backend store. [https://blueprints.launchpad.net/glance/+spec/multiple-locations-downloading blueprint]
+
* 下载镜像时支持多地址。允许API客户端从多个后台存储中读取镜像。 [https://blueprints.launchpad.net/glance/+spec/multiple-locations-downloading blueprint]
* Indexed checksum image property.  The checksum image property is now indexed allowing users to search for an image by specifying the checksum. [https://blueprints.launchpad.net/glance/+spec/index-using-checksum-image-property blueprint]
+
* 索引的镜像属性校验和。镜像属性校验和上建立了索引,允许用户通过校验和来查找镜像。[https://blueprints.launchpad.net/glance/+spec/index-using-checksum-image-property blueprint]
* Scrubber update.  The scrubber is a utility that cleans up images that have been deleted. The scrubber now supports multiple locations for 'pending_delete' image. [https://blueprints.launchpad.net/glance/+spec/glance-scrubber-refactoring blueprint]
+
* Scrubber更新。Scrubber是清除已删除镜像的工具。Scrubber支持'pending_delete'镜像的多地址。[https://blueprints.launchpad.net/glance/+spec/glance-scrubber-refactoring blueprint]
* Metadata checking. Can now enable the checking of metadata at the image location proxy layer when the location is changed. [https://blueprints.launchpad.net/glance/+spec/location-proxy-metadata-checking blueprint]
+
* 元数据检查。当地址改变时,允许检查镜像地址策略层的元数据。[https://blueprints.launchpad.net/glance/+spec/location-proxy-metadata-checking blueprint]
  
====But wait, there's more!====
+
====等等,这里还有更多!====
* '''Configurable container and disk formats'''. Glance previously only supported a specific set of container and disk formats, which were rarely the actual set of formats supported by any given deployment. The set of acceptable container and disk formats can now be configured. [https://blueprints.launchpad.net/glance/+spec/configurable-formats blueprint]
+
* '''可配置的容器和磁盘格式'''. Glance之前只支持指定的容器和磁盘格式,却是实际的格式集合中很少见的几种。如今,可接受的容器和磁盘格式可以被配置了。[https://blueprints.launchpad.net/glance/+spec/configurable-formats blueprint]
* '''Storage Quota'''. Users can now be limited to N bytes (sum total) across all storage systems (total_storage_quota configured in .conf file). [https://blueprints.launchpad.net/glance/+spec/glance-basic-quotas blueprint]
+
* '''存储配额'''. 用户在所有的存储系统中的用量可以被限制为N字节(总计)(配置.conf文件中的total_storage_quota). [https://blueprints.launchpad.net/glance/+spec/glance-basic-quotas blueprint]
* '''Membership Policy'''. Policy enforcement has been added to membership APIs (similar to image/location policy enforcement). New policies include 'new_member', 'add_member', 'get_member', 'modify_member', 'get_members', and 'delete_member'. [https://blueprints.launchpad.net/glance/+spec/membership-policy blueprint]
+
* '''成员策略'''. 策略执行被加入了成员API(类似镜像/地址的策略执行). 新策略包括'new_member', 'add_member', 'get_member', 'modify_member', 'get_members', 'delete_member'. [https://blueprints.launchpad.net/glance/+spec/membership-policy blueprint]
  
=== Known Issues ===
+
=== 已知问题 ===
  
* Check http://bugs.launchpad.net/glance
+
* 查看http://bugs.launchpad.net/glance
  
  
== OpenStack Dashboard (Horizon) ==
+
== OpenStack 仪表盘(Horizon) ==
  
=== Release Overview ===
+
=== 版本概述 ===
  
The Havana release cycle brings support for *three* new projects, plus
+
Havana版本支持了*三个*新项目,以及已有项目的重大新特性。基于此,最终用户的管理员用户的很多方面的用户体验都被提升了。Havana版本目前是OpenStack仪表盘项目的最佳版本。
significant new features for several existing projects. On top of that, many
 
aspects of user experience have been improved for both end users and
 
administrators. The community continues to grow and expand. The Havana release
 
is solidly the best release of the OpenStack Dashboard project yet!
 
  
=== Highlights ===
+
=== 亮点 ===
  
==== New Features ====
+
==== 新特性 ====
  
 
===== Heat =====
 
===== Heat =====
  
The OpenStack Orchestration project (Heat) debuted in Havana, and Horizon
+
The OpenStack编排项目(Heat)在Havana中首次登场,Horizon对Heat堆层提供全面支持。亮点包括支持从Heat模板格式动态生成表格,堆层拓扑可视化,和全面堆层资源查看。
delivers full support for managing your Heat stacks. Highlights include
 
support for dynamic form generation from supported Heat template formats,
 
stack topology visualizations, and full stack resource inspection.
 
  
 
===== Ceilometer =====
 
===== Ceilometer =====
  
Also debuting in Havana is the OpenStack Metering project (Ceilometer). Initial
+
OpenStack计量项目(Ceilometer)也在Havana中亮相。最初的支持包括管理员能够通过OpenStack仪表盘查询云计算的使用情况,更好的理解系统如何运行和利用。
support for Ceilometer is included in Horizon so that it is possible for an
+
 
administrator to query the usage of the cloud through the OpenStack Dashboard
+
===== 域, 组, 更多: 身份API v3的支持 =====
and better understand how the system is functioning and being utilized.
+
 
 +
随着Havana版本中OpenStack身份服务(Keystone) v3 API的全面成熟,Horizon对新功能如域和组,域和组上的角色管理和分配,基于域的认证,和域上下文切换,提供了全面支持。
 +
 
 +
===== Trove数据库 =====
 +
 
 +
OpenStack数据库即服务的项目(Trove)在Havana中从孵化状态毕业了。经过他们的勤奋工作,他们在OpenStack仪表盘中发布了一系列的面板,允许你生产和管理你的Trove数据库以及备份. 免则声明:鉴于Trove的第一个集成的正式版本将在Icehouse中发布,目前这项功能只可看作实验,可能会被修改。
 +
 
 +
===== Nova 功能=====
 +
 
 +
Horizon中支持的OpenStack计算(Nova)功能在持续发展。Havana版本中的新功能包括:
 +
 
 +
* 缺省配额可以编辑
 +
 
 +
* 管理员可以重置服务器/云主机中的密码
 +
 
 +
* Availability zone支持
 +
 
 +
* 提高的区域支持
 +
 
 +
* 调整云主机大小
 +
 
 +
* 提高的boot-from-volume支持
 +
 
 +
* 每个项目的flavor支持
 +
 
 +
对于控制哪里、何时以及如何启动云主机,所有这些都对此提供了丰富的选项,改善了云主机启动和运行中的管理。
 +
 
 +
===== Neutron功能 =====
  
===== Domains, Groups, and More: Identity API v3 Support =====
+
Havana版本增加了许多OpenStack网络(Neutron)的重要的新功能,最重要的包括:
  
With the OpenStack Identity Service (Keystone) v3 API fully fledged in the
+
* VPN即服务.
Havana release, Horizon has added full support for all the new features such
 
as Domains and Groups, Role management and assignment to Domains and Groups,
 
Domain-based authentication, and Domain context switching.
 
  
===== Trove Databases =====
+
* 防火墙即服务.
  
The OpenStack Database as a Service project (Trove) graduated from incubation
+
* 可编辑的交互式的可视化网络拓扑.
in the Havana cycle, and thanks to their industriousness they delivered a
 
set of panels for the OpenStack dashboard to allow for provisioning and managing
 
your Trove databases and backups. Disclaimer: Given that Trove's first official
 
release as an integrated project will not be until Icehouse this feature should
 
still be considered experimental and may be subject to change.
 
  
===== Nova Features =====
+
* 全部安全组和Neutron和Nova network之间的配额平分.
  
The number of OpenStack Compute (Nova) features that are supported in Horizon
+
当通过Neutron构造软件定义网络时,这些功能将给你提供巨大的灵活性。
continues to grow. New features in the Havana release include:
 
  
* Editable default quotas.
+
==== 用户体验的改善 ====
* The ability for an administrator to reset the password of a server/instance.
 
* Availability zone support.
 
* Improved region support.
 
* Instance resizing.
 
* Improved boot-from-volume support.
 
* Per-project flavor support.
 
  
All of these provide a richer set of options for controlling where, when and how
+
===== 密码修改自服务 =====
instances are launched, and improving how they're managed once they're up and
 
running.
 
  
===== Neutron Features =====
+
由于身份API v2.0 (Keystone)的改进,用户如今无需经过管理员就可以改变密码。这样做更安全。但是该功能在身份API v3中还没有生效。
  
A number of important new OpenStack Networking (Neutron) features are showcased
+
===== 更好的组织管理员信息 =====
in the Havana release, most notably:
 
  
* VPN as a Service.
+
管理员面板的几个部分被重新调整,使得更符合逻辑。而且,增加了新的信息来源,允许管理员更好的了解云中的主机状态和它们之间的关系,以便运载可用区域、聚合等。
* Firewall as a Service.
 
* Editable and interactive network topology visualizations.
 
* Full security group and quota parity between Neutron and Nova network.
 
  
These features allow for tremendous flexibility when constructing
+
===== 改善用户登出后的通知 =====
software-defined networks for your cloud using Neutron.
 
  
==== User Experience Improvements ====
+
增加了几个新的指标,用于指示在意外出现登录页面时用户登出的原因。这些指标指示了用户会话是否过期,是否因为不活跃而超时,或者试图访问不被授权的部分。
  
===== Self-Service Password Change =====
+
===== 安全组规则模板 =====
  
Empowered by changes to the Identity API v2.0 (Keystone), users can now change their own
+
由于许多非常常见的安全组规则用户每次都乏味地反复添加 (例如,SSH和ping的那些规则) Horizon团队已经为常见规则添加了预配置的模板,用户可以通过两次点击从中进行选择,并添加至他们的安全组。这些规则可以通过SECURITY_GROUP_RULES设置进行配置。
passwords without the need to involve an administrator. This is more secure and
 
takes the hassle out of things for everyone. This feature is not yet available to users of Identity API v3.
 
  
===== Better Admin Information Architecture =====
+
==== 社区 ====
  
Several sections of the Admin dashboard have been rearranged to more logically
+
===== 翻译团队 =====
group information together. Additionally, new sources of information have been
 
added to allow Admins to better understand the state of the hosts in the cloud
 
and their relationship to host aggregates, availability zones, etc.
 
  
===== Improved Messaging To Users On Logout =====
+
OpenStack翻译团队的作用在Havana周期中完全显露出来,此次Horizon的翻译质量是目前为止最好的。向这个团队在建立社区中取得的成功表示祝贺,这些努力最初开始于OpenStack仪表盘项目。
  
Several new indicators have been added to inform users why they've been logged
+
===== 用户体验团队 =====
out when they land on the login screen unexpectedly. These indicators make it
 
clear whether the user's session has expired, they timed out due to inactivity,
 
or they are not authorized for the section of the dashboard they attempted to
 
access.
 
  
===== Security Group Rule Templates =====
+
在Havana周期中,一个初创的OpenStack体验团队已经组建,其使命为改善整个OpenStack的用户体验。 他们迅速地使自己成为了OpenStack仪表盘特性设计与改进流程中不可或缺的一部份。由于现在有专门团队与外界进行积极开放地交流,可以预期未来的重要改进将进一步提升用户体验水平。
  
Since there are many very common security group rules which users tediously
+
==== 在后台 ====
re-add each time (rules for SSH and ping, for example) the Horizon team has
 
added pre-configured templates for common rules which a user can select and
 
add to their security group with two clicks. These rules are configurable
 
via the SECURITY_GROUP_RULES setting.
 
  
==== Community ====
+
===== 减少复杂的LESS编译:不再需要NodeJS =====
  
===== Translation Team =====
+
由于多方的负面评价,以及Python社区通过改进LESS支持提供的可能性,Horizon已经从项目中去除了所有NodeJS的部分。我们目前使用lesscpy来编译我们的LESS以生成最终的样式表。这将不会以任何形式影响大部分用户,但它可以使得下游分发和类似事务更为容易。
  
The OpenStack Translations team came fully into its own during the Havana cycle
+
===== 基于角色的访问控制 =====
and the quality of the translations in Horizon are the best yet by far.
 
Congratulations to that team for their success in building the community that
 
started primarily within the OpenStack Dashboard project.
 
  
===== User Experience Group =====
+
Horizon已经开始过渡,以使用其他OpenStack项目提供的policy.json来强化仪表盘中的访问控制。这意味着访问控制更加可配置,并且可以在其所属项目和Horizon之间保持同步。目前这只对Keystone和Nova的部分策略文件提供支持。完整支持将在下一个发布版本中提供。你将需要设置 POLICY_FILES_PATH和POLICY_FILES以使用这一特性。
  
A fledgling OpenStack User Experience Group formed during the Havana cycle with
+
==== 其他改进与修正 ====
the mission of improving UX throughout OpenStack. They have quickly made
 
themselves indispensable to the process of designing and improving features in
 
the OpenStack Dashboard. Expect significant future improvement in User
 
Experience now that there are dedicated people actively collaborating in the
 
open to raise the bar.
 
  
==== Under The Hood ====
+
* Swift容器和对象元数据现在已经支持。
  
===== Less Complicated LESS Compilation: No More NodeJS =====
+
* 新的使用率及配额可视化效果。
  
Due to outcry from various parties, and made possible by improvements in the
+
* 当在Neutron中打开和支持以后,通过一个特殊的附加仪表盘,Cisco N1K路由器插件的附加特性已经可用。
Python community's support for LESS, Horizon has removed all traces of NodeJS
 
from the project. We now use the lesscpy module to compile our LESS into
 
the final stylesheets. This should not affect most users in any way, but it
 
should make life easier for downstream distributions and the like.
 
  
===== Role-Based Access Controls =====
+
* 支持自签名或其他指定的SSL认证检查。
  
Horizon has begun the transition to using the other OpenStack projects'
+
* Glance镜像类型现在可配置。
policy.json files to enforce access controls in the dashboard if the files
 
are provided. This means access controls are more configurable and can be kept
 
in sync between the originating project and Horizon. Currently this is only
 
supported for Keystone and parts of Nova's policy files. Full support will
 
come in the next release. You will need to set the POLICY_FILES_PATH and
 
POLICY_FILES settings in order to enable this feature.
 
  
==== Other Improvements and Fixes ====
+
* 仪表盘许多地方的排序已经改进。
  
* Swift container and object metadata are now supported.
+
* API调用效率优化。
* New visualizations for utilization and quotas.
 
* The Cisco N1K Router plugin's additional features are available through a special additional dashboard when enabled and supported in Neutron.
 
* Support for self-signed or other specified SSL certificate checking.
 
* Glance image types are now configurable.
 
* Sorting has been improved in many places through the dashboard.
 
* API call efficiency optimizations.
 
* Required fields in forms are now better indicated.
 
* Session timeout can now be enabled to log out the user after a period of inactivity as a security feature.
 
* Significant PEP8 and code quality compliance improvements.
 
* Hundreds of bugfixes and minor user experience improvements.
 
  
=== Upgrade Information ===
+
* 表单中需要填写的域被更好地指明。
  
==== Allowed Hosts ====
+
* 作为一个安全特性,会话超时现在可以被打开,以在一个用户超过一段时间不活跃以后将其登出。
  
For production deployments of Horizon you must add the ALLOWED_HOSTS
+
* 显著的PEP8和代码质量一致性改进。
setting to your settings.py or local_settings.py file. This setting
 
was added in Django 1.5 and is an important security feature. For more
 
information on it please consult the local_settings.py.example file
 
or Django's documentation.
 
  
==== Enabling Keystone and Neutron Features ====
+
* 数百项错误修正和用户体验改进。
  
If you have existing configurations for the OPENSTACK_KEYSTONE_BACKEND
+
=== 升级注意事项 ===
or OPENSTACK_NEUTRON_NETWORK settings, you will want to consult the
 
local_settings.example.py file for information on the new options that
 
have been added. Existing configurations will continue to work, but may not
 
have the correct keys to enable some of the new features in Havana.
 
  
=== Known Issues and Limitations ===
+
==== 允许的主机 ====
  
==== Session Creation and Health Checks ====
+
对于Horizon的产品部署,你必须向你的your settings.py或 local_settings.py文件中添加ALLOWED_HOSTS设定。
 +
这一设定是在Django 1.5中加入的,并且是一项重要的安全特性。对于相关的更多信息,请参考local_settings.py.example文件或Django文档。
  
If you use a health monitoring service that pings the home page combined with
+
==== 打开Keystone和Neutron特性 ====
a database-backed session backend you may experience excessive session creation.
 
This issue is slated to be fixed soon, but in the interim the recommended
 
solution is to write a periodic job that deletes expired sessions from your
 
session store on a regular basis.
 
  
==== Deleting large numbers of resources simultaneously ====
+
如果你有已有的OPENSTACK_KEYSTONE_BACKEND或OPENSTACK_NEUTRON_NETWORK设定的配置,你将需要参考local_settings.example.py文件,以获取新的已添加选项的信息。已有的配置将继续可用,但可能无法打开Havana版本中的一些新特性。
  
Using the "select all" checkbox to delete large numbers of resources at once
+
=== 已知问题与限制 ===
can cause network timeouts (depending on configuration). This is due to the
 
underlying APIs not supporting bulk-deletion natively, and consequently Horizon
 
has to send requests to delete each resource individually behind the scenes.
 
  
==== Conflicting Security Group Names With Neutron ====
+
==== 对话创建与健康检查 ====
  
Whereas Nova Network uses only the name of a security group when specifying
+
如果你使用健康监管服务ping主页,并且后端使用的是支持数据库会话的那种,你会碰到过多的会话被创建这个问题。
security groups at instance launch time, Neutron can accept either a name or
+
该问题很快会被修订,但是短期内推荐的解决方法是,写一个周期任务来从你的会话存储中删除过期的会话。
a UUID. In order to support both, Horizon passes in the name of the selected
 
security groups. However, due to some data-isolation issues in Neutron there is
 
an issue that can arise if an admin user tries to specify a security group with
 
the same name as another security group in a different project which they also
 
have access to. Neutron will find multiple matches for the security group
 
name and will fail to launch the instance. The current workaround is to treat
 
security group names as unique for admin users.
 
  
=== Backwards Compatibility ===
+
==== 同时删除巨大数量的资源 ====
  
The Havana Horizon release should be fully compatible with both Havana and
+
使用"全部选择"选项以一次删除巨大数量的资源可能引起网络超时(与配置有关)。这是由于底层API不能原生支持巨量删除,因此Horizon必须在后台分别发送删除各个资源的要求。
Grizzly versions of the rest of the OpenStack integrated projects (Nova, Swift,
 
etc.). New features in other OpenStack projects which did not exist in Grizzly
 
will obviously only work in Horizon if the rest of the stack supports them as
 
well.
 
  
Overall, great effort has been made to maintain compatibility for
+
==== 与Neutron冲突的安全组名 ====
third-party developers who have built on Horizon so far.
 
  
 +
虽然Nova Network只使用在云主机创建并指定安全组时指定的那个安全组名,Neutron则可以接受名字或者UUID。为了同时支持两者,Horizon传入了被选择的安全组的名字。然而,由于Neutron中的一些数据隔离问题,如果一个admin用户试图指定一个与其他项目中的其他安全组同名的安全组名,可能会发生一些问题。Neutron将发现对这个安全组名的多个匹配结果,并且无法创建这个云主机。目前的一个回避办法是使安全组名对于admin用户是独一无二的。
  
== OpenStack Identity (Keystone) ==
+
=== 后向兼容性 ===
  
=== 重要特性 ===
+
Havana Horizon发布版本将与Havana和Grizzly版本中的其他OpenStack集成项目(Nova, Swift, etc.)完全兼容。 如果栈的其余部分提供支持,则其他在Grizzly中不存在的项目中的新特性则只能在Horizon中工作。总体而言,为了维护与以Horizon为基础的第三方开发者的兼容性,已经付出了巨大努力。
  
* Improved deployment flexibility
 
** Authorization data (tenants/projects, roles, role assignments; e.g. SQL) can now be stored in a separate backend, as determined by the "assignments" driver, from authentication data (users, groups; e.g. LDAP), as determined by the "identity" driver
 
** Credentials (e.g. ec2 tokens) can now be stored in a separate backend, as determined by the "credentials" driver, from authentication data
 
** Ability to specify more granular RBAC policy rules (for example, based on attributes in the API request / response body)
 
** Pluggable handling of external authentication using <code>REMOTE_USER</code>
 
** Token generation, which is currently either UUID or PKI based, is now pluggable and separated from token persistence. Deployers can write a custom implementation of the <code>keystone.token.provider.Provider</code> interface and configure keystone to use it with <code>[token] provider</code>. As a result, <code>[signing] token_format</code> is now deprecated in favor of this new configuration option.
 
** First-class support for deployment behind Apache httpd
 
  
* New deployment features
+
== OpenStack 身份(Keystone) ==
** Ability to cache the results of driver calls in a key-value store (for example, memcached or redis)
 
** <code>keystone-manage token_flush</code> command to help purge expired tokens
 
  
* New API features
+
=== 主要新特性 ===
** Delegated role-based authorization to arbitrary consumers using OAuth 1.0a
 
** API clients can now opt out of the service catalog being included in a token response
 
** Domain role assignments can now be inherited by that domain's projects
 
** Aggregated role assignments API
 
** External authentication providers can now embed a binding reference into tokens such that remote services may optionally validate the identity of the user presenting the token against an presented external authentication mechanism. Currently, only <code>kerberos</code> is supported.
 
** Endpoints may now be explicitly mapped to projects, effectively preventing certain endpoints from appearing in the service catalog for certain based on the project scope of a token. This does not prevent end users from accessing or using endpoints they are aware of through some other means.
 
  
* Event notifications emitted for user and project/tenant create, update, and delete operations
+
* 改善了部署灵活性
* General performance improvements
 
* The v2 and v3 API now use the same logic for computing the list of roles assigned to a user-project pair during authentication, based on user+project, group+project, user+domain-inherited, and group+domain-inherited role assignments (where domain-inherited role assignments allow a domain-level role assignment to apply to all projects owned by that domain). The v3 API now uses a similar approach for computing user+domain role assignments for domain-scoped tokens.
 
* Logs are handled using a common logging implementation from Oslo-incubator, consistent with other OpenStack projects
 
* SQL migrations for extensions can now be managed independently from the primary migration repository using <code>keystone-manage db_sync --extension=&laquo;extension-name&raquo;</code>.
 
  
=== Known Issues ===
+
** 认证数据(用户,组; 例如LDAP),可以由"身份"驱动程序的决定,存储在一个后端中,而授权数据(租户/项目, 角色, 角色分配; 例如SQL) 则由"分配"驱动程序的决定,存储在另一个分开的后端中。
  
* [https://pypi.python.org/pypi/six/ six] v1.4.1 or higher is an undocumented requirement ([https://bugs.launchpad.net/keystone/+bug/1237089 bug 1237089]). Without six, Keystone will fail on startup with either <code>ImportError: No module named six</code> or <code>pkg_resources.DistributionNotFound: six</code>.
+
** 不同于认证数据,证书(例如ec2令牌)如今由"证书"驱动程序来指定,存储在另一个分开的后端中。
* An experimental implementation of [https://blueprints.launchpad.net/keystone/+spec/multiple-ldap-servers domain-specific identity backends] (for example, a unique LDAP configuration per domain) was started in Havana but remains incomplete and will be finished during Icehouse.
+
 
 +
** 有能力指定更小粒度的RBAC策略规则(例如,基于API请求/应答消息体中的某个属性)
 +
 
 +
** 使用<code>REMOTE_USER</code>可插入地处理外部认证。
 +
 
 +
** 令牌生成,目前基于UUID或者PKI, 是可插入式的,与令牌持久存储是分开的。部署人员可实现一个定制化的<code>keystone.token.provider.Provider</code>接口,通过配置 <code>[token] provider</code>使Keystone使用它。为了支持这个新的配置项,<code>[signing] token_format</code>如今已经被弃用。
 +
 
 +
** 针对基于Apache httpd的部署提供最好的支持
 +
 
 +
* 新的部署特性
 +
 
 +
** 能将驱动程序调用结果缓存在一个键-值存储中(例如,memcached或者redis)
 +
 
 +
** <code>keystone-manage token_flush</code>命令能够帮助清理过期的令牌。
 +
 
 +
* 新的API特性
 +
 
 +
** 使用OAuth 1.0a将基于角色的授权委派给消费者
 +
 
 +
** API客户端可以从含在令牌响应消息中的服务目录中选择
 +
 
 +
** 域角色分配如今将从域的项目中继承
 +
** 聚合的角色分配API
 +
 
 +
** 外部认证提供者可以将一个绑定引用嵌入到令牌中,以致远程服务可以选择基于一个外部认证机制来验证用户展示的令牌中的身份。目前只支持<code>kerberos</code>
 +
 
 +
** 端点被显示地映射到项目,有效的防止某个端点在令牌的项目范围的服务目录中出现。这并不能阻止最终用户通过其他方式得知端点,并使用该端点进行访问。
 +
 
 +
* 当用户和项目/租户被创建、更新和删除时,事件通知会被发送。
 +
 
 +
* 常规性能提升
 +
 
 +
* 在认证时,v2和v3版本的API如今使用相同的逻辑来计算指定给用户-项目对的角色列表,这是基于用户+项目,组+项目,用户+域继承,和组+域继承的角色来计
 +
 
 +
算的(域继承指在域范围内指定的角色可以应用到该域范围内所有的项目中)。v3版本的API如今使用类似的方法来为域范围的令牌指定用户+域的角色。
 +
* 日志处理
 +
 
 +
采用Oslo-incubator中的方法,与其他OpenStack项目一致
 +
 
 +
* 使用<code>keystone-manage db_sync --extension=&laquo;extension-name&raquo;</code>,SQL 迁移扩展现在被从主存储迁移中分离出来管理,.
 +
 
 +
=== 已知问题 ===
 +
 
 +
* [https://pypi.python.org/pypi/six/ six] 一个没有记录下来的需求是版本要求v1.4.1或者更高 ([https://bugs.launchpad.net/keystone/+bug/1237089 bug 1237089])。没有six,Keystone会在启动时失败,错误将会是<code>ImportError: No module named six</code>或者<code>pkg_resources.DistributionNotFound: six</code>.
 +
* [https://blueprints.launchpad.net/keystone/+spec/multiple-ldap-servers 基于域的身份认证后端]的试实现 (例如,每个域有唯一的LDAP配置)从Havana开始,但是不完备,将在Icehouse中继续完善。
  
 
== OpenStack Network Service (Neutron) ==
 
== OpenStack Network Service (Neutron) ==
=== 重要特性 ===
+
=== 主要新特性 ===
==== New Name ====
+
====新的名称====
The OpenStack Networking project has a new name in this release: Neutron.  The Havana release will run using configuration files from Grizzly Quantum; however the usage of Quantum is deprecated and deployers should update all references at their earliest opportunity.  Support for the Quantum configuration files and executable names will dropped in 2014.1 (Icehouse).
+
OpenStack的网络服务,在此版本中有一个新的名字:Neutron。Havana版将允许向下兼容Grizzly版Quantum的配置文件,但使用Quantum的配置文件是不推荐使用的,部署人员应当尽快更新所有的引用配置到新版。Quantum配置文件和可执行文件名将支持到2014.1(Icehuose版)。
==== Advanced Services ====
+
====高级服务====
Neutron added two new advanced services during the latest development cycle and revised the load balancer service.
+
Neutron 的最新发展周期过程中增加了两个新的先进的服务和修订的负载均衡服务。
 +
 
 +
'''负载均衡 (LBaaS)''' 以前是发布在2013.1版本(Grizzly)版的实验性功能,负载平衡服务和API扩展,现在已适合部署。此版本发布了更新后的API和HAProxy的
 +
 
 +
驱动程序支持。供应商的驱动程序,预计在Icehouse 和Radware两个版本已经分成了Havana 版兼容的驱动程序供下载。负载均衡服务可以运行在多个网络节点上。
 +
 
 +
'''VPN (VPNaaS)'''端到端的IPSec VPN通过VPN服务插件进行支持。 VPN API支持IPSec和L3代理并且附带openswan的驱动程序。
 +
 
 +
'''Firewall (FWaas)'''一个新的边缘防火墙服务。防火墙服务允许租户通过防火墙API或者通过VIF API安全组配置深度安全规则 。 FWaaS API和驱动程序是试验
  
'''Load Balancer (LBaaS)''' Previously released as experimental features the in 2013.1 (Grizzly) release, the load balancing service and API extensions are now suitable for deployment.  This release ships an updated API and with HAProxy driver support.  Vendor drivers are expected in Icehouse and Radware has already made an out of tree Havana compatible driver available for download. The load balancing service can run on multiple network nodes.
+
性的,Neutron会在下一个发布周期继续进步。开发团队欢迎各界人士对这个扩展提出自己的意见。
 +
====新插件====
 +
'''Modular Layer 2 (ML2)''' 模块化第2层
  
'''VPN (VPNaaS)''' Site-to-Site IPSec VPNs are now supported via the VPN service plugin.  The VPN API supports IPSec and and L3 agent ships with an OpenSwan driver.
+
(ML2) 是Neutron的一个新的开源插件。这个插件是一个框架,使得OpenStack的网络可以利用2层网络技术实现复杂的真实数据中心的各种功能,目前兼容Open
  
'''Firewall (FWaas)'''A new edge firewall service is included in this release.  The firewall service enable tenant to configure security in depth as rules can be applied both at the edge via the firewall API and    on the VIF via the security group API.  The FWaaS API and drivers are considered experimental as the Neutron will continue development during the next release cycle.  The team  welcomes community feedback on this extension.
+
vSwitch, Linux Bridge, 和 L2代理。 ML2插件通过各种驱动和不同技术支持local,flat, VLAN , GRE和VXLAN网络。有多重供应商驱动程序可用 Arista,  
==== New Plugins ====
 
'''Modular Layer 2 (ML2)''' The Modular Layer 2 (ML2) plugin is a new OpenSource plugin to Neutron.  This plugin is a framework allowing OpenStack Networking to simultaneously utilize the variety of layer 2 networking technologies found in complex real-world data centers. It currently works with the existing Open vSwitch, Linux Bridge, and L2 agents.  The ML2 plugin supports local, flat, VLAN, GRE and VXLAN network types via a type drivers and different mechanism drivers.  There are vendor drivers available for Arista, Cisco Nexus, Hyper-V, and Tail-f NCS.  ML2 is a replacement for the Linux Bridge and Open vSwitch plugins which are now considered deprecated. [https://wiki.openstack.org/wiki/Neutron/ML2 More ML2 information]
 
  
==== Other Features ====
+
Cisco Nexus, Hyper-V, and Tail-f NCS。 ML2用来代替Linux Bridge,并且Open vSwitch插件现在也进入不建议使用列表。更多ML2信息参考 [
* Support for PXE Boot Options in when creating a port
 
* Improved translation support
 
  
=== Known Issues ===
+
https://wiki.openstack.org/wiki/Neutron/ML2]
==== Upgrades from Grizzly ====
 
Starting the neutron-server after upgrading code, but prior to migration will result in some database models being created without the proper migrations occurring.  The following upgrade setups should be taken to ensure a properly upgraded database.
 
* Ensure that the database is stamped for Grizzly prior to stopping service.<code>quantum-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini stamp grizzly</code>
 
* Stop quantum-server and deploy the Neutron code '''Do not start the neutron-server at this time'''.
 
* Run Havana Migration <code>neutron-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini upgrade havana</code>
 
* Start neutron-server
 
  
==== Agents May Report a Different Host Name ====
+
==== 其他特性 ====
Neutron switched the method to determine a host's name from using the host's FQDN to the result returned by the gethostname(2) call.  The change was made to be consistent with the rest of OpenStack.  The hostname reported by an agent may be different and will change after the agents are updated to Havana. If so, it is necessary to reschedule all networks onto the new L3 and DHCP agent names to restore service.  The change will results in a brief data plane outage will while the deployer reschedules the network.
+
*在创建端口时支持PXE引导选项
 +
*界面翻译更友好
  
==== L3 Agent No Longer Defaults to Sending Gratuitous ARPs ====  
+
=== 已知问题 ===
The L3 Agent previous defaults to sending gratuitous ARPs. The calls to send the gratuitous ARPs cause kernel panics when deployed using network namespaces on some distributions. Deployers may enable gratuitous ARP by setting ''send_arp_for_ha=3'' in the L3 Agent's configuration file.
+
====从Grizzly升级====
 +
升级neutron-server服务代码后启动服务,但在迁移之前,一些正在创建的数据库模型可能报错。为了保证能够正确升级,请按下列步骤操作。
 +
*确保Grizzly版数据库停止服务。<CODE>quantum-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini stamp grizzly</code>
 +
*停止quantum-server服务然后升级Neutron代码'''这时候不要启动neutron-server '
 +
*Havana版迁移<code>neutron-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini upgrade havana</code>
 +
*启动neutron-server服务
  
==== Firewall as a Service ====
+
====代理可能会报不同的主机名称错误====
The experimental FWaaS API extension only supports one active policy per tenant.  The behavior will change in the during the Icehouse development cycle to allow for different policies to be attached to different tenant routers.
+
与以前不同,Neutron使用主机的FQDN与gethostname(2)调用返回的结果 来确定主机的名称。这种变化与OpenStack的其
  
=== Upgrade Notes ===
+
他组件是一致的。当代理升级到Havana版时可能会返回不同的主机名称。如果是这样,它是需要重新将所有的网络转移到新的L3和DHCP代理来恢复服务。这一变化
* Changes to neutron-dhcp-agent require you to first upgrade your dhcp-agents. Then wait until the dhcp_lease time has expired. After waiting at least dhcp_lease time, update neutron-server. Failure to do this may lead to cases where an instance is deleted and the dnsmasq process has not released the lease and neturon allocates that ip to a new port. (https://review.openstack.org/#/c/37580/)
 
  
*  There is a new default policy.json file.  Deployers with existing deployments should update their files as many options have changed: [http://git.openstack.org/cgit/openstack/neutron/plain/etc/policy.json policy.json]
+
将在重新地调度网络时导致先前的数据短暂过期。
  
=== Deprecation Notices ===
+
==== L3代理不再默认发送空ARP消息====
* The usage of "quantum" or "Quantum" in configuration files and executable names is officially deprecated.  This is the last release that will support those names and new deployments should use proper Neutron names for those values.  Support for compatibility will only exist in this release.
+
L3代理以前默认发送空ARP。在一些版本的系统中,当使用网络命名空间发送空的ARP将导致内核崩溃。用户可以在L3代理
* The Linux Bridge and Open vSwitch plugins have been feature frozen and will be removed in the J (2014.2) release.  New deployments should choose ML2 instead of the individual Open vSwitch or Linux Bridge plugins.
 
  
== OpenStack Block Storage (Cinder) ==
+
配置文件中通过设置''send_arp_for_ha= 3"来启用空ARP。
  
=== 重要特性 ===
+
====防火墙as服务====
* Volume migration - admin API to migrate a volume to a different Cinder back-end
 
* Scheduler hints extension added to V2 API
 
* Added local block storage driver to allow use of raw disks without LVM
 
* Added ability to extend the size of an existing volume
 
* Added ability to transfer volume from one tenant to another
 
* Added API call to enable editing default quota settings
 
* Added config option to allow auto-flatten snapshots for back-ends that leave a dependency when creating volume from snapshot
 
* Allow API to accept a "host-name" in the volume-attach and not just an instance uuid
 
* Enable the generalized backup layer to allow backups from any iSCSI device that doesn't have internal optimizations
 
* Added Ceph driver to backup service (allowing Ceph as a backup target with differential backups from Ceph to Ceph)
 
* Added rate-limiting information to provider info that can be passed to Nova and used by the hyper-visor
 
* New Windows Storage Server driver features ([https://blueprints.launchpad.net/cinder/+spec/windows-storage-driver-extended blueprint])
 
  
=== New Vendor Drivers ===
+
这个版本中的FWaaS API插件只支持每租户一个活动的策略。这一功能将在ICE版中继续改进,到时将允许不同租户的不同的策略。
 +
 
 +
===升级注意事项===
 +
*升级neutron-dhcp首先升级dhcp-agents。然后等到dhcp_lease超时。当dhcp_lease超时时,升级neutron-server。如果不执行这个步骤将导致dnsmasq在云主机删除后不释放ip给新的port。
 +
(https://review.openstack.org/#/c/37580/)
 +
*新的policy.jsonfile需要更新新的变化后的选项:[http://git.openstack.org/cgit/openstack/neutron/plain/etc/policy.json policy.json]
 +
 
 +
===弃用声明===
 +
 
 +
*使用 "quantum" 或 "Quantum"的配置文件和可执行文件名已正式弃用。这是最后将支持这些名称的版本,新部署必须使用适当的Neurton名称。后续版本将不保证
 +
 
 +
兼容性。
 +
 
 +
* LinuxBridge和Open vSwitch的插件功能已经在J (2014.2)版本冻结,删除。新部署应该选择使用ML2代替OpenvSwitch或LinuxBridge插件。
 +
 
 +
== OpenStack 块存储 (Cinder) ==
 +
 
 +
=== 主要的新特征 ===
 +
* 卷迁移 - 实现了一个管理员API,它可以把卷迁移到一个不同的后台存储设备上
 +
* V2 API 中增加了调度器提示扩展
 +
* 增加了本地块存储驱动可以跳过LVM直接使用原始磁盘
 +
* 增加了扩展已有卷容量的能力
 +
* 增加了将卷由一个租户转移给另一个租户的的能力
 +
* 增加了API调用,使得用户可以编辑默认配额设置
 +
* 增加了配置选项为后台存储实现 auto-flatten 快照,从而决定在从快照创建卷时是否产生依赖关系
 +
* 增加了API可以接受“hostname”来进行卷挂载,而不仅仅限于虚拟机的 uuid
 +
* 增加了一个备份层使得任何没有内部优化的iSCSI设备的备份都可以进行备份
 +
* 增加了新的 Ceph 驱动用于提供备份服务 (允许Ceph 可以作为备份目标)
 +
* 在供应者信息中增加了速率限制信息,该信息可以传递给 Nova 并由虚拟机管理器使用
 +
* 新的 Windows 存储服务器驱动特征  ([https://blueprints.launchpad.net/cinder/+spec/windows-storage-driver-extended blueprint])
 +
 
 +
=== 新的厂商驱动 ===
 
* Dell EqualLogic volume driver
 
* Dell EqualLogic volume driver
 
* VMware VMDK cinder driver
 
* VMware VMDK cinder driver
 
* IBM General Parallel File System (GPFS)
 
* IBM General Parallel File System (GPFS)
  
=== Major Additions To Existing Drivers ===
+
=== 已有驱动的主要补充 ===
* Add Fibre Channel drivers for Huawei storage systems
+
 
* Add a NFS Volume Driver to support Nexenta storage in Cinder
+
* 华为存储系统添加了光纤通道驱动支持
* Misc updates, and device specific adds to existing drivers have also been made to almost every existing vendor driver
+
 
* Optimized volume migration for IBM Storwize driver
+
* Nexenta 存储添加了NFS卷驱动
 +
 
 +
* 几乎每个已有的厂商驱动都进行了各式各样的、设备特定的更新
 +
 
 +
* IBM Storwize 驱动的卷迁移实现了优化
 +
 
 +
=== 新的备份驱动 ===
 +
 
 +
* Ceph成为了用于卷备份的选择
  
=== New Backup Drivers ===
 
* Allow Ceph as an option for volume backup
 
 
* IBM Tivoli Storage Manager (TSM)
 
* IBM Tivoli Storage Manager (TSM)
  
=== Known Issues ===
+
=== 已知问题 ===
* Bug #1237338 : Upload volume to image fails with VMWare volume driver
+
* Bug #1237338 : 上传卷到镜像会因为VMWare卷驱动失败
* Bug: #1240299 : clear volume operation is called on all LVM vol deletes even thin provisioned. Until fix is released be sure to set volume_clear=None in cinder.conf
+
* Bug: #1240299 : 清除卷的操作会导致所有的LVM卷被删除。在这个错误被修订之前,确保在cinder.conf中设置volume_clear=None。
 +
 
 +
=== 升级注意事项 ===
 +
* ThinLVM 卷驱动功能目前是标准LVM ISCSI 卷驱动的一部分。它的配置应该更新为设置volume_driver="cinder.volume.drivers.lvm.LVMISCSIDriver" 以及设置lvm_type="thin". 如果volume_driver设置为 "cinder.volume.drivers.lvm.ThinLVMVolumeDriver", 以上的设置将在Havana 中出于兼容的考虑自动进行,但是在 Icehouse 版本中需要在cinder.conf中进行这些选项的更新.
 +
 
 +
== OpenStack 监测 (Ceilometer) ==
 +
=== 主要新特性 ===
 +
=== API ===
 +
* 统计接口在新版本中支持使用"groupby"参数将统计结果以分组形式归纳返回
 +
* 增加了一个新的警报API (参见"警报"一节)
 +
* 增加了用户上传发布自己的监测数据和监测方法的API
 +
 
 +
==== 警报 ====
 +
 
 +
警报是Ceilometer新增加的一项特性,通过将一定时段内的统计和监测数据结果与设定的阈值相比较从而允许用户和操作人员触发系统进行相关反应和动作。警报功能主要由以下服务组成:
 +
 
 +
* "ceilometer-api"通过“/v2/alarms”接口对外提供对警报生命周期的控制和管理;
 +
 
 +
* "ceilometer-alarm-evaluator"周期性地评估各个警报以探测警报状态的变化;
 +
 
 +
* 当警报被触发时,"ceilometer-alarm-notifier"将接收来自“ceilometer-alarm-evaluaotr"服务的通知并执行相关联的反应和动作警报也同时提供了API以供查询警报状态变迁和相关规则变化等历史数据
 +
 
 +
==== 数据收集器 ====
 +
 
 +
* 新的HBase驱动
 +
 
 +
* 新的DB2(NoSQL)驱动
 +
 
 +
* 改进的SQLAlchemy驱动
  
=== Upgrade Notes ===
+
* 改进的MongoDB驱动
* The ThinLVM volume driver functionality is now part of the standard LVM ISCSI volume driver.  Configuration should be updated to use volume_driver="cinder.volume.drivers.lvm.LVMISCSIDriver" and set the option lvm_type="thin".  This will be done automatically for compatibility in Havana if volume_driver is set to "cinder.volume.drivers.lvm.ThinLVMVolumeDriver", but Icehouse will require these options to be updated in cinder.conf.
 
  
== OpenStack Metering (Ceilometer) ==
+
* 添加了TTL功能用于从数据库中删除旧有的监测数据
=== 重要特性 ===
+
* 添加了存储事件的功能
==== API ====
+
 
* The statistics endpoint can now be used to group samples by some fields using the ''groupby'' argument
+
* 在SQLAlchemy上添加了事件存储的特性
* A new alarm API is now available (see '''Alarms''')
+
 
* Users can now post their own samples and meters through the API
+
==== 数据发布器驱动 ====
  
==== Alarms ====
+
* 增加了一个UDP数据发布器
Alarms are a new feature allowing users and operators to trigger actions based on comparing the statistics trend against a threshold over a period of time. It is composed of the following services:
 
* ''ceilometer-api'' now exposes the new ''/v2/alarms'' endpoint providing control over alarm lifecycle;
 
* ''ceilometer-alarm-evaluator'' evaluates alarms periodically in order to detect detects when an alarm state changes;
 
* ''ceilometer-alarm-notifier'' receives notifications sent by ''ceilometer-alarm-evaluator'' when an alarm is triggered and executes the associated action
 
  
The alarm API also exposes the history of alarm state transitions and rule changes.
+
==== 数据转换器 ====
  
==== Collector ====
+
* 增加了两种新型数据转换器: unit-scaling数据转换器以及rate-of-change数据转换器
* New HBase driver
 
* New DB2 (NoSQL) driver
 
* Improved SQLAlchemy driver
 
* Improved MongoDB driver
 
* Added a TTL functionality that allows to delete old samples from the database
 
* Added the ability to store events
 
* Added event storage feature on SQLAlchemy
 
  
==== Publisher drivers ====
+
==== 监测方法 ====
* Added a UDP based publisher
 
  
==== Transformers ====
+
* 增加了一个利用Python middleware监测API请求的监测方法
* Added new unit-scaling and rate-of-change transformers
+
* 增加了从新的Neutron带宽监测方法记录监测数据的功能
  
==== Meters ====
+
==== 计算节点Ceilometer代理 ====
* Added a meter on API requests using a special Python middleware
 
* Added the ability to record samples from the new Neutron bandwidth metering feature
 
  
==== Compute agent ====
+
* 增加了针对Hyper-V的支持
* Added support for Hyper-V
 
  
=== Known Issues ===
+
=== 已知问题 ===
  
 
* https://review.openstack.org/#/c/46336/
 
* https://review.openstack.org/#/c/46336/
  
  
== OpenStack Orchestration (Heat) ==
+
== OpenStack 编排 (Heat) ==
=== 重要特性 ===
+
=== 主要新特性 ===
  
==== Much improved documentation ===
+
==== 完善的文档 ====
* [http://docs.openstack.org/developer/heat/getting_started/index.html getting started guides]
 
* [http://docs.openstack.org/developer/heat/ developer docs]
 
* [http://docs.openstack.org/developer/heat/template_guide/index.html template guide]
 
* [http://api.openstack.org/api-ref-orchestration.html API reference]
 
  
==== Initial integration with Tempest ====
+
* [http://docs.openstack.org/developer/heat/getting_started/index.html 入门向导]
* API tests https://github.com/openstack/tempest/tree/master/tempest/api/orchestration
+
* [http://docs.openstack.org/developer/heat/ 开发者文档]
==== Concurrent resource operations ====
+
* [http://docs.openstack.org/developer/heat/template_guide/index.html 模板向导]
* Non dependent create, update and delete operations are now performed in parallel
 
  
==== Much improved networking/Neutron support ====
+
* [http://api.openstack.org/api-ref-orchestration.html API参考]
* New LBaaS, FWaaS and VPNaaS resources
 
  
==== Initial support for native template language (HOT) ====
+
==== 开始与Tempest集成 ====
* See [http://docs.openstack.org/developer/heat/template_guide/index.html template guide] and [http://docs.openstack.org/developer/heat/template_guide/hot_spec.html specification]
 
  
==== Provider and Environment abstractions ====
+
* API 测试  https://github.com/openstack/tempest/tree/master/tempest/api/orchestration
* Abstractions to provide a way to customize resource types using nested templates see [http://docs.openstack.org/developer/heat/template_guide/environment.html documentation] and [http://hardysteven.blogspot.co.uk/2013/10/heat-providersenvironments-101-ive.html blog post]
 
  
==== Ceilometer integration for metrics/monitoring/alarms ====
+
==== 并发资源操作 ====
* Adds a new resource type [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Ceilometer::Alarm OS::Ceilometer::Alarm] which configures a ceilometer alarm
+
* 非依赖性创建,更新和删除操作目前可以并发执行
* Also we have integration with Ceilometer alarms for AutoScaling actions, which are now triggered by Ceilometer alarms.  The previous mechanism where metrics/alarms are processed by Heat still exists, but is now deprecated and will most likely be removed during Icehouse.
 
  
==== UpdateStack improvements ====
+
==== 完善的网络/Neutron支持 ====
  
* Several resource types now provide better support for non-destructive updates, including resizing an Instance.  Also we now create replacement resources before deleting the previous resource, allowing better upgrade continuity and roll-back capability.
+
* 新的LBaaS, FWaaS以及VPNaaS资源
  
==== Initial integration with keystone trusts functionality ====
+
==== 开始支持原生模板语言(HOT) ====
* Initial integration with keystone trusts, so when heat.conf specifies deferred_auth_method=trusts, we no longer store encrypted credentials to perform deferred operations (for example AutoScaling adjustments), but instead create a trust and store the ID of the trust.
 
* (see known issues below)
 
  
==== Improved resource documentation ====
+
* 参见 [http://docs.openstack.org/developer/heat/template_guide/index.html 模板向导] 以及
* Generation of documentation for all resource types http://docs.openstack.org/developer/heat/template_guide/
 
* Schemata for installed resource types are now available through the API
 
  
==== Many more native resource types ====
+
[http://docs.openstack.org/developer/heat/template_guide/hot_spec.html 标准]
 +
 
 +
==== 提供者和环境摘要 ====
 +
 
 +
* 摘要是一种利用嵌套模板定制资源类型的方法, 参见 [http://docs.openstack.org/developer/heat/template_guide/environment.html 文档] 以及
 +
 
 +
[http://hardysteven.blogspot.co.uk/2013/10/heat-providersenvironments-101-ive.html 博客发布]
 +
 
 +
==== 与Ceilometer的集成,包括监测方法/监控/警报 ====
 +
 
 +
* 增加了一种新的资源类型 [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Ceilometer::Alarm OS::Ceilometer::Alarm], 用于配置一个ceilometer警报
 +
 
 +
* 与Ceilometer的集成也包括由Ceilometer警报触发的AutoScaling动作。以往版本中由Heat自身处理的监测、警报等流程依然存在,但已经不推荐使用并很有可能在Icehouse版本中被移除。
 +
 
 +
==== UpdateStack改进 ====
 +
 
 +
* 若干资源类型目前提供对非破坏性更新,包括调整云主机大小等操作的更好的支持。 同时,我们也会在删除资源前创建替补资源,从而能够提供更好的连续性和回滚能力。
 +
 
 +
==== 开始与keystone的信托功能集成 ====
 +
 
 +
* 开始与keystone信托功能集成, 因而当heat.conf指定配置deferred_auth_method为trusts时,我们不再存储加密的凭据信息以执行延迟的操作(例如AutoScaling调整等),而是创建一个信托并记录信托的标识。
 +
 
 +
* (参见下文中的"已知问题"一节)
 +
 
 +
==== 完善的资源文档 ====
 +
 
 +
* 产生所有资源类型的文档  http://docs.openstack.org/developer/heat/template_guide/
 +
 
 +
* 通过API可以查看所安装资源类型的概要
 +
 
 +
==== 更多原生资源类型 ====
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Cinder::VolumeAttachment OS::Cinder::VolumeAttachment]
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Cinder::VolumeAttachment OS::Cinder::VolumeAttachment]
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Neutron::Firewall OS::Neutron::Firewall]
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Neutron::Firewall OS::Neutron::Firewall]
Line 722: Line 720:
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Nova::Server OS::Nova::Server]
 
* [http://docs.openstack.org/developer/heat/template_guide/openstack.html#OS::Nova::Server OS::Nova::Server]
  
==== New Rackspace resource types ====
+
==== 新的Rackspace资源类型 ====
 +
 
 
* Rackspace::Cloud::DBInstance
 
* Rackspace::Cloud::DBInstance
 +
 
* Rackspace::Cloud::LoadBalancer
 
* Rackspace::Cloud::LoadBalancer
 
* Rackspace::Cloud::Server
 
* Rackspace::Cloud::Server
  
==== Stack suspend/resume ====
+
==== Stack挂起/恢复 ====
* Support for a new API "actions" path, which enables stack suspend/resume
+
 
 +
* 提供了一个新的API "actions"用以支持整个stack的挂起/恢复
 +
 
 +
==== 在heat.conf和paste-api.ini中统一所有配置信息 ====
 +
* 参见下文中的"升级记录"一节
 +
* 增加了新的配置选项,提供了以下功能和限制
 +
: 模板尺寸
 +
: 每个tenant中的stack数量
 +
: 每个tenant中的event数量
 +
: stack嵌套深度
  
==== Consolidated configuration to a single heat.conf and a single paste-api.ini ====
+
==== Heat单独模式 ====
* See upgrade notes below
 
* Also added new config options to provide limitations on:
 
: template size
 
: number of stacks per tenant
 
: number of events per stack
 
: stack nesting depth
 
  
==== Heat Standalone Mode ====
+
* Heat目前可以被配置成为在单独模式下运行, 允许在外部Openstack上实现编排
* Heat can now be configured to run in standalone mode, allowing it to orchestrate onto an external OpenStack
 
  
==== Known Issues ====
+
==== 已知问题 ====
* Heat does not support specifying region name when getting API endpoints from keystone see [https://bugs.launchpad.net/python-keystoneclient/+bug/1147530 bug]
+
* Heat不支持在从keystone获取API地址时指定region的名字[https://bugs.launchpad.net/python-keystoneclient/+bug/1147530 bug]
* Integration with keystone trusts (deferred_auth_method=trusts) will only work if you have the latest keystoneclient 0.4.1, however this is not reflected in the requirements.txt of Heat yet
+
* 与keystone信托的集成仅当在使用最新版本的keystoneclient(deferred_auth_method=trusts),即版本0.4.1时可行,但这一点在Heat的requirements.txt文件中尚未得到体现:https://bugs.launchpad.net/python-keystoneclient/+bug/1231483
: https://bugs.launchpad.net/python-keystoneclient/+bug/1231483
+
* 鉴于以下问题,与keystone信托的集成要求keystone RC3版本:https://bugs.launchpad.net/keystone/+bug/1239303
* Integration with keystone trusts requires at least RC3 of keystone due to this issue
 
: https://bugs.launchpad.net/keystone/+bug/1239303
 
  
==== Upgrade Notes ====
+
==== 升级注意事项 ====
* Heat now uses one config file (/etc/heat/heat.conf) instead of per-service files.
+
* Heat当前使用一个配置文件(/etc/heat/heat.conf),不再使用每个服务一个文件的方式
* The API processes now use a single paste configuration file (/etc/heat/api-paste.ini) instead of per-service files.
+
* API使用一个配置文件(/etc/heat/api-paste.ini), 不再使用每个服务一个文件的方式
* There is now support for a global environment definition in /etc/heat/environment.d/ (see [http://docs.openstack.org/developer/heat/template_guide/environment.html environment documentation])
+
* 目前在/etc/heat/environment.d/中支持全局环境定义(参见 [http://docs.openstack.org/developer/heat/template_guide/environment.html 环境文档])
* All OS::Neutron* resources have been renamed "OS::Quantum*", the old names will still work if you install the provided default environment which aliases the old names to the new resources.
+
* 所有的OS::Neutron*资源均被更名为 "OS::Quantum*", 旧名字在用户安装的默认环境中仍然可用,因为默认环境将旧名字自动映射到新资源。
  
 
== OpenStack 文档 ==
 
== OpenStack 文档 ==
  
=== 重要新特性 ===
+
=== 主要新特性 ===
 
* 每页都有一个错误报告链接,你可以很容易的报告该页中的错误。
 
* 每页都有一个错误报告链接,你可以很容易的报告该页中的错误。
 
* 手册被彻底重构。在Havana版本中,包含下列指南:
 
* 手册被彻底重构。在Havana版本中,包含下列指南:

Latest revision as of 11:03, 23 October 2013

Contents

OpenStack 2013.2 (Havana) 版本说明

你可以找到OpenStack Havana版本的主要新特性的描述,已知问题,和升级建议。

OpenStack 对象存储 (Swift)

主要新特性

  • 全局集群支持

Swift 1.8.0引入了“区域”的概念,增强了对独立复制网络的使用和临近读写配置的支持。这些特性组合起来可以提供跨越广阔地域的单一Swift集群。

  • 增加配置文件conf.d的支持

允许Swift守护进程和服务可选的接受一个目录作为配置参数。这可以允许分开管理不同的配置文件,例如,每个中间件可以使用不同的文件来设置自己特定的参数。

  • 磁盘性能

对象服务器限制可以配置线程池来提高性能,消除整个系统的延迟。并且,许多磁盘操作被重新排序来增加可靠性和提高性能。

  • 增加memcache池化连接的支持
  • 选择切换节点的计算更快

修复的重要缺陷

  • 修复了memcache条目不过期的bug
  • 修复了客户端连接断开后代理服务器继续读取存储服务器的问题
  • 修复了版本控制写操作的UTF-8处理问题

其它的运行优化

  • 设置缺省的wsgi工作进程数目为cpu_count

修改缺省的wsgi进程数值从1到auto。新的缺省值会在proxy,container,account和object wsgi服务器中派生出与CPU核数相等的工作进程。这对于某些配置来说不是最理想的,却更像是提供一个开箱即用的部署。

  • 增加的reveal_sensitive_prefix配置选项来过滤proxy服务器日志里所记录的认证令牌。
  • 增加在对象复制时先复制切换分区的支持。现在可以在移除一个本地切换节点之前配置多个远程节点与存储节点通讯。
  • 增加了crossdomain.xml中间件。详情请参考http://docs.openstack.org/developer/swift/crossdomain.html
  • 对Swift运行在PyPy下的大量改进

已知问题

  • 如果你使用单元(cell),当删除云主机时会碰到问题。与Grizzly不同,删除云主机会在告知子单元删除之前立即从顶级(API)单元中删除。这本不是我们的初衷。这是因为当删除时,delete.start和delete.end通知被发送,如果子单元的云主机删除成功,第2个delete.start和delete.end通知会被发送。如果不这样,数据库会导致不一致,云主机已经从API单元中消失,但是仍存在于子单元中。自动治愈代码会更正这个错误,经过一段时间,API单元数据库中的云主机会被恢复,这段时间的长短取决于治愈代码的配置。该错误很快会在havana-stable内修订。
  • 查看http://bugs.launchpad.net/nova

升级注意事项

在https://github.com/openstack/swift/blob/master/CHANGELOG上阅读所有变更日志,可以看到任何影响升级的配置变更。

Swift可以一如既往进行升级而不停机。

OpenStack计算(Nova)

主要新特性

API

  • 计算(Nova) REST API包含一个试验性的新版本(v3)。新版本的API包括了大量清理,以及一个用于实现和版本化API扩展的框架。该API预期在Icehouse版本中被确定下来。(blueprint).
  • 添加了对于计算 (Nova) REST API的以下扩展:
    • CellCapacities: 添加了确定一个单元中的RAM数量,以及一个单元中的可用RAM数量的能力(blueprint)。
    • ExtendedFloatingIps: 为增加浮动IP命令添加了可选的fixed_address参数,允许一个浮动IP地址被关联至一个固定IP地址 (blueprint)。
    • ExtendedIpsMac: 向服务器响应中添加(多个)Mac地址 (blueprint).
    • ExtendedQuotas: 为管理员增加能力,以使其可以删除租户的非默认配额,并将其反转至配置过的默认配额(blueprint)。
    • ExtendedServices: 添加能力以存储和显示服务被禁止的原因(blueprint)。
    • ExtendedVolumes: 添加连接至云主机的云硬盘信息(blueprint)。
    • Migrations: 添加能力,以便逐单元或逐区域列出正在进行中的改变大小操作和迁移操作 (blueprint)。
    • ServerUsage: 在云主机显示响应中添加launched_atterminated_at值(blueprint)。
    • UsedLimitsForAdmin: 允许通过管理员API获取针对某个租户的配额限制(blueprint)。
  • 计算服务的EC2 API已经被更新,以使用与official EC2 API更为一致的错误代码。(blueprint)

单元

  • 单元调度器已经被更新,以支持通过[cells]配置组中的新的scheduler_filter_classesscheduler_weight_classes选项,来支持过滤和权重计算。 新的ram_by_instance_typeweight_offset权重计算模块也已被加入,以替代以前版本中的单元随机选择。 此外,一个过滤器类,TargetCellFilter,允许管理员指定一个调度器提示来指导一个特定单元上的建立过程。这使得单元调度在概念上与已有的宿主机调度类似。(blueprint)
  • 在一个单元范围内的虚拟机实例热迁移目前已经支持。单元间的虚拟机实例在线迁移尚不支持。 (blueprint)
  • 在使用单元时,Nova已经支持Cinder。 (blueprint)

计算

综合
  • 增加了对于使用Docker创建和管理的容器的虚拟机监控程序支持 (blueprint)。
  • Nova具备了一个新特性以允许你"搁置"一个云主机。这允许那些被停止一段时间的云主机被从虚拟机监控程序上移走以便释放资源(blueprint)。
  • 一个vendor_data段被添加到元数据服务和配置驱动器工具中。这允许客户机可见的元数据扩展中包含针对供应商或站点的数据 (blueprint)。
裸金属驱动
  • 在裸金属驱动中增加了一个后端以支持Tilera裸金属自动配置 (blueprint)。
Hyper-V驱动
  • 支持Windows Server / Hyper-V Server 2012 R2 (blueprint)。
  • 为Ceilometer集成提供的计算计量支持 (blueprint)。
libvirt (KVM) 驱动
  • 对于在创建时hw_qemu_guest_agent特性值设置为yes的客户机,已经添加对QEMU客户机代理(qemu-guest-agent)的支持( blueprint)。
  • 在Nova中已经添加从物理计算节点向虚拟客户机直通PCI设备的支持。目前仅有libvirt驱动提供了一个可用实现( base blueprint, libvirt blueprint)。
  • 在使用基于libvirt的虚拟机管理程序时,添加了从Cinder中提取QoS参数的支持,以及基于这些参数实现速率受限磁盘访问的支持(blueprint)。
  • RBD目前被支持作为一种镜像存储后端(blueprint)。
PowerVM 驱动
  • 添加了硬重启支持(change).
vmwareapi (VMWare) 驱动
  • 镜像克隆策略 - 允许镜像指定它们是否被用作链接克隆或全克隆镜像(blueprint)
  • 支持使用一个配置驱动器(blueprint)
XenServer 驱动
  • 支持显示服务器控制台的日志 (blueprint)
  • 支持将大易失磁盘分裂为1024GB或2000GB的块,以规避VHD的最大磁盘容量限制(blueprint)
  • 允许镜像具有AutoDiskConfig=disabled设定,这意味着用户不能在这些镜像和服务器上设定AutoDiskConfig=Manual (blueprint)
  • 改进Nova与Nova代理之间的通信方式,以使你可以在同一个云里同时使用cloud-init和Nova代理。(blueprint)
  • 能够启动虚拟机至一个运行Linux分发安装器的状态,以帮助用户建立他们自己的定制镜像(blueprint)
  • 对XenServer核心的实验性支持,以及在XenServer核心Dom0中运行nova-compute。(blueprint)
  • 对使用LVHD存储SR的实验性支持,并支持从压缩的raw格式Glance镜像中启动(blueprint)
  • 改进稳定性与可支持性的许多工作。例如:为发送至Glance的镜像配置压缩率的能力,和在服务器向下改变大小的过程中,由于磁盘对于目标空间而言过小而导致的错误的自动回滚能力。

配额

  • 默认配额现在是可编辑的,而以前这个配额的值是固定的。使用nova quota-class-update default <key> <value>来更新默认配额(blueprint)。
  • 现在可以针对每个用户定义配额(blueprint)。
  • 一个给定租户或用户的配额现在可以被删除,然后他们的配额将被重置为默认值(blueprint)。

网络

  • 网络和IP地址的分配现在与云主机自动配置过程中的其他操作并行执行,以缩短启动时间(blueprint)。
  • Nova现在可以将被选定承载一个云主机的计算节点的主机名传递给Neutron。Neutron 插件现在可以在需要时使用这些信息改变计算节点的物理网络配置(blueprint)。

通知

  • 现在,通知将在宿主机聚合被创建、删除、扩张、订约和以其他方式更新时生成(blueprint)。
  • 现在,通知将在云主机建立失败时被生成(blueprint)。

调度器

  • 在过滤器特性中添加了force_nodes,允许运营者在使用裸金属驱动自动配置时显性指定节点(blueprint)。
  • 添加了使得IsolatedHostsFilter约束性更弱的能力,通过操作nova.conf中的新的restrict_isolated_hosts_to_isolated_images配置指令的值,来允许隔离的宿主机使用所有镜像(blueprint)。
  • 添加了与已有的GroupAntiAffinityFilter相对的GroupAffinityFilter。这个新的过滤器允许向一个特定的宿主机组中的一个宿主机上调度一个云主机(blueprint)。
  • 为过滤器增加了新的能力,使得如果希望它们的过滤决策对于一个申请中的所有云主机均保持有效,则可将新的run_filter_once_per_request参数设定为True。这防止了过滤器在不必要的情况下对每一云主机被迫重新运行一次。 这一设置已经被应用于若干已有过滤器(blueprint)。
  • 添加了针对每个聚合的过滤器 AggregateRamFilterAggregateCoreFilter,它们对宿主机聚合而不是全局有效。AggregateDiskFilter将在未来的版本中被加入(blueprint)。
  • 通过去除曾经从所有计算节点广播至所有调度器的周期性消息,改进了调度器性能(blueprint)。
  • 通过允许调度器设定它们对申请多个云主机的申请只需运行一次,改进了调度器的性能(blueprint)。

存储

  • 连接的Cinder云硬盘现在可以被加密。当作为云主机的正常块存储设备时,数据根据需要在读写时被解密(blueprint)。
  • 添加了对连接至云主机的云硬盘进行透明换出的能力。当云硬盘换出时云主机可以短暂暂停而不会发生读写丢失(blueprint)。
  • 现在,当连接至基于NFS或GlusterFS的云硬盘时,Nova使用Cinder配置中设定的挂载选项。此前挂载选项必须在每个可能访问云硬盘的计算节点上设置(blueprint)。
  • 添加了本地GlusterFS支持。如果在nova.conf中将qemu_allowed_storage_drivers设定为gluster,则QEMU将被配置为直接使用libgfapi而不是通过fuse访问云硬盘(blueprint)。
  • 现在使用QEMU辅助快照来提供创建Cinder云硬盘快照的能力,即便支撑使用中的存储的后端存储不提供本地支持,例如GlusterFS (blueprint)。
  • 现在支持iSER传输协议用以访问存储,以提供相对于iSCSI over TCP的性能改进(blueprint)。

Conductor 协调器

  • 协调器目前可以创建多个并行执行的工作线程,创建的线程数由nova.confworkers 的值决定(blueprint)。

内部变化

  • Nova现在使用由Oslo提供的公共服务架构(blueprint).
  • 引入修改,以允许反向移植那些需要数据库迁移的bug修正 (blueprint)。
  • 为最终支持Nova部署的在线升级而进行的努力已经取得显著进展。在Havana中,改进包括通过服务间互发的消息版本实现的附加控制(参见nova.conf的[upgrade_levels]小节) (blueprint),以及一个新的、帮助将代码基础与数据库schema细节解耦合的对象层(blueprint)。

已知问题

  • 如果你使用cell,当删除云主机时会碰到问题。与Grizzly不同,删除云主机会在告知子cell删除之前立即从顶级(API)cell中删除。这本不是我们的初衷。这是因为当删除时,delete.start和delete.end通知被发送,如果子cell的云主机删除成功,第2个delete.start和delete.end通知会被发送。如果不这样,数据库会导致不一致,云主机已经从API cell中消失,但是仍存在于子cell中。自动治愈代码会更正这个错误,经过一段时间,API cell数据库中的云主机会被恢复,这段时间的长短取决于治愈代码的配置。该bug很快会在havana-stable内修订。
  • 查看http://bugs.launchpad.net/nova

升级注意事项

  • 注意:周期性任务现在将比以前运行得更加频繁。周期性任务的运行频率始终是可以配置的。然而,控制任务何时再次运行的定时器以前是在任务上一次运行完成后启动。而现在任务则以恒定频率运行,无论一个任务运行多长时间。这使得任务应该运行的时刻更为清楚。但是,其附带效应是,任务默认将运行得更为频繁。(https://review.openstack.org/#/c/26448/)
  • security_groups_handler选项已经被从nova.conf中移除。这一选项是为Quantum添加的,现在已经不再需要。 (https://review.openstack.org/#/c/28384/)
  • 这一变化不应影响升级,但对于所有新的部署,它是一个行为中的变化。以前的版本创建的m1.tiny默认类型,其磁盘空间为0。而这一默认值现在是1。0意味着不进行任何磁盘大小调整,并且使用镜像中设定的任何磁盘大小。1意味着强加以1GB限制。特殊值0仍然被支持,如果你希望创建或修改类型以使用它。(https://review.openstack.org/#/c/27991/)
  • 插件框架已经被去除,因为它能提供的功能已经被其他方式取代。(https://review.openstack.org/#/c/33595)
  • notify_on_any_change配置选项已经被去除。(https://review.openstack.org/#/c/35264/)
  • compute_api_class选项已经不被认可,并且将在未来的发布版本中被去除。(https://review.openstack.org/#/c/28750/)
  • 在Quantum被重命名后,Nova目前使用Neutron。(https://review.openstack.org/#/c/35425/)
  • 当定义了多个Neutron网络时,Nova将拒绝一个没有指定网络的创建服务器申请。Nova以前将把这一服务器连接至 *全部* 网络,但是这一行为并不合理。(https://review.openstack.org/#/c/33996/)
  • vmware 配置变量'vnc_password'已经不被认可。用户将不再被要求输入密码以访问VNC连接。这与其他所有virt驱动的工作方式一致。 (https://review.openstack.org/#/c/43268/)


OpenStack Image Service (Glance)

主要新特性

属性保护

现在被授权的特定用户组可以创建,更新,和读取任何实体的不同属性。镜像服务中有两类镜像属性:

  • 核心属性,被镜像schema所指定;
  • 元属性,可以在镜像上任意添加键/值对。使用属性保护配置文件(在 glance-api.conf 文件中指定),通过镜像服务公共API访问元属性的能力,现在可以被限制给某些用户集合。例如:
    • 只有管理员才能访问所有属性。
    • 允许管理员和计费用户读取和修改前缀为``x_billing_code_``的所有属性。

blueprint

注册表API

使用RPC-over-HTTP为注册表服务(Registry service)提供了新的API(兼容db_api):

  • 支持使用早期注册表服务的旧的部署方法。Glance v2曾经彻底去掉了注册表服务,在某些情况下会导致安全漏洞 (如果被部署为'公开'服务,则所有的数据库参数会被呈现在glance-api.conf中)。
  • 不需要修改注册表API,就可以很容易的实现数据库API的新方法。

blueprint

更新包含了注册表数据库驱动程序,与远程注册服务和后台数据库通话。注册表服务实现了所有数据库API的公开服务。镜像服务API v2必须启用,镜像服务客户端必须指向这里。blueprint


存储支持

镜像服务支持如下的后台存储:

  • Sheepdog. 镜像服务如今可以把镜像存储在一个后台Sheepdog群里。Sheepdoc是个开源项目,为QEMU提供了一个分布式存储系统。

"Sheepdog Website" blueprint

  • Cinder. OpenStack Cinder现在可以被用做镜像服务的后台块存储。 blueprint
  • GridFS. 镜像服务现在支持GridFS分布式文件系统。使用新的.conf选项mongodb_store_uri和mongodb_store_db来启用这个功能。支持格式为`gridfs://<IMAGE>`的GridFS地址. "GridFS Website" blueprint

多镜像地址

镜像服务中的镜像可以被存储在多个地址中。使得镜像数据得以高效使用,主镜像失败后备份镜像可以使用。blueprint

相关的更新包括:

  • 地址API的策略层,可以进行改变镜像地址的策略检查. blueprint
  • 直接URL元数据。每个镜像服务存储系统可以在镜像地址数据库中存储地址元数据,当direct_url启用时,URL相关的元数据直接被返回客户端。例如,对于file://URL来说,NFS导出主机,加载点,和FS类型可被直接返回客户端。 blueprint
  • 下载镜像时支持多地址。允许API客户端从多个后台存储中读取镜像。 blueprint
  • 索引的镜像属性校验和。镜像属性校验和上建立了索引,允许用户通过校验和来查找镜像。blueprint
  • Scrubber更新。Scrubber是清除已删除镜像的工具。Scrubber支持'pending_delete'镜像的多地址。blueprint
  • 元数据检查。当地址改变时,允许检查镜像地址策略层的元数据。blueprint

等等,这里还有更多!

  • 可配置的容器和磁盘格式. Glance之前只支持指定的容器和磁盘格式,却是实际的格式集合中很少见的几种。如今,可接受的容器和磁盘格式可以被配置了。blueprint
  • 存储配额. 用户在所有的存储系统中的用量可以被限制为N字节(总计)(配置.conf文件中的total_storage_quota). blueprint
  • 成员策略. 策略执行被加入了成员API(类似镜像/地址的策略执行). 新策略包括'new_member', 'add_member', 'get_member', 'modify_member', 'get_members', 和'delete_member'. blueprint

已知问题

  • 查看http://bugs.launchpad.net/glance


OpenStack 仪表盘(Horizon)

版本概述

Havana版本支持了*三个*新项目,以及已有项目的重大新特性。基于此,最终用户的管理员用户的很多方面的用户体验都被提升了。Havana版本目前是OpenStack仪表盘项目的最佳版本。

亮点

新特性

Heat

The OpenStack编排项目(Heat)在Havana中首次登场,Horizon对Heat堆层提供全面支持。亮点包括支持从Heat模板格式动态生成表格,堆层拓扑可视化,和全面堆层资源查看。

Ceilometer

OpenStack计量项目(Ceilometer)也在Havana中亮相。最初的支持包括管理员能够通过OpenStack仪表盘查询云计算的使用情况,更好的理解系统如何运行和利用。

域, 组, 更多: 身份API v3的支持

随着Havana版本中OpenStack身份服务(Keystone) v3 API的全面成熟,Horizon对新功能如域和组,域和组上的角色管理和分配,基于域的认证,和域上下文切换,提供了全面支持。

Trove数据库

OpenStack数据库即服务的项目(Trove)在Havana中从孵化状态毕业了。经过他们的勤奋工作,他们在OpenStack仪表盘中发布了一系列的面板,允许你生产和管理你的Trove数据库以及备份. 免则声明:鉴于Trove的第一个集成的正式版本将在Icehouse中发布,目前这项功能只可看作实验,可能会被修改。

Nova 功能

Horizon中支持的OpenStack计算(Nova)功能在持续发展。Havana版本中的新功能包括:

  • 缺省配额可以编辑
  • 管理员可以重置服务器/云主机中的密码
  • Availability zone支持
  • 提高的区域支持
  • 调整云主机大小
  • 提高的boot-from-volume支持
  • 每个项目的flavor支持

对于控制哪里、何时以及如何启动云主机,所有这些都对此提供了丰富的选项,改善了云主机启动和运行中的管理。

Neutron功能

Havana版本增加了许多OpenStack网络(Neutron)的重要的新功能,最重要的包括:

  • VPN即服务.
  • 防火墙即服务.
  • 可编辑的交互式的可视化网络拓扑.
  • 全部安全组和Neutron和Nova network之间的配额平分.

当通过Neutron构造软件定义网络时,这些功能将给你提供巨大的灵活性。

用户体验的改善

密码修改自服务

由于身份API v2.0 (Keystone)的改进,用户如今无需经过管理员就可以改变密码。这样做更安全。但是该功能在身份API v3中还没有生效。

更好的组织管理员信息

管理员面板的几个部分被重新调整,使得更符合逻辑。而且,增加了新的信息来源,允许管理员更好的了解云中的主机状态和它们之间的关系,以便运载可用区域、聚合等。

改善用户登出后的通知

增加了几个新的指标,用于指示在意外出现登录页面时用户登出的原因。这些指标指示了用户会话是否过期,是否因为不活跃而超时,或者试图访问不被授权的部分。

安全组规则模板

由于许多非常常见的安全组规则用户每次都乏味地反复添加 (例如,SSH和ping的那些规则) Horizon团队已经为常见规则添加了预配置的模板,用户可以通过两次点击从中进行选择,并添加至他们的安全组。这些规则可以通过SECURITY_GROUP_RULES设置进行配置。

社区

翻译团队

OpenStack翻译团队的作用在Havana周期中完全显露出来,此次Horizon的翻译质量是目前为止最好的。向这个团队在建立社区中取得的成功表示祝贺,这些努力最初开始于OpenStack仪表盘项目。

用户体验团队

在Havana周期中,一个初创的OpenStack体验团队已经组建,其使命为改善整个OpenStack的用户体验。 他们迅速地使自己成为了OpenStack仪表盘特性设计与改进流程中不可或缺的一部份。由于现在有专门团队与外界进行积极开放地交流,可以预期未来的重要改进将进一步提升用户体验水平。

在后台

减少复杂的LESS编译:不再需要NodeJS

由于多方的负面评价,以及Python社区通过改进LESS支持提供的可能性,Horizon已经从项目中去除了所有NodeJS的部分。我们目前使用lesscpy来编译我们的LESS以生成最终的样式表。这将不会以任何形式影响大部分用户,但它可以使得下游分发和类似事务更为容易。

基于角色的访问控制

Horizon已经开始过渡,以使用其他OpenStack项目提供的policy.json来强化仪表盘中的访问控制。这意味着访问控制更加可配置,并且可以在其所属项目和Horizon之间保持同步。目前这只对Keystone和Nova的部分策略文件提供支持。完整支持将在下一个发布版本中提供。你将需要设置 POLICY_FILES_PATH和POLICY_FILES以使用这一特性。

其他改进与修正

  • Swift容器和对象元数据现在已经支持。
  • 新的使用率及配额可视化效果。
  • 当在Neutron中打开和支持以后,通过一个特殊的附加仪表盘,Cisco N1K路由器插件的附加特性已经可用。
  • 支持自签名或其他指定的SSL认证检查。
  • Glance镜像类型现在可配置。
  • 仪表盘许多地方的排序已经改进。
  • API调用效率优化。
  • 表单中需要填写的域被更好地指明。
  • 作为一个安全特性,会话超时现在可以被打开,以在一个用户超过一段时间不活跃以后将其登出。
  • 显著的PEP8和代码质量一致性改进。
  • 数百项错误修正和用户体验改进。

升级注意事项

允许的主机

对于Horizon的产品部署,你必须向你的your settings.py或 local_settings.py文件中添加ALLOWED_HOSTS设定。 这一设定是在Django 1.5中加入的,并且是一项重要的安全特性。对于相关的更多信息,请参考local_settings.py.example文件或Django文档。

打开Keystone和Neutron特性

如果你有已有的OPENSTACK_KEYSTONE_BACKEND或OPENSTACK_NEUTRON_NETWORK设定的配置,你将需要参考local_settings.example.py文件,以获取新的已添加选项的信息。已有的配置将继续可用,但可能无法打开Havana版本中的一些新特性。

已知问题与限制

对话创建与健康检查

如果你使用健康监管服务ping主页,并且后端使用的是支持数据库会话的那种,你会碰到过多的会话被创建这个问题。 该问题很快会被修订,但是短期内推荐的解决方法是,写一个周期任务来从你的会话存储中删除过期的会话。

同时删除巨大数量的资源

使用"全部选择"选项以一次删除巨大数量的资源可能引起网络超时(与配置有关)。这是由于底层API不能原生支持巨量删除,因此Horizon必须在后台分别发送删除各个资源的要求。

与Neutron冲突的安全组名

虽然Nova Network只使用在云主机创建并指定安全组时指定的那个安全组名,Neutron则可以接受名字或者UUID。为了同时支持两者,Horizon传入了被选择的安全组的名字。然而,由于Neutron中的一些数据隔离问题,如果一个admin用户试图指定一个与其他项目中的其他安全组同名的安全组名,可能会发生一些问题。Neutron将发现对这个安全组名的多个匹配结果,并且无法创建这个云主机。目前的一个回避办法是使安全组名对于admin用户是独一无二的。

后向兼容性

Havana Horizon发布版本将与Havana和Grizzly版本中的其他OpenStack集成项目(Nova, Swift, etc.)完全兼容。 如果栈的其余部分提供支持,则其他在Grizzly中不存在的项目中的新特性则只能在Horizon中工作。总体而言,为了维护与以Horizon为基础的第三方开发者的兼容性,已经付出了巨大努力。


OpenStack 身份(Keystone)

主要新特性

  • 改善了部署灵活性
    • 认证数据(用户,组; 例如LDAP),可以由"身份"驱动程序的决定,存储在一个后端中,而授权数据(租户/项目, 角色, 角色分配; 例如SQL) 则由"分配"驱动程序的决定,存储在另一个分开的后端中。
    • 不同于认证数据,证书(例如ec2令牌)如今由"证书"驱动程序来指定,存储在另一个分开的后端中。
    • 有能力指定更小粒度的RBAC策略规则(例如,基于API请求/应答消息体中的某个属性)
    • 使用REMOTE_USER可插入地处理外部认证。
    • 令牌生成,目前基于UUID或者PKI, 是可插入式的,与令牌持久存储是分开的。部署人员可实现一个定制化的keystone.token.provider.Provider接口,通过配置 [token] provider使Keystone使用它。为了支持这个新的配置项,[signing] token_format如今已经被弃用。
    • 针对基于Apache httpd的部署提供最好的支持
  • 新的部署特性
    • 能将驱动程序调用结果缓存在一个键-值存储中(例如,memcached或者redis)
    • keystone-manage token_flush命令能够帮助清理过期的令牌。
  • 新的API特性
    • 使用OAuth 1.0a将基于角色的授权委派给消费者
    • API客户端可以从含在令牌响应消息中的服务目录中选择
    • 域角色分配如今将从域的项目中继承
    • 聚合的角色分配API
    • 外部认证提供者可以将一个绑定引用嵌入到令牌中,以致远程服务可以选择基于一个外部认证机制来验证用户展示的令牌中的身份。目前只支持kerberos
    • 端点被显示地映射到项目,有效的防止某个端点在令牌的项目范围的服务目录中出现。这并不能阻止最终用户通过其他方式得知端点,并使用该端点进行访问。
  • 当用户和项目/租户被创建、更新和删除时,事件通知会被发送。
  • 常规性能提升
  • 在认证时,v2和v3版本的API如今使用相同的逻辑来计算指定给用户-项目对的角色列表,这是基于用户+项目,组+项目,用户+域继承,和组+域继承的角色来计

算的(域继承指在域范围内指定的角色可以应用到该域范围内所有的项目中)。v3版本的API如今使用类似的方法来为域范围的令牌指定用户+域的角色。

  • 日志处理

采用Oslo-incubator中的方法,与其他OpenStack项目一致

  • 使用keystone-manage db_sync --extension=«extension-name»,SQL 迁移扩展现在被从主存储迁移中分离出来管理,.

已知问题

  • six 一个没有记录下来的需求是版本要求v1.4.1或者更高 (bug 1237089)。没有six,Keystone会在启动时失败,错误将会是ImportError: No module named six或者pkg_resources.DistributionNotFound: six.
  • 基于域的身份认证后端的试实现 (例如,每个域有唯一的LDAP配置)从Havana开始,但是不完备,将在Icehouse中继续完善。

OpenStack Network Service (Neutron)

主要新特性

新的名称

OpenStack的网络服务,在此版本中有一个新的名字:Neutron。Havana版将允许向下兼容Grizzly版Quantum的配置文件,但使用Quantum的配置文件是不推荐使用的,部署人员应当尽快更新所有的引用配置到新版。Quantum配置文件和可执行文件名将支持到2014.1(Icehuose版)。

高级服务

Neutron 的最新发展周期过程中增加了两个新的先进的服务和修订的负载均衡服务。

负载均衡 (LBaaS) 以前是发布在2013.1版本(Grizzly)版的实验性功能,负载平衡服务和API扩展,现在已适合部署。此版本发布了更新后的API和HAProxy的

驱动程序支持。供应商的驱动程序,预计在Icehouse 和Radware两个版本已经分成了Havana 版兼容的驱动程序供下载。负载均衡服务可以运行在多个网络节点上。

VPN (VPNaaS)端到端的IPSec VPN通过VPN服务插件进行支持。 VPN API支持IPSec和L3代理并且附带openswan的驱动程序。

Firewall (FWaas)一个新的边缘防火墙服务。防火墙服务允许租户通过防火墙API或者通过VIF API安全组配置深度安全规则 。 FWaaS API和驱动程序是试验

性的,Neutron会在下一个发布周期继续进步。开发团队欢迎各界人士对这个扩展提出自己的意见。

新插件

Modular Layer 2 (ML2) 模块化第2层

(ML2) 是Neutron的一个新的开源插件。这个插件是一个框架,使得OpenStack的网络可以利用2层网络技术实现复杂的真实数据中心的各种功能,目前兼容Open

vSwitch, Linux Bridge, 和 L2代理。 ML2插件通过各种驱动和不同技术支持local,flat, VLAN , GRE和VXLAN网络。有多重供应商驱动程序可用 Arista,

Cisco Nexus, Hyper-V, and Tail-f NCS。 ML2用来代替Linux Bridge,并且Open vSwitch插件现在也进入不建议使用列表。更多ML2信息参考 [

https://wiki.openstack.org/wiki/Neutron/ML2]

其他特性

  • 在创建端口时支持PXE引导选项
  • 界面翻译更友好

已知问题

从Grizzly升级

升级neutron-server服务代码后启动服务,但在迁移之前,一些正在创建的数据库模型可能报错。为了保证能够正确升级,请按下列步骤操作。

  • 确保Grizzly版数据库停止服务。quantum-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini stamp grizzly
  • 停止quantum-server服务然后升级Neutron代码这时候不要启动neutron-server '。
  • Havana版迁移neutron-db-manage --config-file /path/to/quantum.conf --config-file /path/to/plugin/conf.ini upgrade havana
  • 启动neutron-server服务

代理可能会报不同的主机名称错误

与以前不同,Neutron使用主机的FQDN与gethostname(2)调用返回的结果 来确定主机的名称。这种变化与OpenStack的其

他组件是一致的。当代理升级到Havana版时可能会返回不同的主机名称。如果是这样,它是需要重新将所有的网络转移到新的L3和DHCP代理来恢复服务。这一变化

将在重新地调度网络时导致先前的数据短暂过期。

L3代理不再默认发送空ARP消息

L3代理以前默认发送空ARP。在一些版本的系统中,当使用网络命名空间发送空的ARP将导致内核崩溃。用户可以在L3代理

配置文件中通过设置send_arp_for_ha= 3"来启用空ARP。

防火墙as服务

这个版本中的FWaaS API插件只支持每租户一个活动的策略。这一功能将在ICE版中继续改进,到时将允许不同租户的不同的策略。

升级注意事项

  • 升级neutron-dhcp首先升级dhcp-agents。然后等到dhcp_lease超时。当dhcp_lease超时时,升级neutron-server。如果不执行这个步骤将导致dnsmasq在云主机删除后不释放ip给新的port。

(https://review.openstack.org/#/c/37580/)

  • 新的policy.jsonfile需要更新新的变化后的选项:policy.json

弃用声明

  • 使用 "quantum" 或 "Quantum"的配置文件和可执行文件名已正式弃用。这是最后将支持这些名称的版本,新部署必须使用适当的Neurton名称。后续版本将不保证

兼容性。

  • LinuxBridge和Open vSwitch的插件功能已经在J (2014.2)版本冻结,删除。新部署应该选择使用ML2代替OpenvSwitch或LinuxBridge插件。

OpenStack 块存储 (Cinder)

主要的新特征

  • 卷迁移 - 实现了一个管理员API,它可以把卷迁移到一个不同的后台存储设备上
  • V2 API 中增加了调度器提示扩展
  • 增加了本地块存储驱动可以跳过LVM直接使用原始磁盘
  • 增加了扩展已有卷容量的能力
  • 增加了将卷由一个租户转移给另一个租户的的能力
  • 增加了API调用,使得用户可以编辑默认配额设置
  • 增加了配置选项为后台存储实现 auto-flatten 快照,从而决定在从快照创建卷时是否产生依赖关系
  • 增加了API可以接受“hostname”来进行卷挂载,而不仅仅限于虚拟机的 uuid
  • 增加了一个备份层使得任何没有内部优化的iSCSI设备的备份都可以进行备份
  • 增加了新的 Ceph 驱动用于提供备份服务 (允许Ceph 可以作为备份目标)
  • 在供应者信息中增加了速率限制信息,该信息可以传递给 Nova 并由虚拟机管理器使用
  • 新的 Windows 存储服务器驱动特征 (blueprint)

新的厂商驱动

  • Dell EqualLogic volume driver
  • VMware VMDK cinder driver
  • IBM General Parallel File System (GPFS)

已有驱动的主要补充

  • 华为存储系统添加了光纤通道驱动支持
  • Nexenta 存储添加了NFS卷驱动
  • 几乎每个已有的厂商驱动都进行了各式各样的、设备特定的更新
  • IBM Storwize 驱动的卷迁移实现了优化

新的备份驱动

  • Ceph成为了用于卷备份的选择
  • IBM Tivoli Storage Manager (TSM)

已知问题

  • Bug #1237338 : 上传卷到镜像会因为VMWare卷驱动失败
  • Bug: #1240299 : 清除卷的操作会导致所有的LVM卷被删除。在这个错误被修订之前,确保在cinder.conf中设置volume_clear=None。

升级注意事项

  • ThinLVM 卷驱动功能目前是标准LVM ISCSI 卷驱动的一部分。它的配置应该更新为设置volume_driver="cinder.volume.drivers.lvm.LVMISCSIDriver" 以及设置lvm_type="thin". 如果volume_driver设置为 "cinder.volume.drivers.lvm.ThinLVMVolumeDriver", 以上的设置将在Havana 中出于兼容的考虑自动进行,但是在 Icehouse 版本中需要在cinder.conf中进行这些选项的更新.

OpenStack 监测 (Ceilometer)

主要新特性

API

  • 统计接口在新版本中支持使用"groupby"参数将统计结果以分组形式归纳返回
  • 增加了一个新的警报API (参见"警报"一节)
  • 增加了用户上传发布自己的监测数据和监测方法的API

警报

警报是Ceilometer新增加的一项特性,通过将一定时段内的统计和监测数据结果与设定的阈值相比较从而允许用户和操作人员触发系统进行相关反应和动作。警报功能主要由以下服务组成:

  • "ceilometer-api"通过“/v2/alarms”接口对外提供对警报生命周期的控制和管理;
  • "ceilometer-alarm-evaluator"周期性地评估各个警报以探测警报状态的变化;
  • 当警报被触发时,"ceilometer-alarm-notifier"将接收来自“ceilometer-alarm-evaluaotr"服务的通知并执行相关联的反应和动作警报也同时提供了API以供查询警报状态变迁和相关规则变化等历史数据

数据收集器

  • 新的HBase驱动
  • 新的DB2(NoSQL)驱动
  • 改进的SQLAlchemy驱动
  • 改进的MongoDB驱动
  • 添加了TTL功能用于从数据库中删除旧有的监测数据
  • 添加了存储事件的功能
  • 在SQLAlchemy上添加了事件存储的特性

数据发布器驱动

  • 增加了一个UDP数据发布器

数据转换器

  • 增加了两种新型数据转换器: unit-scaling数据转换器以及rate-of-change数据转换器

监测方法

  • 增加了一个利用Python middleware监测API请求的监测方法
  • 增加了从新的Neutron带宽监测方法记录监测数据的功能

计算节点Ceilometer代理

  • 增加了针对Hyper-V的支持

已知问题


OpenStack 编排 (Heat)

主要新特性

完善的文档

开始与Tempest集成

并发资源操作

  • 非依赖性创建,更新和删除操作目前可以并发执行

完善的网络/Neutron支持

  • 新的LBaaS, FWaaS以及VPNaaS资源

开始支持原生模板语言(HOT)

标准

提供者和环境摘要

  • 摘要是一种利用嵌套模板定制资源类型的方法, 参见 文档 以及

博客发布

与Ceilometer的集成,包括监测方法/监控/警报

  • 与Ceilometer的集成也包括由Ceilometer警报触发的AutoScaling动作。以往版本中由Heat自身处理的监测、警报等流程依然存在,但已经不推荐使用并很有可能在Icehouse版本中被移除。

UpdateStack改进

  • 若干资源类型目前提供对非破坏性更新,包括调整云主机大小等操作的更好的支持。 同时,我们也会在删除资源前创建替补资源,从而能够提供更好的连续性和回滚能力。

开始与keystone的信托功能集成

  • 开始与keystone信托功能集成, 因而当heat.conf指定配置deferred_auth_method为trusts时,我们不再存储加密的凭据信息以执行延迟的操作(例如AutoScaling调整等),而是创建一个信托并记录信托的标识。
  • (参见下文中的"已知问题"一节)

完善的资源文档

  • 通过API可以查看所安装资源类型的概要

更多原生资源类型

新的Rackspace资源类型

  • Rackspace::Cloud::DBInstance
  • Rackspace::Cloud::LoadBalancer
  • Rackspace::Cloud::Server

Stack挂起/恢复

  • 提供了一个新的API "actions"用以支持整个stack的挂起/恢复

在heat.conf和paste-api.ini中统一所有配置信息

  • 参见下文中的"升级记录"一节
  • 增加了新的配置选项,提供了以下功能和限制
模板尺寸
每个tenant中的stack数量
每个tenant中的event数量
stack嵌套深度

Heat单独模式

  • Heat目前可以被配置成为在单独模式下运行, 允许在外部Openstack上实现编排

已知问题

升级注意事项

  • Heat当前使用一个配置文件(/etc/heat/heat.conf),不再使用每个服务一个文件的方式
  • API使用一个配置文件(/etc/heat/api-paste.ini), 不再使用每个服务一个文件的方式
  • 目前在/etc/heat/environment.d/中支持全局环境定义(参见 环境文档)
  • 所有的OS::Neutron*资源均被更名为 "OS::Quantum*", 旧名字在用户安装的默认环境中仍然可用,因为默认环境将旧名字自动映射到新资源。

OpenStack 文档

主要新特性

  • 每页都有一个错误报告链接,你可以很容易的报告该页中的错误。
  • 手册被彻底重构。在Havana版本中,包含下列指南:
    • 安装OpenStack
      • Red Hat Enterprise Linux, CentOS, 和Fedora上的安装指南
      • Ubuntu 12.04 (LTS)上的安装指南
      • OpenSUSE 和 SUSE Linux Enterprise Server的安装指南
    • 配置和运行OpenStack云:
      • 云管理员指南
      • 配置参考
      • 运营指南
      • 高可用性指南
      • 安全指南
      • 虚拟机镜像指南
    • 使用OpenStack面板和客户端命令行
      • API快速入门
      • 最终用户指南
      • 管理员用户指南

已知问题

  • 一些指南没有彻底更新,可能缺失一些信息。