Catatan Rilis Seri Rocky¶
18.1.15¶
Fitur baru¶
Tambahkan kemungkinan untuk menonaktifkan unduhan openrc v2 di dasbor. var baru
horizon_show_keystone_v2_rc
dapat diatur keFalse
untuk menghapus entri untuk unduhan openrc v2.
18.1.8¶
Fitur baru¶
Opsi baru telah ditambahkan yang memungkinkan penelepon menonaktifkan sebagian dan semua kontainer pada host tertentu. Opsi no_containers adalah boolean dimana, jika tidak terdefinisi, akan default ke *false *. Opsi ini dapat ditambahkan ke host mana saja di openstack_user_config.yml atau melalui override di conf.d. Ketika opsi ini disetel ke *true * host yang diberikan akan diperlakukan sebagai mesin baremetal. Opsi baru ini mencerminkan opsi lingkungan yang ada is_metal tetapi memungkinkan deployer untuk menargetkan host tertentu daripada seluruh grup.
log_hosts: infra-1: ip: 172.16.24.2 no_containers: true
Catatan Upgrade¶
Variabel
tempest_image_dir_owner
dihapus karena menggunakan pengguna yang dimungkinkan secara default untuk membuat direktori image.
Struktur data untuk
ceph_gpg_keys
telah diubah menjadi daftar dicts, yang masing-masing diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.
Nilai default untuk
ceph_gpg_keys
telah diubah untuk semua platform yang didukung dan sekarang menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.
Nilai baru
epel_gpg_keys
dapat diganti untuk menggunakan kunci GPG yang berbeda untuk repo paket EPEL-7 RPM, bukan kunci yang dibatalkan yang digunakan secara default.
18.1.6¶
Fitur baru¶
Menambahkan dukungan untuk Mistral untuk dibangun sebagai bagian dari proses pembuatan repo.
Menambahkan file
os-mistral-install.yml
untuk menyebarkan mistral ke host yang ditandai dengan hostgroupmistral_all
Daftar filter yang diaktifkan untuk penjadwal Cinder, scheduler_default_filters pada cinder.conf, sebelumnya hanya dapat didefinisikan melalui entri di
cinder_cinder_conf_overonfes
. Anda sekarang memiliki opsi untuk mendefinisikan variabel daftar,cinder_scheduler_default_filters
, yang menentukan filter yang diaktifkan. Ini berguna jika Anda ingin menonaktifkan salah satu filter yang diaktifkan secara default (pada saat penulisan, ini adalah AvailabilityZoneFilter,` CapacityFilter`, dan CapabilitiesFilter), atau jika sebaliknya Anda ingin menambahkan filter yang biasanya tidak diaktifkan, seperti DifferentBackendFilter atau` InstanceLocalityFilter`.Misalnya, untuk mengaktifkan InstanceLocalityFilter di samping filter penjadwal yang diaktifkan secara normal, gunakan variabel berikut ini.
cinder_scheduler_default_filters: - AvailabilityZoneFilter - CapacityFilter - CapabilitiesFilter - InstanceLocalityFilter
Catatan Depresiasi¶
Sebelumnya ada variabel lingkungan (
ANSIBLE_ROLE_FETCH_MODE
) untuk mengatur apakah role dalam ansible-role-requirements.yml diambil menggunakan ansible-galaxy atau menggunakan git, namun defaultnya telah git selama beberapa waktu ansible karena penggunaan respoitoryceph-ansible
untuk deployment ceph, menggunakan ansible-galaxy untuk mengunduh role tidak berfungsi dengan baik. Fungsi ini karenanya telah dihapus.
18.1.5¶
Fitur baru¶
Deployer sekarang dapat menentukan jenis volume cinder-backend secara eksplisit privat atau publik dengan opsi
publik
disetel ke true atau false.
Masalah Dikenal¶
Jumlah inotify watch instances yang tersedia terbatas pada seluruh sistem melalui pengaturan sysctl. Dimungkinkan untuk proses tertentu, seperti pypi-server, atau elasticsearch dari ops repo untuk mengkonsumsi sejumlah besar inotify watch. Jika lebar sistem maksimum tercapai maka proses apa pun pada host atau dalam kontainer apa pun pada host tidak akan dapat membuat inotify watch baru. Systemd menggunakan inotify watch, dan jika tidak ada yang tersedia, ia tidak dapat memulai kembali layanan. Proses yang menyinkronkan konten server repo antara infra nodes juga bergantung pada inotify watch. Jika server repo gagal menyinkronkan, atau layanan gagal untuk me-restart ketika diharapkan periksa batas inotify watch yang didefinisikan dalam nilai sysctl fs.inotify.max_user_watches. Patch telah bergabung untuk meningkatkan batas ini, tetapi untuk lingkungan yang ada atau yang belum ditingkatkan ke point release yang cukup baru mungkin harus menerapkan batas yang ditingkatkan secara manual.
Perbaikan Bug¶
Memperbaiki router HA neutron, dengan mengaktifkan
neutron-l3-agent
untuk memanggil skrip pembantu yang diperlukan.
18.1.4¶
Fitur baru¶
Sekarang dimungkinkan untuk mengubah opsi server NTP dalam kroni menggunakan
security_ntp_server_options
.
Chrony mendapat opsi konfigurasi baru untuk menyinkronkan jam sistem kembali ke RTC menggunakan variabel
security_ntp_sync_rtc
. Dinonaktifkan secara default.
Catatan Upgrade¶
Struktur data untuk
galera_gpg_keys
telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.
Nilai default untuk
galera_gpg_keys
telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.
Struktur data untuk
rabbitmq_gpg_keys
telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.
Nilai default untuk
rabbitmq_gpg_keys
telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.
Catatan Depresiasi¶
Perubahan nama variabel berikut telah diterapkan untuk lebih mencerminkan tujuan mereka.
lxc_host_machine_quota_disabled
->lxc_host_btrfs_quota_disabled
lxc_host_machine_qgroup_space_limit
->lxc_host_btrfs_qgroup_space_limit
lxc_host_machine_qgroup_compression_limit
->lxc_host_btrfs_qgroup_compression_limit
Perbaikan Bug¶
Saat menggunakan kontainer LXC dengan back-end copy-on-write, eksekusi role
lxc_hosts
akan gagal karena variabel yang tidak ditentukan dengan awalan (prefix)nspawn_host_
. Masalah ini sekarang telah diperbaiki.
Di https://review.openstack.org/582633 penyesuaian dibuat ke wrapper
openstack-ansible
yang secara keliru mengubah perilaku yang dimaksud. Wrapper hanya dimaksudkan untuk memasukkan extra-vars dan memanggil inventaris jikaansible-playbook
dijalankan dari dalam klon repositoriopenstack-ansible
(biasanya/opt/openstack-ansible
)) , tetapi perubahan itu membuat jalan itu tidak relevan. Ini sekarang telah diperbaiki -ansible-playbook
danansible
hanya akan memanggil inventaris dan memasukkan vars tambahan jika itu dipanggil dari dalam git clone path.
18.1.3¶
Fitur baru¶
Sekarang dimungkinkan untuk menggunakan NFS mountpoint dengan peran dengan menggunakan variabel nova nfs_client, yang berguna untuk menggunakan NFS untuk data instance dan menyimpan.
Catatan Upgrade¶
Struktur data untuk
galera_client_gpg_keys
telah diubah menjadi dict yang diteruskan langsung ke modul apt_key/rpm_key yang berlaku. Karenanya, setiap pengesampingan akan perlu ditinjau untuk memastikan bahwa mereka tidak melewatkan pasangan key/value yang akan menyebabkan modul gagal.
Nilai default untuk
galera_client_gpg_keys
telah diubah untuk semua platform yang didukung akan menggunakan kunci yang dibatalkan. Ini berarti bahwa pelaksanaan tugas tidak lagi menjangkau ke internet untuk menambahkan kunci, membuat instalasi offline atau berbasis proxy lebih mudah dan lebih dapat diandalkan.
18.1.1¶
Fitur baru¶
Role ini sekarang secara opsional memungkinkan node komputasi Anda punya kemampuan virtualisasi tersarang modul kernel KVM, dengan mengatur nova_nested_virt_enabled menjadi true. Bergantung pada distribusi dan versi libvirt Anda, Anda mungkin perlu mengatur variabel tambahan untuk virtualisasi bersarang (nested) yang diaktifkan sepenuhnya. Untuk detailnya, silakan lihat https://docs.openstack.org/nova/latest/admin/configuration/hypervisor-kvm.html#nested-guest-support.
Anda sekarang dapat mengatur model CPU Libvirt dan flag fitur dari entri yang sesuai di bawah variabel pustaka
nova_virt_types
(biasanyakvm
).nova_cpu_model
adalah nilai string yang mengatur model CPU; nilai ini diabaikan jika Anda mengaturnova_cpu_mode
selaincustom
.nova_cpu_model_extra_flags
adalah daftar yang memungkinkan Anda menentukan flag fitur CPU tambahan yang biasanya tidak dilewati denganhost-model
, atau model CPUcustom
pilihan Anda.
Catatan Upgrade¶
Jika konfigurasi Anda sebelumnya mengatur variabel
libvirt / cpu_model
dan/atau libvirt/cpu_model_extra_flags`` dalam kamusnova_nova_conf_overrides
, Anda harus mempertimbangkan untuk memindahkannya kenova_cpu_model
dannova_cpu_model_model_model_model_teks_paket_model_flags
dalam entri yang sesuai (biasanyakvm
) dalam kamusnova_virt_types
.
Perbaikan Bug¶
Dengan rilis CentOS 7.6, deployment menjadi rusak dan menjadi sangat lambat ketika kami me-restart dbus untuk menangkap beberapa perubahan PolicyKit. Namun, perubahan itu tidak pernah digunakan secara penuh sehingga terjadi tanpa alasan. Kami tidak lagi melakukan modifikasi pada konfigurasi systemd-machined dan/atau PolicyKit untuk menjaga kompatibilitas hulu.
18.1.0¶
Fitur baru¶
Horizon, sejak awal OSA, telah dikerahkan dengan akses HTTPS diaktifkan, dan tidak memiliki cara untuk mematikannya. Beberapa kasus penggunaan mungkin ingin diakses melalui HTTP, jadi patch ini memungkinkan yang berikut ini.
Dengarkan melalui HTTPS pada load balancer, tetapi melalui HTTP pada host horizon dan minta load balancer meneruskan header yang benar. Ini akan melakukan ini secara default di build terintegrasi karena adanya penyeimbang beban, sehingga perilaku saat ini dipertahankan.
Aktifkan HTTPS di horison host tanpa penyeimbang beban. Ini adalah perilaku default peran yang cocok dengan yang selalu ada.
Nonaktifkan HTTPS seluruhnya dengan mengatur
haproxy_ssl: no
(yang juga akan menonaktifkan https di haproxy. Pengaturan ini diwarisi (inherited) oleh variabelhorizon_enable_ssl
yang baru secara default. Ini adalah opsi baru.
Masalah Dikenal¶
Rilisan
stable/rocky
asli (18.0.x) berisi referensi ke status pra-rilis peran ceph-ansible (rilis 3.2.0beta1-nya). Peran itu --- dan karenanya, setiap rilis OpenStack-Ansiblestable/rocky` --- tidak boleh digunakan untuk menggunakan cluster Ceph produksi. Pada rilis ini, ``stable/rocky
melacak cabangstable-3.1
peran ceph-ansible
Catatan Upgrade¶
Konfigurasi yang menggunakan peran
ceph-ansible
(yaitu, yang menerapkan playbookceph-install.yml
atauceph-rgw-install.yml
) harus ditinjau dengan sangat hati-hati jika Anda memutakhirkan dari rilisstable/rocky
sebelumnya. Rilis itu mengirimkan versi pra-rilis dariceph-ansible
yang secara tidak sengaja termasuk dalamansible-role-requirements.yml
.
Variabel
ceilometer_oslomsg_rpc_servers
danceilometer_oslomsg_notify_servers
telah dihapus mendukung pemakaianceilometer_oslomsg_rpc_host_group
danceilometer_oslomsg_notify_host_group
sebagai gantinya.
Catatan Depresiasi¶
Cache paket pada server repo telah dihapus. Jika caching paket diinginkan, itu harus di-setup di luar OpenStack-Ansible dan variabel
lxc_container_cache_files
(untuk kontainer LXC) ataunspawn_container_cache_files_from_host
(untuk nspawn kontainer) dapat digunakan untuk menyalin konfigurasi host yang sesuai dari host ke dalam kontainer saat penciptaan. Atau, variabel lingkungan dapat diatur untuk menggunakan cache di file host /etc/environment sebelum pembuatan kontainer, ataudeployment_environment_variables
dapat memiliki variabel yang tepat diatur untuk menggunakannya. Variabel berikut telah dihapus.repo_pkg_cache_enabled
repo_pkg_cache_port
repo_pkg_cache_bind
repo_pkg_cache_dirname
repo_pkg_cache_dir
repo_pkg_cache_owner
repo_pkg_cache_group
Perbaikan Bug¶
Referensi
ansible-role-requirements.yml
untuk peranceph-ansible
telah diperbaiki untuk merujuk keHEAD
saat ini dari branchstable-3.1
peran itu. Ini sebelumnya menunjuk ke versi 3.2.0beta1 pra-rilis.
Kuota untuk aturan grup keamanan secara keliru ditetapkan ke 100 dengan tujuan untuk memiliki 100 aturan grup keamanan per grup keamanan daripada ke aturan grup 100*#security . Patch ini memperbaiki perbedaan ini.
18.0.0¶
Fitur baru¶
Dukungan telah ditambahkan untuk penggunaan pada host Ubuntu 18.04 LTS. Perubahan paling signifikan adalah peningkatan versi utama LXC dari 2.x menjadi 3.x yang mencela (deprecate) beberapa elemen yang sebelumnya digunakan dari file konfigurasi kontainer.
Dimungkinkan untuk mengkonfigurasi Glance untuk mengizinkan permintaan asal silang (cross origin request) dengan menentukan alamat asal yang diizinkan menggunakan variabel
glance_cors_allowed_origin
. Secara default, ini akan menjadi alamat penyeimbang beban.
Menambahkan dukungan untuk dasbor horizon octavia-ui. Dasbor akan diaktifkan secara otomatis jika ada host octavia yang ditentukan. Jika Neutron LBaaSv2 dan Octavia diaktifkan, dua panel Load Balancer akan terlihat di Horizon.
Deployer sekarang dapat mengatur
container_tech
ke nspawn saat menggunakan OSA di dalam kontainer. Saat membuat keputusan untuk menggunakan tipe kontainer, deployer hanya perlu mendefinisikancontainer_tech
yang diinginkan dan melanjutkan deployment seperti biasa.
Penambahan opsi
container_tech
dan dimasukkannya nspawn dukungan deployers sekarang memiliki ketersediaan untuk menentukan strategi containerization yang diinginkan secara global atau pada host tertentu.
Saat menggunakan kontainer driver nspawn akan terhubung ke sistem bridge menggunakan MACVLAN, lebih lanjut tentang jenis pengaturan jaringan ini dapat dilihat here.
Saat menggunakan jaringan kontainer driver nspawn dikelola oleh systemd-networkd baik pada host maupun di dalam kontainer. Ini memberi kami satu antarmuka untuk mengelola terlepas dari distro dan memungkinkan systemd untuk mengelola sumber daya secara efisien.
Pengaturan layanan dalam keystone untuk aodh sekarang akan dieksekusi melalui delegasi dimana
aodh_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.aodh_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk barbican sekarang akan dieksekusi melalui delegasi ke dimana
barbican_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.barbican_service_setup_host: "{{ groups['utility_all'][0] }}"
Ketika
venvwithindex=True
danignorerequirements=True
keduanya ditentukan dalamrally_git_install_fragments
(seperti sebelumnya default), ini menghasilkan rally yang dipasang dari PyPI tanpa kendala yang diterapkan. Ini menghasilkan build yang tidak konsisten dari hari ke hari, dan dapat menyebabkan kegagalan build untuk implementasi yang stabil karena rilis library baru. Ke depan, kami menghapusrally_git_*
overrides diplaybooks/defaults/repo_packages/openstack_testing.yml
sehingga build terintegrasi menginstal rally dari PyPI, tetapi dengan batasan yang sesuai diterapkan.
Ketika venvwithindex=True and ignorerequirements=True keduanya ditentukan dalam tempest_git_install_fragments (seperti sebelumnya default), ini mengakibatkan tempest diinstal dari PyPI tanpa kendala yang diterapkan. Ini bisa mengakibatkan versi tempest yang dipasang di integrated build berbeda dari versi yang diinstal di independent role test. Ke depan, kami menghapus tempest_git_* overrides di playbooks/defaults/repo_packages/openstack_testing.yml sehingga integrated build menginstal tempest dari PyPI, tetapi dengan batasan yang sesuai diterapkan.
Pengaturan layanan dalam keystone untuk ceilometer sekarang akan dieksekusi melalui delegasi dimana
ceilometer_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.ceilometer_service_setup_host: "{{ groups['utility_all'][0] }}"
Octavia membutuhkan sertifikat SSL untuk komunikasi dengan amphora. Ini menambahkan pembuatan otomatis sertifikat yang ditandatangani sendiri untuk tujuan ini. Ini menggunakan otoritas sertifikat yang berbeda untuk amphora dan control plane sehingga menjamin keamanan maksimum.
Pengaturan layanan dalam keystone untuk cinder sekarang akan dieksekusi melalui delegasi dimana
cinder_service_setup_host
yang, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.cinder_service_setup_host: "{{ groups['utility_all'][0] }}"
Jika didefinisikan dalam host atau grup vars yang berlaku, variabel
container_extra_networks
akan digabungkan dengancontainer_networks
yang ada dari inventaris dinamis. Ini memungkinkan penyebar untuk menentukan antarmuka khusus yang mungkin unik untuk container individual. Contoh penggunaan untuk fitur ini adalah menerapkan alamat IP tetap yang dikenal ke antarmuka publik pada server BIND yang ditunjuk.
Opsi
repo_venv_default_pip_packages
telah ditambahkan yang akan memungkinkan para deployer untuk memasukkan paket apa pun ke dalam sebuah service venv sesuai kebutuhan. Opsi mengharapkan daftar string yang merupakan nama paket python yang valid seperti yang ditemukan di PYPI.
Pengaturan layanan dalam keystone untuk ditunjuk sekarang akan dieksekusi melalui delegasi dimana
designate_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.designate_service_setup_host: "{{ groups['utility_all'][0] }}"
Peran
os_horizon
sekarang mendukung distribusi tema kustom pengguna. Penyebar dapat menggunakan kunci barutheme_src_archive
dari kamushorizon_custom_themes
untuk memberikan jalur absolut ke tema yang diarsipkan. Hanya arsip .tar.gz, .tgz, .zip, .tar.bz, .tar.bz2, .tbz, .tbz2 yang didukung. Struktur di dalam arsip harus sebagai tema standar, tanpa folder utama.
Opsi
rabbitmq_erlang_version_spec
telah ditambahkan yang memungkinkan deployer untuk mengatur versi erlang yang digunakan pada instalasi yang diberikan.
Octavia membuat vms, grup keamanan, dan hal lain dalam proyeknya. Dalam kebanyakan kasus, kuota default tidak cukup besar. Ini akan menyesuaikannya dengan nilai wajar (dapat dikonfigurasi).
Pengaturan layanan dalam keystone untuk sekilas sekarang akan dieksekusi melalui delegasi dimana
glance_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.glance_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk gnocchi sekarang akan dieksekusi melalui delegasi ke `` gnocchi_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.
gnocchi_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk panas sekarang akan dieksekusi melalui delegasi ke `` heat_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.
heat_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk horizon sekarang akan dieksekusi melalui delegasi dimana
horizon_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.horizon_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk ironic sekarang akan dieksekusi melalui delegasi dimana
ironic_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.ironic_service_setup_host: "{{ groups['utility_all'][0] }}"
Pembaruan layanan untuk keystone sekarang akan dieksekusi melalui delegasi ke dimana
keystone_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.keystone_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk magnum sekarang akan dieksekusi melalui delegasi ke `` magnum_service_setup_host`` yang, secara default, adalah `` localhost`` (host penyebaran). Deployer dapat memilih untuk mengubah ini ke wadah utilitas dengan mengimplementasikan penggantian berikut di `` user_variables.yml``.
magnum_service_setup_host: "{{ groups['utility_all'][0] }}"
Sebagai ganti mengunduh image ke server API magnum, image sekarang akan mengunduh ke
magnum_service_setup_host
ke folder yang diatur dalammagnum_image_path
yang dimiliki olehmagnum_image_path_owner
.
Pengaturan layanan dalam keystone untuk neutron sekarang akan dieksekusi melalui delegasi dimana
neutron_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.neutron_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk nova sekarang akan dieksekusi melalui delegasi dimana
nova_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.nova_service_setup_host: "{{ groups['utility_all'][0] }}"
Pengaturan layanan dalam keystone untuk octavia sekarang akan dieksekusi melalui delegasi dimana
octavia_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.octavia_service_setup_host: "{{ groups['utility_all'][0] }}"
Deployer sekarang dapat mengatur
install_method
menjadisource
(default) ataudistro
untuk memilih metode untuk menginstal layanan OpenStack pada host. Ini hanya berlaku untuk deployment new Deployment yang ada yang berbasis sumber, tidak dapat dikonversi ke metodedistro
yang baru. Untuk informasi lebih lanjut, silakan merujuk ke Deployment Guide.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel
heat_install_method
kedistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
cinder_install_method
menjadidistro
.--
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel `` glance_install_method`` menjadi `` distro``.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
aodh_install_method
menjadidistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel
designate_install_method
kedistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
swift_install_method
menjadidistro
.
Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
nova_install_method
menjadidistro
.
Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
ceilometer_install_method
menjadidistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan dengan hanya mengatur variabel
barbican_install_method
kedistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
keystone_install_method
menjadidistro
.
Role sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
neutron_install_method
menjadidistro
.
Peran sekarang mendukung menggunakan paket distribusi untuk layanan OpenStack bukan yang pip. Fitur ini dinonaktifkan secara default dan dapat diaktifkan hanya dengan mengatur variabel
nova_install_method
menjadidistro
.
Peran openrc tidak lagi dijalankan pada semua kontainer/host layanan OpenStack. Sebagai gantinya satu host ditunjuk melalui penggunaan variabel
openstack_service_setup_host
. Defaultnya adalahlocalhost
(host penyebaran). Deployer dapat memilih untuk mengubahnya ke kontainer utilitas dengan mengimplementasikan penggantian berikut diuser_variables.yml
.openstack_service_setup_host: "{{ groups['utility_all'][0] }}"
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di trove.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di cinder.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di nova.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di ironic.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di barbican.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di heat.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di aodh.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di glance.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di ceilometer.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di sahara.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di designate.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di neutron.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di magnum.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di keystone.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di swift.
Mendukung layanan oslo.messaging terpisah untuk RPC dan Notification untuk mengaktifkan operasi server backend messaging yang berbeda dan terpisah di octavia.
Pengaturan layanan dalam keystone untuk sahara sekarang akan dieksekusi melalui delegasi dimana
sahara_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.sahara_service_setup_host: "{{ groups['utility_all'][0] }}"
Opsi untuk menonaktifkan sistem kuota
machinectl
telah diubah. Variabellxc_host_machine_quota_disabled
adalah Boolean dengan default ** false **. Ketika opsi ini disetel ke ** true **, opsi ini akan menonaktifkan sistem kuotamachinectl
.
Opsi
lxc_host_machine_qgroup_space_limit
danlxc_host_machine_qgroup_compression_limit
telah ditambahkan yang memungkinkan seorang deployer untuk menetapkan batas qgroup sesuai keinginan mereka. Nilai default untuk opsi ini adalah "none" yang efektif unlimited. Opsi ini menerima nilai ukuran nominal apa pun yang diikuti oleh jenis huruf tunggal, misalnya64G
. Opsi ini hanya efektif ketika opsilxc_host_machine_quota_disabled
disetel ke false.
Pengaturan layanan dalam keystone untuk swift sekarang akan dieksekusi melalui delegasi dimana
swift_service_setup_host
, secara default, adalahlocalhost``(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut di ``user_variables.yml
.swift_service_setup_host: "{{ groups['utility_all'][0] }}"
Playbook baru
infra-jurnal-remote.yml
untuk mengirim jurnal telah ditambahkan. Host fisik sekarang akan mengirimkan semua jurnal systemd yang tersedia ke infrastruktur logging. Jurnal yang diterima akan dibagi oleh host dan disimpan di direktori /var/log/journal/remote. Fitur ini akan memberikan akses/wawasan (access/insight) yang lebih luas kepada pengawas tentang bagaimana cloud berfungsi, tidak memerlukan apa-apa lagi selain systemd built-in.
Pengaturan layanan dalam keystone untuk prahara sekarang akan dijalankan melalui delegasi dimana
tempest_service_setup_host
yang, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.tempest_service_setup_host: "{{ groups['utility_all'][0] }}"
Dari sekumpulan proyek hard-coded dan pengguna , tempest sekarang dapat dikonfigurasi dengan daftar kustom dengan variabel
tempest_projects
dantempest_users
.
Sekarang dimungkinkan untuk menentukan daftar tes untuk tempest ke daftar hitam ketika mengeksekusi menggunakan variabel daftar
tempest_test_blacklist
.
Setup layanan trove di keystone sekarang akan dieksekusi melalui delegasi dimana
trove_service_setup_host
, secara default, adalahlocalhost
(the deploy host). Deployer dapat memilih untuk mengubah ini ke kontainer utilitas dengan mengimplementasikan override berikut diuser_variables.yml
.trove_service_setup_host: "{{ groups['utility_all'][0] }}"
Masalah Dikenal¶
Semua rilis OSA lebih awal dari 17.0.5, 16.0.4, dan 15.1.22 akan gagal membangun rally venv karena rilis python library cmd2-0.9.0 baru. Deployer didorong untuk memperbarui ke rilis OSA terbaru yang menyematkan (pin) ke versi yang sesuai yang kompatibel dengan python2.
Dengan rilis CentOS 7.5, semua rilis pike rusak karena ketidakcocokan dalam versi antara pustaka libvirt-python yang ditentukan oleh komunitas OpenStack, dan versi yang disediakan di CentOS 7.5. Karena itu OSA tidak dapat membangun pustaka python yang sesuai untuk libvirt. Satu-satunya jalan lain (recourse) untuk ini adalah melakukan upgrade lingkungan ke rilis ratu terbaru.
Catatan Upgrade¶
Path upgrade yang didukung dari Xenial ke Bionic adalah melalui re-installation OS host di semua node dan redeployment layanan yang diperlukan. Branch Rocky dari OSA dimaksudkan sebagai titik transisi untuk upgrade dari Xenial ke Bionic. Saat ini tidak ada dukungan untuk upgrade sistem operasi in-place (biasanya melalui
do-release-upgrade
).
Pengguna harus membersihkan paket 'ntp' dari host mereka jika mungkin diaktifkan. ceph-ansible sebelumnya dikonfigurasikan untuk menginstal ntp secara default yang bertentangan dengan layanan kroni role ansible-hardening OSA.
Variabel cinder_iscsi_helper telah digantikan oleh variabel baru yaitu cinder_target_helper karena fakta bahwa iscsi_helper telah ditinggalkan dalam Cinder.
Kunci is_ssh_address telah dihapus dari openstack_user_config.yml dan dynamic inventory. Kunci ini bertanggung jawab memetakan alamat ke kontainer yang digunakan untuk konektivitas SSH. Karena kami telah membuat plugin konektivitas SSH, yang memungkinkan kami kemampuan untuk terhubung ke kontainer jarak jauh tanpa SSH, opsi ini tidak lagi berguna. Untuk menjaga, clean deployers openstack_user_config.yml dapat menghapus opsi namun bergerak maju tidak lagi memiliki efek.
Pencarian paket distribusi dan output data telah dihapus dari pencarian py_pkgs sehingga penggunaan repo-build dari py_pkgs telah mengurangi output dan pencarian khusus untuk paket python saja.
Pemeriksaan ping yang terjadi di dalam keepalived untuk memastikan bahwa server yang menjalankannya dapat mencapai 193.0.14.129 telah dihapus secara default. Fungsionalitas dapat terus digunakan jika Anda mendefinisikan keepalived_ping_address dalam file user_variables.yml Anda menjadi 193.0.14.129 atau IP apa pun pilihan Anda.
Glance v1 API sekarang dihapus di hulu dan kode penempatan sekarang dihapus dari peran glance ansible ini. Variabel
glance_enable_v1_api
dihapus.
Catatan Depresiasi¶
Variabel
aodh_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
barbican_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel berikut tidak lagi digunakan dan karenanya telah dihapus.
ceilometer_requires_pip_packages
ceilometer_service_name
ceilometer_service_port
ceilometer_service_proto
ceilometer_service_type
ceilometer_service_description
Variabel
cinder_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
designate_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Penggunaan role
apt_package_pinning
sebagai ketergantungan meta telah dihapus dari role rabbitmq_server. Sementara role pinning paket masih digunakan, sekarang hanya akan dieksekusi ketika file tugas apt dieksekusi.
Filter
get_gested
telah dihapus, karena tidak digunakan oleh roles/plays apa pun.
Variabel
glance_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
gnocchi_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
heat_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
horizon_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
ironic_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Path log,
/var/log/barbican
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan barbican sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/keystone
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan Keystone sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/congress`
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan kongres sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/cinder
tidak lagi digunakan untuk mengambil log layanan. Semua pencatatan untuk layanan cinder sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/aodh
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan aodh sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/ceilometer
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan ceilometer sekarang akan dikirim langsung ke jurnal systemd.
Path log,
/var/log/designate
tidak lagi digunakan untuk mengambil log layanan. Semua logging untuk layanan yang ditunjuk sekarang akan dikirim langsung ke jurnal systemd.
Variabel
keystone_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
nova_compute_pip_packages
tidak lagi digunakan dan telah dihapus.
Variabel
magnum_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Layanan
molteniron
tidak lagi termasuk dalam OSA integrated build. Penyebar apa pun yang ingin menggunakannya masih dapat menggunakan playbook dan contoh konfigurasi dari peranos_molteniron
.
Variabel
neutron_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
nova_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
octavia_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
octavia_image_downloader
telah dihapus. Pengunduhan image sekarang menggunakan host yang sama yang ditunjuk olehoctavia_service_setup_host
untuk pengunduhan image.
Variabel
octavia_ansible_endpoint_type
telah dihapus. Endpoint yang digunakan untuk tugas ansible telah sulit diatur ke endpoint 'admin' seperti yang biasa digunakan di semua peran OSA.
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - trove_oslomsg_rpc_servers menggantikan trove_rabbitmq_servers - trove_oslomsg_rpc_port menggantikan trove_rabbitmq_port - trove_oslomsg_rpc_use_ssl menggantikan trove_rabbitmq_use_ssl - trove_oslomsg_rpc_userid menggantikan trove_rabbitmq_userid - trove_oslomsg_rpc_vhost menggantikan trove_rabbitmq_vhost - menambahkan trove_oslomsg_notify_servers - menambahkan trove_oslomsg_notify_port - menambahkan trove_oslomsg_notify_use_ssl - menambahkan trove_oslomsg_notify_userid - menambahkan trove_oslomsg_notify_vhost - menambahkan trove_oslomsg_notify_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - cinder_oslomsg_rpc_servers menggantikan cinder_rabbitmq_servers - cinder_oslomsg_rpc_port menggantikan cinder_rabbitmq_port - cinder_oslomsg_rpc_use_ssl menggantikan cinder_rabbitmq_use_ssl - cinder_oslomsg_rpc_userid menggantikan cinder_rabbitmq_userid - cinder_oslomsg_rpc_vhost menggantikan cinder_rabbitmq_vhost - cinder_oslomsg_notify_servers menggantikan cinder_rabbitmq_telemetry_servers - cinder_oslomsg_notify_port menggantikan cinder_rabbitmq_telemetry_port - cinder_oslomsg_notify_use_ssl menggantikan cinder_rabbitmq_telemetry_use_ssl - cinder_oslomsg_notify_userid menggantikan cinder_rabbitmq_telemetry_userid - cinder_oslomsg_notify_vhost menggantikan cinder_rabbitmq_telemetry_vhost
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - nova_oslomsg_rpc_servers menggantikan nova_rabbitmq_servers - nova_oslomsg_rpc_port menggantikan nova_rabbitmq_port - nova_oslomsg_rpc_use_ssl menggantikan nova_rabbitmq_use_ssl - nova_oslomsg_rpc_userid menggantikan nova_rabbitmq_userid - nova_oslomsg_rpc_vhost menggantikan nova_rabbitmq_vhost - nova_oslomsg_notify_servers menggantikan nova_rabbitmq_telemetry_servers - nova_oslomsg_notify_port menggantikan nova_rabbitmq_telemetry_port - nova_oslomsg_notify_use_ssl menggantikan nova_rabbitmq_telemetry_use_ssl - nova_oslomsg_notify_userid menggantikan nova_rabbitmq_telemetry_userid - nova_oslomsg_notify_vhost menggantikan nova_rabbitmq_telemetry_vhost - nova_oslomsg_notify_password menggantikan nova_rabbitmq_telemetry_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - ironic_oslomsg_rpc_servers menggantikan ironic_rabbitmq_servers - ironic_oslomsg_rpc_port menggantikan ironic_rabbitmq_port - ironic_oslomsg_rpc_use_ssl menggantikan ironic_rabbitmq_use_ssl - ironic_oslomsg_rpc_userid menggantikan ironic_rabbitmq_userid - ironic_oslomsg_rpc_vhost menggantikan ironic_rabbitmq_vhost
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - barbican_oslomsg_rpc_servers menggantikan rabbitmq_servers - barbican_oslomsg_rpc_port menggantikan rabbitmq_port - barbican_oslomsg_rpc_userid menggantikan barbican_rabbitmq_userid - barbican_oslomsg_rpc_vhost menggantikan barbican_rabbitmq_vhost - ditambahkan barbican_oslomsg_rpc_use_ssl - ditambahkan barbican_oslomsg_notify_servers - ditambahkan barbican_oslomsg_notify_port - ditambahkan barbican_oslomsg_notify_use_ssl - ditambahkan barbican_oslomsg_notify_userid - ditambahkan barbican_oslomsg_notify_vhost - ditambahkan barbican_oslomsg_notify_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - heat_oslomsg_rpc_servers menggantikan heat_rabbitmq_servers - heat_oslomsg_rpc_port menggantikan heat_rabbitmq_port - heat_oslomsg_rpc_use_ssl menggantikan heat_rabbitmq_use_ssl - heat_oslomsg_rpc_userid menggantikan heat_rabbitmq_userid - heat_oslomsg_rpc_vhost menggantikan heat_rabbitmq_vhost - heat_oslomsg_rpc_password menggantikan heat_rabbitmq_password - heat_oslomsg_notify_servers menggantikan heat_rabbitmq_telemetry_servers - heat_oslomsg_notify_port menggantikan heat_rabbitmq_telemetry_port - heat_oslomsg_notify_use_ssl menggantikan heat_rabbitmq_telemetry_use_ssl - heat_oslomsg_notify_userid menggantikan heat_rabbitmq_telemetry_userid - heat_oslomsg_notify_vhost menggantikan heat_rabbitmq_telemetry_vhost - heat_oslomsg_notify_password menggantikan heat_rabbitmq_telemetry_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - - aodh_oslomsg_rpc_servers menggantikan aodh_rabbitmq_servers - aodh_oslomsg_rpc_port menggantikan aodh_rabbitmq_port - aodh_oslomsg_rpc_use_ssl menggantikan aodh_rabbitmq_use_ssl - aodh_oslomsg_rpc_userid menggantikan aodh_rabbitmq_userid - aodh_oslomsg_rpc_vhost menggantikan aodh_rabbitmq_vhost - aodh_oslomsg_rpc_password menggantikan aodh_rabbitmq_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - glance_oslomsg_rpc_servers menggantikan glance_rabbitmq_servers - glance_oslomsg_rpc_port menggantikan glance_rabbitmq_port - glance_oslomsg_rpc_use_ssl menggantikan glance_rabbitmq_use_ssl - glance_oslomsg_rpc_userid menggantikan glance_rabbitmq_userid - glance_oslomsg_rpc_vhost menggantikan glance_rabbitmq_vhost - glance_oslomsg_notify_servers menggantikan glance_rabbitmq_telemetry_servers - glance_oslomsg_notify_port menggantikan glance_rabbitmq_telemetry_port - glance_oslomsg_notify_use_ssl menggantikan glance_rabbitmq_telemetry_use_ssl - glance_oslomsg_notify_userid menggantikan glance_rabbitmq_telemetry_userid - glance_oslomsg_notify_vhost menggantikan glance_rabbitmq_telemetry_vhost - glance_oslomsg_notify_password menggantikan glance_rabbitmq_telemetry_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Beritahu untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - ceilometer_oslomsg_rpc_servers menggantikan rabbitmq_servers - ceilometer_oslomsg_rpc_port menggantikan rabbitmq_port - ceilometer_oslomsg_rpc_userid menggantikan ceilometer_rabbitmq_userid - ceilometer_oslomsg_rpc_vhost menggantikan ceilometer_rabbitmq_vhost - menambahkan ceilometer_oslomsg_rpc_use_ssl - menambahkan ceilometer_oslomsg_notify_servers - menambahkan ceilometer_oslomsg_notify_port - menambahkan ceilometer_oslomsg_notify_use_ssl - menambahkan ceilometer_oslomsg_notify_userid - menambahkan ceilometer_oslomsg_notify_vhost - menambahkan ceilometer_oslomsg_notify_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - sahara_oslomsg_rpc_servers menggantikan sahara_rabbitmq_servers - sahara_oslomsg_rpc_port menggantikan sahara_rabbitmq_port - sahara_oslomsg_rpc_use_ssl menggantikan sahara_rabbitmq_use_ssl - sahara_oslomsg_rpc_userid menggantikan sahara_rabbitmq_userid - sahara_oslomsg_rpc_vhost menggantikan sahara_rabbitmq_vhost - sahara_oslomsg_notify_servers menggantikan sahara_rabbitmq_telemetry_servers - sahara_oslomsg_notify_port menggantikan sahara_rabbitmq_telemetry_port - sahara_oslomsg_notify_use_ssl menggantikan sahara_rabbitmq_telemetry_use_ssl - sahara_oslomsg_notify_userid menggantikan sahara_rabbitmq_telemetry_userid - sahara_oslomsg_notify_vhost menggantikan sahara_rabbitmq_telemetry_vhost
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - designate_oslomsg_rpc_servers menggantikan designate_rabbitmq_servers - designate_oslomsg_rpc_port menggantikan designate_rabbitmq_port - designate_oslomsg_rpc_use_ssl menggantikan designate_rabbitmq_use_ssl - designate_oslomsg_rpc_userid menggantikan designate_rabbitmq_userid - designate_oslomsg_rpc_vhost menggantikan designate_rabbitmq_vhost - designate_oslomsg_notify_servers menggantikan designate_rabbitmq_telemetry_servers - designate_oslomsg_notify_port menggantikan designate_rabbitmq_telemetry_port - designate_oslomsg_notify_use_ssl menggantikan designate_rabbitmq_telemetry_use_ssl - designate_oslomsg_notify_userid menggantikan designate_rabbitmq_telemetry_userid - designate_oslomsg_notify_vhost menggantikan designate_rabbitmq_telemetry_vhost - designate_oslomsg_notify_password menggantikan designate_rabbitmq_telemetry_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - neutron_oslomsg_rpc_servers menggantikan neutron_rabbitmq_servers - neutron_oslomsg_rpc_port menggantikan neutron_rabbitmq_port - neutron_oslomsg_rpc_use_ssl menggantikan neutron_rabbitmq_use_ssl - neutron_oslomsg_rpc_userid menggantikan neutron_rabbitmq_userid - neutron_oslomsg_rpc_vhost menggantikan neutron_rabbitmq_vhost - neutron_oslomsg_notify_servers menggantikan neutron_rabbitmq_telemetry_servers - neutron_oslomsg_notify_port menggantikan neutron_rabbitmq_telemetry_port - neutron_oslomsg_notify_use_ssl menggantikan neutron_rabbitmq_telemetry_use_ssl - neutron_oslomsg_notify_userid menggantikan neutron_rabbitmq_telemetry_userid - neutron_oslomsg_notify_vhost menggantikan neutron_rabbitmq_telemetry_vhost
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - magnum_oslomsg_rpc_servers menggantikan rabbitmq_servers - magnum_oslomsg_rpc_port menggantikan rabbitmq_port - magnum_oslomsg_rpc_userid menggantikan magnum_rabbitmq_userid - magnum_oslomsg_rpc_vhost menggantikan magnum_rabbitmq_vhost - menambahkan magnum_oslomsg_rpc_use_ssl - menambahkan magnum_oslomsg_notify_servers - menambahkan magnum_oslomsg_notify_port - menambahkan magnum_oslomsg_notify_use_ssl - menambahkan magnum_oslomsg_notify_userid - menambahkan magnum_oslomsg_notify_vhost - menambahkan magnum_oslomsg_notify_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - keystone_oslomsg_rpc_servers menggantikan keystone_rabbitmq_servers - keystone_oslomsg_rpc_port menggantikan keystone_rabbitmq_port - keystone_oslomsg_rpc_use_ssl menggantikan keystone_rabbitmq_use_ssl - keystone_oslomsg_rpc_userid menggantikan keystone_rabbitmq_userid - keystone_oslomsg_rpc_vhost menggantikan keystone_rabbitmq_vhost - keystone_oslomsg_notify_servers menggantikan keystone_rabbitmq_telemetry_servers - keystone_oslomsg_notify_port menggantikan keystone_rabbitmq_telemetry_port - keystone_oslomsg_notify_use_ssl menggantikan keystone_rabbitmq_telemetry_use_ssl - keystone_oslomsg_notify_userid menggantikan keystone_rabbitmq_telemetry_userid - keystone_oslomsg_notify_vhost menggantikan keystone_rabbitmq_telemetry_vhost
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging Notify untuk mengabstraksi layanan pesan dari deployment server backend yang sebenarnya. - swift_oslomsg_notify_servers menggantikan swift_rabbitmq_telemetry_servers - swift_oslomsg_notify_port menggantikan swift_rabbitmq_telemetry_port - swift_oslomsg_notify_use_ssl menggantikan swift_rabbitmq_telemetry_use_ssl - swift_oslomsg_notify_userid menggantikan swift_rabbitmq_telemetry_userid - swift_oslomsg_notify_vhost menggantikan swift_rabbitmq_telemetry_vhost - swift_oslomsg_notify_password menggantikan swift_rabbitmq_telemetry_password
Parameter server rabbitmq telah digantikan oleh parameter oslo.messaging RPC dan Notify untuk abstrak layanan pesan dari deployment server backend yang sebenarnya. - octavia_oslomsg_rpc_servers menggantikan octavia_rabbitmq_servers - octavia_oslomsg_rpc_port menggantikan octavia_rabbitmq_port - octavia_oslomsg_rpc_use_ssl menggantikan octavia_rabbitmq_use_ssl - octavia_oslomsg_rpc_userid menggantikan octavia_rabbitmq_userid - octavia_oslomsg_rpc_vhost menggantikan octavia_rabbitmq_vhost - octavia_oslomsg_notify_servers menggantikan octavia_rabbitmq_telemetry_servers - octavia_oslomsg_notify_port menggantikan octavia_rabbitmq_telemetry_port - octavia_oslomsg_notify_use_ssl menggantikan octavia_rabbitmq_telemetry_use_ssl - octavia_oslomsg_notify_userid menggantikan octavia_rabbitmq_telemetry_userid - octavia_oslomsg_notify_vhost menggantikan octavia_rabbitmq_telemetry_vhost - octavia_oslomsg_notify_password menggantikan octavia_rabbitmq_telemetry_password
Proxy reverse server repo untuk pypi kini telah dihapus, hanya menyisakan pypiserver untuk melayani paket yang sudah ada di server repo. Upaya untuk membalikkan proxy hulu proksi ternyata sangat tidak stabil dengan meningkatnya kerumitan bagi deployer yang menggunakan proxy atau pemasangan offline. Dengan ini, variabel
repo_nginx_pypi_upstream
danrepo_nginx_proxy_cache_path
juga telah dihapus.
Variabel
repo_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Dengan implementasi systemd-journal-remote peran` rsyslog_client` tidak lagi dijalankan secara default. Untuk mengaktifkan fungsi legacy, variabel rsyslog_client_enabled dan` rsyslog_server_enabled` dapat diatur ke true.
Variabel
sahara_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
swift_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
tempest_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Variabel
tempest_image_downloader
telah dihapus. Unduhan image sekarang menggunakan host yang sama yang ditunjuk olehtempest_service_setup_host
untuk unduhan image.
Variabel
trove_requires_pip_packages
tidak lagi diperlukan dan karenanya telah dihapus.
Masalah keamanan¶
Direkomendasikan bahwa pembuatan sertifikat selalu ditinjau oleh para profesional keamanan karena algoritma dan panjang kunci dianggap perubahan yang aman sepanjang waktu.
Hindari menetapkan kuota terlalu tinggi untuk cloud Anda karena hal ini dapat berdampak pada kinerja servcies lain dan menyebabkan potensi serangan Denial-of-Service jika kuota Loadbalancer tidak disetel dengan benar atau RBAC tidak diatur dengan benar.
Perbaikan Bug¶
Rilis CentOS yang lebih baru menghadirkan versi libnss yang tergantung pada keberadaan /dev/random and /dev/urandom dalam sistem operasi untuk menjalankannya. Ini menyebabkan masalah selama proses persiapan cache yang berjalan di dalam chroot yang tidak mengandung ini, menghasilkan kesalahan dengan pesan berikut.
error: Failed to initialize NSS library
Ini telah diselesaikan dengan memperkenalkan /dev/random dan /dev/urandom di dalam lingkungan chroot-ed.
ceph-ansible tidak lagi dikonfigurasikan untuk menginstal ntp secara default, yang menciptakan konflik dengan role ansible-hardening OSA yang digunakan untuk mengimplementasikan ntp menggunakan 'chrony'.
Memperbaiki bug https://bugs.launchpad.net/openstack-ansible/+bug/1778098 ketika playbook gagal, jika
horizon_custom_themes
ditentukan, dan direktori untuk tema tidak disediakan
Untuk mencegah masalah lebih lanjut dengan ketidakcocokan libvirt dan versi python-libvirt, node komputasi berbasis KVM sekarang akan menggunakan paket distribusi python library untuk libvirt. Ini harus menyelesaikan masalah yang terlihat dengan pike build di CentOS 7.5.
Persyaratan yang menentukan apakah file
sso_callback_template.html
dikerahkan untuk penyebaran federasi telah diperbaiki.
Catatan lain¶
Saat menjalankan keystone dengan apache(httpd) semua log apache akan disimpan dalam direktori log apache standar yang dikendalikan oleh variabel spesifik distro
keystone_apache_default_log_folder
.
Saat menjalankan aodh dengan apache(httpd) semua log apache akan disimpan dalam direktori log apache standar yang dikendalikan oleh variabel spesifik distro
aodh_apache_default_log_folder
.
Opsi playbook max_fail_percentage telah digunakan dengan playbook default sejak rilis pertama playbook kembali di Icehouse. Sementara maksudnya adalah untuk memungkinkan penyebaran skala besar untuk berhasil dalam kasus di mana satu node gagal karena masalah sementara, opsi ini telah menghasilkan lebih banyak masalah yang dipecahkan. Jika terjadi kegagalan yang bersifat sementara tetapi berada di bawah persentase kegagalan yang ditetapkan, playbook akan melaporkan keberhasilan, yang dapat menyebabkan kegagalan diam (silent failure) tergantung di mana kegagalan itu terjadi. Jika seorang deployer menemukan diri mereka dalam situasi ini masalahnya kemudian diperparah karena alat akan melaporkan tidak ada masalah yang diketahui. Untuk memastikan bahwa deployer memiliki pengalaman penerapan terbaik dan informasi paling akurat telah dilakukan perubahan untuk menghapus opsi max_fail_percentage dari semua playbook default. Penghapusan opsi ini memiliki efek samping yang mengharuskan penyebaran untuk melewati host tertentu jika seseorang harus dihilangkan dari run, tetapi memiliki manfaat menghilangkan kegagalan diam, sulit dilacak, kegagalan. Untuk melewati host yang gagal untuk menjalankan playbook tertentu gunakan --limit '!$HOSTNAME' CLI switch untuk menjalankan tertentu. Setelah masalah terselesaikan untuk host yang gagal jalankan kembali playbook tertentu tanpa opsi --limit untuk memastikan semuanya tersinkronisasi.