Kamis, 19 Januari 2017

MOS virtualbox

Petunjuk pemasangan

pengantar

Bagian ini memperkenalkan bahan bakar untuk OpenStack dan komponennya.

Memperkenalkan bahan bakar untuk OpenStack

Mirantis Fuel untuk OpenStack adalah seperangkat alat penyebaran yang membantu Anda untuk dengan cepat menyebarkan lingkungan awan Anda. Bahan bakar termasuk script yang secara dramatis memudahkan dan mempercepat proses penyebaran awan. Biasanya, instalasi OpenStack mengharuskan Anda membiasakan diri dengan proses instalasi komponen lingkungan OpenStack. Bahan bakar menghilangkan kebutuhan untuk mempelajari proses ini. Dengan bahan bakar, sistem administrator dapat penyediaan tunggal simpul OpenStack, serta berkerumun awan dalam hal menit.

Mode penyebaran

Anda dapat menggunakan bahan bakar untuk OpenStack untuk membuat hampir semua konfigurasi OpenStack. Namun, Mirantis menyediakan beberapa arsitektur yang telah ditetapkan untuk kenyamanan Anda. Arsitektur yang telah ditentukan meliputi:
  • Multi-node Lingkungan multi-node menyediakan cara mudah untuk menginstal lingkungan OpenStack seluruh tanpa memerlukan tingkat meningkat hardware yang terlibat dalam memastikan ketersediaan tinggi. Mirantis menyarankan Anda menggunakan arsitektur ini untuk tujuan pengujian.
  • Multi-node HA The multi-node dengan lingkungan HA didedikasikan untuk penyebaran produksi sangat tersedia. Menggunakan multi-node dengan HA Anda dapat menyebarkan layanan tambahan, seperti cinder, Neutron, dan Ceph. Anda dapat menciptakan lingkungan multi-node berikut:
Dengan bahan bakar, Anda dapat menciptakan lingkungan awan Anda sendiri yang mencakup komponen tambahan.
Untuk informasi lebih lanjut, hubungi Mirantis .
Lihat juga 

Tentang Bahan Bakar dan Komponen OpenStack

Anda dapat menggunakan bahan bakar dengan cepat menyebarkan dan mengelola lingkungan OpenStack.
Bahan bakar termasuk komponen-komponen berikut:
  • Guru Node
    Bahan Bakar Guru Node adalah aplikasi manajemen siklus hidup untuk penyebaran dan pengelolaan OpenStack. Itu duduk di luar lingkungan dan layanan OpenStack sebagai control plane untuk beberapa envionments OpenStack.
  • kontroler Node
    Sebuah node controller yang mengelola lingkungan OpenStack termasuk penyebaran tambahan controller dan menghitung node, mengkonfigurasi pengaturan jaringan, dan sebagainya. Untuk penyebaran HA, Mirantis menganjurkan untuk menyebarkan setidaknya 3 node pengontrol.
  • Hitung Node (s)
    Sebuah node komputasi adalah server di mana Anda menjalankan mesin virtual dan aplikasi.
  • Penyimpanan Node (s)
    komponen opsional. Anda dapat menyebarkan terpisah Swift atau Ceph simpul penyimpanan. Mirantis merekomendasikan untuk menggunakan node penyimpanan mandiri untuk lingkungan ketersediaan tinggi.

Software didukung

  • Sistem operasi
    • CentOS 6.4 (x86_64 arsitektur saja)
    • Ubuntu 12.04 (arsitektur x86_64 saja)
  • Wayang (alat otomatisasi TI) 2.7.23
  • MCollective 2.3.3
  • Tukang (alat penyediaan logam telanjang) 2.2.3
  • OpenStack Proyek Inti
    • Havana rilis 2013/02/03
      • Nova (OpenStack Compute)
      • Swift (OpenStack Object Storage)
      • Sekilas (OpenStack Gambar Service)
      • Keystone (OpenStack Identity)
      • Horizon (OpenStack Dashboard)
      • Neutron (OpenStack Networking)
      • Cinder (layanan OpenStack Block Storage)
  • OpenStack Inti Proyek Terpadu
    • Havana Rilis 2013/02/03
      • Ceilometer (OpenStack Telemetry)
      • Panas (OpenStack Orkestrasi)
  • OpenStack Proyek Terkait
    • Savanna v0.3
    • Murano v0.4.1
  • hypervisor
    • KVM
    • QEMU
  • Terbuka vSwitch 1.10.2 (CentOS), 1.10.1 (Ubuntu)
  • HA Proxy 1.4.24
  • Galera 23.2.2
  • RabbitMQ 3.2.3
  • Pacemaker 1.1.10
  • 1.4.6 Corosync
  • keepalived 1.2.4
  • Ceph Dumpling (v0.67.9)
  • MySQL v5.1.69 (CentOS), 5.5.32 (Ubuntu)

Prosedur Instalasi BBM

Anda harus menyelesaikan tugas-tugas berikut untuk menggunakan BBM untuk menyebarkan OpenStack awan:
  1. Instal Fuel Guru Node pada perangkat keras fisik atau virtual menggunakan gambar instalasi Fuel
  2. Mengatur node lain untuk boot dari jaringan dan kekuatan mereka untuk membuat mereka dapat diakses untuk Fuel Guru simpul
  3. Menetapkan peran yang Anda inginkan ke kelenjar ditemukan menggunakan Bahan Bakar UI atau CLI.
BBM dirancang untuk menjaga lingkungan OpenStack sambil memberikan fleksibilitas untuk beradaptasi untuk konfigurasi Anda.

Prasyarat

Jumlah hardware tergantung pada kebutuhan penyebaran Anda. Ketika Anda berencana lingkungan OpenStack Anda, pertimbangkan hal berikut:
  • CPU
    Tergantung pada jumlah mesin virtual yang Anda berencana untuk menyebarkan di lingkungan awan Anda dan CPU per mesin virtual.
  • Ingatan
    Tergantung pada jumlah RAM ditugaskan per mesin virtual dan node controller.
  • Penyimpanan
    Tergantung pada ruang drive lokal per mesin virtual, volume remote yang dapat dilampirkan ke mesin virtual, dan penyimpanan objek.
  • jaringan
    Tergantung pada arsitektur OpenStack, bandwidth jaringan per mesin virtual, dan penyimpanan jaringan.

Contoh Kebutuhan Hardware Perhitungan

Ketika Anda menghitung sumber daya untuk lingkungan OpenStack Anda, pertimbangkan sumber daya yang diperlukan untuk memperluas lingkungan Anda.
Contoh yang diuraikan dalam bagian ini menganggap bahwa lingkungan Anda memiliki prasyarat berikut:
  • 100 mesin virtual
  • 2 x Amazon EC2 unit compute 2 GHz rata
  • 16 x Amazon EC2 unit compute 16 GHz maksimum

menghitung CPU

Gunakan rumus berikut untuk menghitung jumlah core CPU per mesin virtual:
  max GHz / (jumlah GHz per core x 1,3 untuk hyper-threading)
Contoh:
  16 GHz / (2,4 x 1,3) = 5,12
Oleh karena itu, Anda harus menetapkan minimal 5 core CPU per mesin virtual.
Gunakan rumus berikut untuk menghitung jumlah core CPU:
  (Jumlah VMs x jumlah GHz per VM) / jumlah GHz per core
Contoh:
  (100 VMS * 2 GHz per VM) / 2,4 GHz per core = 84
Oleh karena itu, jumlah total core CPU untuk 100 mesin virtual adalah 84.
Tergantung pada CPU yang dipilih Anda dapat menghitung jumlah yang diperlukan soket. Menggunakan rumus berikut:
  jumlah core CPU / jumlah core per socket
Misalnya, Anda menggunakan Intel E5 2650-70 8 core CPU:
  84/8 = 11
Oleh karena itu, Anda perlu 11 soket. Untuk menghitung jumlah server yang dibutuhkan untuk penyebaran Anda, gunakan rumus berikut:
  Jumlah soket / jumlah soket per server
Putaran jumlah soket untuk angka genap untuk mendapatkan 12 soket. Menggunakan rumus berikut:
  02/12 = 6
Oleh karena itu, Anda perlu 6 server ganda socket. Anda dapat menghitung jumlah mesin virtual per server menggunakan rumus sebagai berikut:
  jumlah mesin virtual / jumlah server
Contoh:
  100/6 = 16,6
Oleh karena itu, Anda dapat menyebarkan 17 mesin virtual per server.
Menggunakan perhitungan ini, Anda dapat menambahkan server tambahan akuntansi untuk 17 mesin virtual per server.
Perhitungan mengandaikan kondisi berikut:
  • Tidak ada CPU oversubscribing
  • Jika Anda menggunakan hyper-threading, menghitung setiap core 1.3, tidak 2.
  • CPU mendukung teknologi yang dibutuhkan untuk penyebaran Anda

menghitung Memori

Terus menggunakan contoh dari bagian sebelumnya, kita perlu menentukan berapa banyak RAM akan diperlukan untuk mendukung 17 VM per server. Mari kita berasumsi bahwa Anda perlu rata-rata 4 GBS RAM per VM dengan alokasi dinamis hingga 12GBs untuk setiap VM. Menghitung bahwa semua VMs akan menggunakan 12 GBS RAM mengharuskan setiap server memiliki 204 GBS RAM yang tersedia.
Anda juga harus mempertimbangkan bahwa node itu sendiri perlu RAM yang cukup untuk menampung operasi OS inti serta RAM untuk setiap kontainer VM (bukan RAM yang dialokasikan untuk setiap VM, tapi memori inti OS menggunakan untuk menjalankan VM). OS node harus menjalankan itu operasi sendiri, proses jadwal, mengalokasikan sumber daya yang dinamis, dan menangani operasi jaringan, sehingga memberikan node itu sendiri setidaknya 16 GBS atau lebih RAM tidak masuk akal.
Menimbang bahwa RAM kita akan mempertimbangkan untuk server datang dalam 4 GB, 8 GB, 16 GB dan 32 GB tongkat, kita akan membutuhkan total 256 GBS RAM terpasang per server. Untuk 2-CPU papan socket server rata-rata Anda mendapatkan 16-24 slot RAM. Untuk memiliki 256 GBS diinstal Anda akan perlu enam belas 16 GB batang RAM untuk memenuhi RAM Anda perlu untuk sampai dengan 17 VMs membutuhkan alokasi dinamis hingga 12 GBs dan untuk mendukung semua persyaratan inti OS.
Anda dapat menyesuaikan perhitungan ini berdasarkan pada kebutuhan Anda.

menghitung Storage

Ketika datang ke ruang disk ada beberapa jenis yang perlu Anda pertimbangkan:
  • Fana (ruang drive lokal untuk VM)
  • Persistent (volume remote yang dapat dilampirkan ke VM)
  • Object Storage (seperti gambar atau benda lainnya)
Sejauh ruang drive lokal yang harus berada pada node komputasi, dalam contoh kami 100 VMS kita membuat asumsi sebagai berikut:
  • 150 GB penyimpanan lokal per VM
  • Total 5 TB penyimpanan lokal (100 VMS * 50 GB per VM)
  • 500 GB penyimpanan volume yang persisten per VM
  • 50 TB Total penyimpanan persisten
Kembali ke contoh kita sudah mapan, kita perlu mencari tahu berapa banyak penyimpanan untuk menginstal per server. penyimpanan ini akan melayani 17 VMs per server. Jika kita mengasumsikan 50 GBS penyimpanan untuk setiap drive kontainer VMs, maka kita akan perlu menginstal 2,5 TB penyimpanan di server. Karena kebanyakan server punya tempat 4-32 2,5 "drive slot atau 2 sampai 12 3,5" slot drive, tergantung pada faktor bentuk server (yaitu, 2U vs 4U), Anda akan perlu mempertimbangkan bagaimana penyimpanan akan terpengaruh oleh dimaksudkan menggunakan.
Jika dampak penyimpanan diperkirakan tidak signifikan, maka Anda dapat mempertimbangkan menggunakan unified storage. Untuk contoh ini drive 3 TB tunggal akan menyediakan lebih dari penyimpanan yang cukup untuk tujuh belas 150 GB VMS. Jika kecepatan benar-benar tidak masalah, Anda bahkan mungkin mempertimbangkan menginstal dua atau tiga 3 TB drive dan mengkonfigurasi RAID-1 atau RAID-5 untuk redundansi. Jika kecepatan adalah penting, namun, Anda akan cenderung ingin memiliki drive hardware tunggal untuk setiap VM. Dalam hal ini Anda mungkin akan melihat faktor bentuk 3U dengan 24 slot.
Jangan lupa bahwa Anda juga perlu mendorong ruang untuk node itu sendiri, dan jangan lupa untuk memesan backplane yang benar yang mendukung konfigurasi drive yang memenuhi kebutuhan Anda. Menggunakan contoh spesifikasi kami dan dengan asumsi bahwa kecepatan adalah penting, server tunggal akan membutuhkan 18 drive, kemungkinan besar 2,5 "15.000 RPM 146 GB SAS drive.

Throughput

Sejauh throughput, itu akan tergantung pada jenis penyimpanan yang Anda pilih. Secara umum, Anda menghitung IOPS berdasarkan packing density (berkendara IOPS * drive di server / VMS per server), tetapi IOPS drive yang sebenarnya akan tergantung pada teknologi drive yang Anda pilih. Sebagai contoh:
  • 3.5 "lambat dan murah (100 IOPS per drive, dengan 2 cermin drive)
    • 100 IOPS * 2 drive / 17 VMS per server = 12 Baca IOPS, 6 Tulis IOPS
  • 2.5 "15K (200 IOPS, empat 600 GB drive, RAID-10)
    • 200 IOPS * 4 drive / 17 VMS per server = 48 Baca IOPS, 24 Write IOPS
  • SSD (40K IOPS, delapan 300 GB drive, RAID-10)
    • 40K * 8 drive / 17 VMS per server = 19K Baca IOPS, 9.5K Tulis IOPS
Jelas, SSD memberikan kinerja terbaik, namun perbedaan biaya antara SSD dan lebih murah solusi berbasis piring akan menjadi signifikan, untuk sedikitnya. Beban biaya diterima ditentukan oleh keseimbangan antara anggaran dan kinerja dan redundansi kebutuhan Anda. Hal ini juga penting untuk dicatat bahwa aturan untuk redundansi dalam lingkungan awan yang berbeda dari instalasi server tradisional dalam seluruh server memberikan redundansi sebagai lawan untuk membuat contoh server tunggal berlebihan.
Dengan kata lain, berat untuk komponen berlebihan bergeser dari instalasi OS individu ke server redundansi. Hal ini jauh lebih penting untuk memiliki pasokan listrik berlebihan dan CPU hot-swappable dan RAM daripada memiliki berlebihan penyimpanan menghitung node. Jika, misalnya, Anda memiliki 18 drive diinstal pada server dan memiliki 17 drive langsung dialokasikan ke setiap VM diinstal dan satu gagal, Anda cukup mengganti drive dan mendorong salinan node baru. VMs tersisa membawa apapun beban tambahan hadir karena hilangnya sementara satu node.

penyimpanan jarak jauh

IOPS juga akan menjadi faktor dalam menentukan bagaimana Anda berencana untuk menangani penyimpanan persisten. Misalnya, pertimbangkan pilihan ini untuk meletakkan 50 TB Anda ruang volume jarak jauh:
  • 12 berkendara bingkai penyimpanan menggunakan 3 TB 3.5 "drive dicerminkan
    • 36 baku TB, atau 18 TB ruang yang dapat digunakan per frame 2U
    • 3 frame (50 TB / 18 TB per server)
    • 12 slot x 100 IOPS per drive = 1200 Baca IOPS, 600 Menulis IOPS per frame
    • 3 frame x 1200 IOPS per frame / 100 VMS = 36 Baca IOPS, 18 Menulis IOPS per VM
  • bingkai penyimpanan 24 drive menggunakan 1TB 7200 RPM 2.5 "drive
    • 24 baku TB, atau 12 TB ruang yang dapat digunakan per frame 2U
    • 5 frame (50 TB / 12 TB per server)
    • 24 slot x 100 IOPS per drive = 2400 Baca IOPS, 1200 Write IOPS per frame
    • 5 frame x 2400 IOPS per frame / 100 VMS = 120 Baca IOPS, 60 Menulis IOPS per frame
Anda dapat mencapai hal yang sama dengan bingkai 36 drive menggunakan 3 TB drive, tapi ini menjadi titik kegagalan di lingkungan Anda.

penyimpanan objek

Ketika datang ke objek penyimpanan, Anda akan menemukan bahwa Anda perlu lebih banyak ruang daripada yang Anda pikirkan. Misalnya, contoh ini menentukan 50 TB penyimpanan objek.
penyimpanan objek menggunakan default 3 kali ruang yang diperlukan untuk replikasi, yang berarti Anda akan membutuhkan 150 TB. Namun, untuk mengakomodasi dua zona lepas tangan, Anda akan perlu 5 kali ruang yang diperlukan, yang sebenarnya berarti 250 TB. Perhitungan tidak berakhir di sana. Anda tidak pernah ingin kehabisan ruang, sehingga "penuh" benar-benar harus lebih seperti 75% dari kapasitas, yang berarti Anda akan membutuhkan total 333 TB, atau faktor perkalian 6,66.
Tentu saja, yang mungkin sedikit banyak untuk memulai dengan; Anda mungkin ingin memulai dengan media bahagia dari multiplier dari 4, maka mendapatkan lebih keras sebagai drive Anda mulai mengisi. Yang menghitung 200 TB dalam contoh kita. Jadi bagaimana Anda menempatkan bahwa bersama-sama? Jika Anda menggunakan 3 TB 3.5 "drive, Anda bisa menggunakan bingkai penyimpanan 12 drive, dengan 6 server hosting yang 36 TB masing-masing (untuk total 216 TB). Anda juga bisa menggunakan bingkai penyimpanan 36 drive, dengan hanya 2 server hosting yang 108 TB masing-masing, namun tidak dianjurkan karena tingginya biaya kegagalan untuk replikasi dan kapasitas masalah.

menghitung Jaringan

Mungkin bagian yang paling kompleks merancang lingkungan OpenStack adalah jaringan tersebut.
Lingkungan OpenStack dapat melibatkan beberapa jaringan bahkan di luar Publik, Swasta, dan jaringan internal. lingkungan Anda mungkin melibatkan jaringan penyewa, jaringan penyimpanan, beberapa jaringan pribadi penyewa, dan sebagainya. Banyak dari ini akan VLAN, dan semua dari mereka akan perlu direncanakan keluar di muka untuk menghindari masalah konfigurasi.
Dalam hal jaringan contoh, pertimbangkan asumsi ini:
  • 100 Mbits / detik per VM
  • arsitektur HA
  • Jaringan Storage tidak latency sensitif
Dalam rangka untuk mencapai hal ini, Anda dapat menggunakan dua 1 link Gb per server (2 x 1000 Mbits / detik / 17 VMS = 118 Mbits / detik).
Menggunakan dua link juga membantu dengan HA. Anda juga dapat meningkatkan throughput dan penurunan latency dengan menggunakan dua 10 link Gb, membawa bandwidth per VM ke 1 Gb / detik, tetapi jika Anda akan melakukan itu, Anda punya salah satu faktor yang perlu dipertimbangkan.

Skalabilitas dan kelebihan permintaan

Ini adalah salah satu ironi dari jaringan yang 1 Gb Ethernet umumnya skala yang lebih baik dari 10GB Ethernet - setidaknya sampai 100 Gb switch yang lebih umum tersedia. Ini mungkin untuk agregat 1 Gb link di switch 48 pelabuhan, sehingga Anda memiliki 48 x 1 Gb sponsor turun, tapi 4 x 10 Gb link up. Lakukan hal yang sama dengan switch 10 Gb, bagaimanapun, dan Anda memiliki 48 x 10 Gb link ke bawah dan 4 x 100b link up, menghasilkan kelebihan permintaan.
Seperti banyak masalah lain di OpenStack, Anda dapat menghindari masalah ini untuk sebagian besar dengan perencanaan yang matang. Masalah hanya muncul ketika Anda bergerak antara rak, jadi rencana untuk menciptakan "polong", yang masing-masing meliputi penyimpanan dan komputasi node. Umumnya, pod adalah ukuran domain L2 non-oversubscribed.

Hardware untuk contoh ini

Dalam contoh ini, Anda cari di:
  • 2 switch data (untuk HA), masing-masing dengan minimal 12 port untuk data (2 x 1 Gb link per server x 6 server)
  • 1 x 1 Gb saklar untuk IPMI (1 port per server x 6 server)
  • Opsional beralih Manajemen Cluster, ditambah kedua untuk HA
Karena jaringan Anda akan kemungkinan besar tumbuh, yang terbaik untuk memilih 48 pelabuhan switch. Juga, sebagai jaringan Anda tumbuh, Anda akan perlu mempertimbangkan uplink dan agregasi switch.

Ringkasan

Secara umum, Anda terbaik adalah untuk memilih server 2 socket dengan keseimbangan dalam I / O, CPU, memori, dan Disk yang memenuhi persyaratan proyek Anda. Mencari 1U R-kelas atau kepadatan tinggi server C-class 2U. Beberapa pilihan yang baik dari Dell untuk menghitung node meliputi:
  • Dell PowerEdge R620
  • Dell PowerEdge C6220 Rack Server
  • Dell PowerEdge R720XD (untuk disk tinggi atau persyaratan IOPS)
Anda juga mungkin ingin mempertimbangkan sistem dari HP ( http://www.hp.com/servers ) atau dari pembangun sistem yang lebih kecil seperti Aberdeen, produsen yang mengkhususkan diri dalam sistem yang kuat, murah dan server penyimpanan ( http: // www.aberdeeninc.com ).

download Fuel

Sebelum instalasi, download gambar instalasi dari Mirantis situs web .
Catatan 
 Anda harus masuk untuk men-download gambar Fuel.
BBM mendukung rilis OpenStack berikut:
  • abu-abu
BBM Guru node, sistem operasi CentOS & Ubuntu untuk penyebaran sebagai host OS merupakan OpenStack node ', dan paket mengeras Mirantis OpenStack.
BBM memberikan pilihan instalasi berikut:
  • ISO image Untuk instalasi dari perangkat media CD.
  • File mentah sektor (IMG) Untuk instalasi dari perangkat media flash (USB). Kedua gambar instalasi berisi installer untuk Fuel Guru simpul.
Lihat juga 

Memahami dan Konfigurasi Jaringan

lingkungan OpenStack menggunakan beberapa jenis manajer jaringan: FlatDHCPManager, VLANManager (Nova Network) dan Neutron (sebelumnya Quantum). Semua konfigurasi yang didukung. Untuk informasi lebih lanjut tentang bagaimana manajer jaringan bekerja, Anda dapat membaca dua sumber ini:

FlatDHCPManager (skema multi-host)

Bahan utama dalam FlatManager adalah untuk mengkonfigurasi sebuah jembatan (yaitu BR100) pada setiap node Compute dan memiliki satu antarmuka fisik mesin menyambung ke. Setelah mesin virtual diluncurkan, antarmuka virtual terhubung ke jembatan itu juga. Segmen L2 yang sama digunakan untuk semua proyek OpenStack, yang berarti bahwa tidak ada L2 isolasi antara host virtual, bahkan jika mereka dimiliki oleh proyek-proyek terpisah. Selain itu, hanya ada satu datar IP pool ditetapkan untuk seluruh lingkungan. Untuk alasan ini, hal itu disebut manajer datar.
Kasus yang paling sederhana di sini adalah seperti yang ditunjukkan pada diagram berikut. Berikut antarmuka eth1 digunakan untuk memberikan akses jaringan ke mesin virtual, sementara antarmuka eth0 adalah antarmuka jaringan manajemen.
_images / flatdhcpmanager-mh_scheme.jpg
BBM menyebarkan OpenStack dalam mode FlatDHCP dengan fitur multi-host diaktifkan. Tanpa fitur ini diaktifkan, lalu lintas jaringan dari setiap VM akan pergi melalui gateway host tunggal, yang pasti menciptakan satu titik kegagalan. Dalam modus multi-host, setiap node Compute menjadi gateway untuk semua VMs berjalan pada host, menyediakan solusi jaringan yang seimbang. Dalam hal ini, jika salah satu Menghitung turun, sisa lingkungan tetap operasional.
Versi saat ini dari bahan bakar menggunakan VLAN, bahkan untuk manajer jaringan FlatDHCP. Pada host Linux, ini diterapkan sedemikian rupa bahwa itu bukan antarmuka jaringan fisik yang terhubung ke jembatan, tetapi antarmuka VLAN (yaitu eth0.102).

FlatDHCPManager (skema single-interface)

_images / flatdhcpmanager-sh_scheme.jpg
Agar FlatDHCPManager untuk bekerja, salah satu yang ditunjuk port switch di mana setiap node Compute adalah kebutuhan terhubung ke dikonfigurasi sebagai tag (trunk) pelabuhan dengan VLAN yang diperlukan diperbolehkan (diaktifkan, tagged). mesin virtual akan berkomunikasi dengan satu sama lain pada L2 bahkan jika mereka berada di node Compute yang berbeda. Jika mesin virtual mengirimkan paket IP ke jaringan yang berbeda, mereka akan diarahkan pada mesin host sesuai dengan tabel routing. Rute default akan menunjuk ke gateway yang ditentukan pada tab jaringan di UI sebagai gateway untuk jaringan Umum.

VLANManager

Modus VLANManager lebih cocok untuk awan skala besar. Ide di balik mode ini adalah untuk kelompok terpisah dari mesin virtual yang dimiliki oleh proyek-proyek yang berbeda ke dalam jaringan L2 terpisah dan berbeda. Dalam VLANManager, hal ini dilakukan dengan penandaan IP frame, diidentifikasi oleh VLAN diberikan. Hal ini memungkinkan mesin virtual dalam proyek tertentu untuk berkomunikasi satu sama lain dan tidak melihat lalu lintas dari VMS proyek lainnya. Sekali lagi, seperti dengan FlatDHCPManager, port switch harus dikonfigurasi sebagai tag (trunk) port untuk memungkinkan skema ini untuk bekerja.
_images / vlanmanager_scheme.jpg

BBM Deployment Skema

Via VLAN tagging pada antarmuka fisik, OpenStack Menghitung akan untag paket IP dan mengirim mereka ke VMs yang sesuai. Menyederhanakan konfigurasi VLAN Manager, tidak ada batasan dikenal yang Fuel bisa menambahkan modus jaringan tertentu.

Konfigurasi jaringan

Setelah Anda memilih modus jaringan (FlatDHCP / VLAN), Anda harus mengkonfigurasi peralatan sesuai. Diagram di bawah menunjukkan konfigurasi contoh.
_images / fisik-network.png
Bahan bakar beroperasi dengan berikut jaringan logis:
jaringan BBM
Digunakan untuk komunikasi Fuel internal saja dan PXE boot (untagged pada skema);
jaringan publik
Digunakan untuk mendapatkan akses dari mesin virtual untuk luar, Internet atau jaringan kantor (VLAN 101 pada skema);
jaringan mengambang
Digunakan untuk mendapatkan akses ke mesin virtual dari luar (shared L2-interface dengan jaringan Umum, dalam hal ini itu VLAN 101);
jaringan manajemen
Digunakan untuk komunikasi OpenStack internal yang (VLAN 100 pada skema);
penyimpanan jaringan
Digunakan untuk lalu lintas Storage (VLAN 102 pada skema);
jaringan tetap
Satu (untuk mode flat) atau lebih (untuk mode VLAN) mesin virtual jaringan (VLAN 103-200 pada skema).

Pemetaan jaringan logis untuk interface fisik pada server

BBM memungkinkan Anda untuk menggunakan antarmuka fisik yang berbeda untuk menangani berbagai jenis lalu lintas. Ketika sebuah node ditambahkan ke lingkungan, klik di garis bawah ikon simpul. Pada jendela informasi rinci, klik tombol "Configure Interface" untuk membuka layar konfigurasi antarmuka fisik.
_images / network_settings.jpg
Pada layar ini Anda dapat drag-and-menjatuhkan jaringan logis untuk antarmuka fisik sesuai dengan konfigurasi jaringan Anda.
Semua jaringan disajikan di layar, kecuali Fuel. Ini berjalan pada interface fisik yang simpul awalnya PXE boot, dan dalam versi saat ini tidak mungkin untuk memetakan itu pada setiap antarmuka fisik lainnya. Juga, setelah jaringan dikonfigurasi dan OpenStack dikerahkan, Anda tidak boleh mengubah pengaturan jaringan, bahkan untuk memindahkan jaringan logis untuk antarmuka fisik lain atau nomor VLAN.

Beralih

BBM dapat mengkonfigurasi host, namun beralih konfigurasi masih pekerjaan manual. Sayangnya set langkah-langkah konfigurasi, dan bahkan terminologi yang digunakan, berbeda untuk vendor yang berbeda, jadi kami akan mencoba untuk memberikan informasi vendor-agnostik tentang bagaimana lalu lintas harus mengalir dan meninggalkan rincian khusus vendor untuk Anda. Kami akan memberikan contoh untuk switch Cisco.
Pertama-tama, Anda harus mengkonfigurasi port akses untuk memungkinkan non-tagged koneksi PXE boot dari semua node Slave ke node Fuel. Kami menyebut jaringan ini sebagai jaringan Fuel. Secara default, Bahan Bakar Guru simpul menggunakan antarmuka eth0 untuk melayani permintaan PXE pada jaringan ini, tetapi hal ini dapat berubah selama instalasi dari node Fuel Guru. Jadi, jika yang tersisa tidak berubah, Anda harus mengatur port switch untuk eth0 Bahan Bakar Guru node ke mode akses. Kami menyarankan Anda menggunakan antarmuka eth0 dari semua node lain untuk PXE boot juga. Sesuai port juga harus dalam mode akses.
Dengan mempertimbangkan bahwa ini adalah jaringan untuk PXE boot, jangan mencampur segmen L2 ini dengan segmen jaringan lainnya. Bahan bakar menjalankan server DHCP, dan jika ada DHCP lain pada L2 segmen jaringan yang sama, baik infrastruktur perusahaan dan bahan bakar ini tidak akan dapat berfungsi dengan baik. Anda juga perlu mengkonfigurasi setiap port switch terhubung ke node sebagai "STP Ujung port" (atau "spanning-tree port cepat batang", menurut istilah Cisco). Jika Anda tidak melakukan itu, masalah DHCP batas waktu dapat terjadi.
Selama jaringan Fuel dikonfigurasi, Fuel dapat beroperasi. jaringan lain yang diperlukan untuk lingkungan OpenStack, dan saat ini semua jaringan ini tinggal di VLAN selama satu atau beberapa interface fisik pada node. Ini berarti bahwa saklar harus lulus lalu lintas ditandai, dan untagging dilakukan pada host Linux.
Catatan 
 Demi kesederhanaan, semua VLAN ditentukan pada tab jaringan dari UI Fuel harus dikonfigurasi pada port switch, menunjuk ke node Slave, sebagai tag.
Tentu saja, adalah mungkin untuk menentukan sebagai tag hanya port tertentu untuk node tertentu. Namun, dalam versi saat ini, semua jaringan yang ada secara otomatis dialokasikan untuk setiap node, dengan peran apa pun. Dan cek jaringan juga akan memeriksa apakah tag lulus lalu lintas, bahkan jika beberapa node tidak memerlukan cek ini (misalnya, node cinder tidak memerlukan lalu lintas jaringan tetap).
Ini cukup untuk menyebarkan lingkungan OpenStack. Namun, dari sudut pandang praktis, itu masih belum benar-benar dapat digunakan karena tidak ada koneksi ke jaringan perusahaan lain belum. Untuk membuat itu mungkin, Anda harus mengkonfigurasi port uplink (s).
Salah satu VLAN dapat membawa jaringan kantor. Untuk memberikan akses ke node Guru Bahan Bakar dari jaringan Anda, antarmuka jaringan fisik gratis lainnya pada Fuel Guru node dapat digunakan dan dikonfigurasi sesuai dengan aturan jaringan (static IP atau DHCP). segmen jaringan yang sama dapat digunakan untuk rentang Umum dan Mengambang. Dalam hal ini, Anda harus memberikan ID VLAN yang sesuai dan IP berkisar di UI. Satu IP Public per node akan digunakan untuk lalu lintas SNAT dari jaringan VMS, dan satu atau lebih alamat mengambang per VM instance akan digunakan untuk mendapatkan akses ke VM dari jaringan Anda, atau bahkan internet global. Untuk memiliki VM terlihat dari Internet adalah mirip dengan memiliki itu terlihat dari jaringan perusahaan - sesuai rentang IP dan ID VLAN harus ditentukan untuk Terapung dan jaringan Umum. Salah satu keterbatasan saat Fuel adalah bahwa pengguna harus menggunakan segmen L2 yang sama untuk kedua jaringan Umum dan Mengambang.
konfigurasi contoh untuk salah satu port pada switch Cisco:
  antarmuka GigabitEthernet0 / 6 # port switch
 deskripsi s0_eth0 jv # deskripsi
 switchport trunk enkapsulasi dot1q # memungkinkan VLAN
 trunk switchport asli vlan 262 port # akses, untags VLAN 262
 switchport trunk diperbolehkan vlan 100.102.104 # 100102104 VLAN berlalu dengan tag
 switchport trunk modus # Untuk memungkinkan lebih dari 1 VLAN pada port
 spanning-tree portfast batang # STP Ujung pelabuhan untuk melewati jaringan loop
                                            # Cek (untuk mencegah masalah timeout DHCP)
 vlan 262100102104 # Mungkin diperlukan untuk memungkinkan VLAN

router

Untuk memungkinkan untuk VMs untuk mengakses dunia luar, Anda harus memiliki alamat IP diatur pada router di jaringan Umum. Dalam contoh yang diberikan, bahwa IP adalah 12.0.0.1 di VLAN 101.
Fuel UI memiliki bidang khusus pada tab jaringan untuk alamat gateway. Begitu penyebaran OpenStack dimulai, jaringan pada node ulang untuk menggunakan gateway ini IP sebagai default gateway.
Jika Mengambang alamat berasal dari jaringan L3 lain, maka Anda harus mengkonfigurasi alamat IP (atau bahkan beberapa IP jika Mengambang alamat berasal dari lebih dari satu jaringan L3) bagi mereka pada router juga.
Jika tidak, Mengambang IP pada node tidak bisa diakses.

konfigurasi penyebaran mengakses OpenStack API dan VMs dari mesin host

Script pembantu untuk VirtualBox membuat adapter jaringan eth0, eth1, eth2 yang diwakili pada mesin host sebagai vboxnet0, vboxnet1, vboxnet2 Sejalan, dan memberikan alamat IP untuk adapter:
vboxnet0 - 10.20.0.1/24, vboxnet1 - 172.16.1.1/24, vboxnet2 - 172.16.0.1/24.
Untuk lingkungan demo di VirtualBox, adaptor jaringan pertama digunakan untuk menjalankan lalu lintas jaringan Fuel, termasuk PXE penemuan.
Untuk mengakses Horizon dan OpenStack tenang API melalui jaringan publik dari mesin host, diperlukan untuk memiliki rute dari host ke alamat IP publik pada OpenStack Controller. Juga, jika akses ke Terapung IP dari VM diperlukan, juga wajib memiliki rute ke Mengambang IP pada Compute tuan rumah, yang diikat ke antarmuka Umum sana. Untuk membuat konfigurasi ini mungkin di lingkungan demo VirtualBox, pengguna harus menjalankan jaringan Public untagged. Pada gambar di bawah Anda dapat melihat konfigurasi jaringan Umum dan Mengambang yang akan memungkinkan untuk membuat hal ini terjadi.
_images / vbox_public_settings.jpg
Secara default Umum dan jaringan Mengambang yang berlari pada antarmuka jaringan pertama. Hal ini diperlukan untuk mengubahnya, seperti yang Anda lihat pada gambar di bawah ini. Pastikan Anda mengubahnya pada setiap node.
_images / vbox_node_settings.jpg
Jika Anda menggunakan konfigurasi default dalam skrip VirtualBox, dan mengikuti pengaturan yang sama persis pada gambar di atas, Anda harus dapat mengakses OpenStack Horizon melalui jaringan publik setelah instalasi.
Jika Anda ingin mengaktifkan internet pada ditetapkan VMs oleh OpenStack, Anda harus mengkonfigurasi NAT pada mesin host. Ketika paket mencapai antarmuka vboxnet1, menurut tab pengaturan OpenStack, mereka harus mengetahui jalan keluar dari tuan rumah. Untuk Ubuntu, perintah berikut, dieksekusi pada host, dapat membuat hal ini terjadi:
  sudo iptables-t nat -A POSTROUTING -s 172.16.1.0/24 \!  -d 172.16.1.0/24 j MASQUERADE
Untuk VMs akses dikelola oleh OpenStack diperlukan untuk memberikan alamat IP dari Mengambang kisaran IP. Ketika lingkungan OpenStack dikerahkan dan VM ditetapkan di sana, Anda harus mengaitkan salah satu alamat IP Mengambang dari kolam untuk VM ini, apakah di Horizon atau melalui Nova CLI. Secara default, OpenStack blok semua lalu lintas ke VM. Untuk memungkinkan konektivitas ke VM, Anda perlu mengkonfigurasi grup keamanan. Hal ini dapat dilakukan di Horizon, atau dari OpenStack Pengendali menggunakan perintah berikut:
  .  / Root / openrc
 nova secgroup-add-aturan default icmp -1 -1 0.0.0.0/0
 nova secgroup-add-aturan default tcp 22 22 0.0.0.0/0
IP berkisar untuk Publik dan Manajemen jaringan (172,16. *. *) Didefinisikan dalam naskah config.sh. Jika nilai default tidak sesuai dengan kebutuhan anda, Anda bebas untuk mengubah mereka, tapi sebelum instalasi Fuel Guru simpul.

Instalasi Bahan Bakar Guru Node

BBM didistribusikan baik melalui ISO dan IMG gambar. Masing-masing berisi sebuah installer untuk Fuel Guru simpul. ISO image digunakan untuk CD perangkat media, ILO (HP) atau sistem akses remote yang sama. File IMG digunakan untuk memori USB instalasi berbasis-stick.
Setelah terinstal, bahan bakar dapat digunakan untuk menyebarkan dan mengelola lingkungan OpenStack. Ini akan memberikan alamat IP ke node, melakukan booting PXE dan konfigurasi awal, dan penyediaan node OpenStack sesuai dengan peran mereka dalam lingkungan.

Bare-Metal Lingkungan

Untuk menginstal Fuel pada hardware telanjang-logam, Anda perlu membakar disediakan ISO ke DVD ditulisi atau membuat bootable USB stick. Anda kemudian akan memulai proses instalasi dengan boot dari media itu, sangat banyak seperti OS lain proses instalasi.
Membakar ISO ke media optik adalah fungsi umum didukung pada semua OS. Pada Linux, ada beberapa program yang tersedia, seperti Brasero atau Xfburn, dua aplikasi desktop biasa pra-instal. Ada juga sejumlah untuk Windows seperti ImgBurn dan open source InfraRecorder .
Membakar ISO di Mac OS X cukup sederhana. Buka Disk Utility dari Applications> Utilities, tarik ISO ke dalam list disk di sisi kiri jendela dan pilih, masukkan DVD kosong, dan klik Burn. Jika Anda lebih memilih utilitas yang berbeda, memeriksa open source Bakar .
Instalasi ISO ke USB stick bootable, bagaimanapun, adalah masalah yang sama sekali berbeda. Canonical menunjukkan pendrivelinux yang merupakan alat GUI untuk Windows.
Pada Windows, Anda dapat menulis gambar instalasi dengan sejumlah utilitas yang berbeda. Berikut daftar link ke beberapa yang lebih populer dan mereka semua tersedia tanpa biaya:
Setelah instalasi selesai, Anda akan perlu untuk membuat node bare-metal Anda tersedia untuk lingkungan OpenStack Anda. Melampirkannya ke jaringan L2 yang sama (domain broadcast) sebagai simpul Guru, dan mengkonfigurasi mereka untuk secara otomatis booting melalui jaringan. UI akan menemukan mereka dan membuat mereka tersedia untuk menginstal OpenStack.

VirtualBox

Jika Anda ingin mengevaluasi Fuel pada VirtualBox, Anda dapat mengambil keuntungan dari set termasuk script yang membuat dan mengkonfigurasi semua VMs yang diperlukan untuk lingkungan tes, termasuk node Guru dan node Slave untuk OpenStack sendiri. Ini adalah sederhana, instalasi tunggal-klik.
Catatan 
 Script ini tidak didukung pada Windows langsung, tapi Anda masih dapat menguji pada Windows VirtualBox dengan menjalankan skrip pada Cygwin atau dengan menciptakan VMs sendiri.Lihat Manual Instalasi untuk lebih jelasnya.
Persyaratan untuk menjalankan BBM pada VirtualBox adalah:
Sebuah mesin host dengan Linux, Windows atau Mac OS. Kami merekomendasikan 64-bit host OS. Script telah diuji pada Mac OS 10.7.5, Mac OS 10.8.3, Ubuntu 12.04, Ubuntu 12.10, Fedora 19, OpenSUSE 12.2 / 12.3, dan Windows 7 x64 + Cygwin_x64.
VirtualBox 4.2.16 (atau yang lebih baru) diperlukan, bersama dengan paket ekstensi. Keduanya dapat didownload dari http://www.virtualbox.org/ .
8 GB + RAM
Akan mendukung 4 VMs untuk instalasi multi-node OpenStack (1 Guru node, 1 Pengendali node, 1 Compute node, 1 simpul cinder) dengan mengurangi ke 1.536 MB VM RAM. Untuk simpul cinder dedicated 768 MB RAM yang cukup.
atau
Akan mendukung 5 VMS untuk Multi-node dengan instalasi HA OpenStack (1 Guru simpul, 3 gabungan Pengendali + cinder node, 1 Compute node) dengan mengurangi 1280 jumlah MB RAM per VM. Seperti jumlah RAM per node di bawah persyaratan yang direkomendasikan untuk konfigurasi HA (2048+ MB per controller) dan dapat menyebabkan masalah yang tidak diinginkan.

Modus otomatis

Ketika Anda membongkar script VirtualBox, Anda akan melihat file penting berikut dan folder:
iso
folder ini harus berisi gambar ISO tunggal untuk bahan bakar. Setelah Anda telah men-download ISO dari portal, menyalin atau memindahkan ke direktori ini.
config.sh
File ini memungkinkan Anda untuk menentukan parameter yang digunakan untuk mengotomatisasi instalasi Fuel. Misalnya, Anda dapat memilih berapa banyak node virtual untuk memulai, serta berapa banyak memori, disk, dan pengolahan untuk mengalokasikan untuk setiap.
launch.sh
Setelah dieksekusi, script ini akan menggunakan ISO image dari direktori iso, membuat VM, mount image, dan secara otomatis menginstal node Fuel Guru. Setelah instalasi node Guru, script akan membuat Slave node untuk OpenStack dan boot mereka melalui PXE dari node Guru. Akhirnya, script akan memberikan link untuk mengakses UI berbasis Web untuk node Guru sehingga Anda dapat memulai instalasi lingkungan OpenStack.

manual Instalasi

Catatan 
 Langkah-langkah berikut ini hanya cocok untuk menyiapkan lingkungan vanili OpenStack untuk tujuan evaluasi saja.
Jika Anda tidak dapat atau lebih suka tidak menjalankan script pembantu kami, Anda masih bisa menjalankan BBM pada VirtualBox dengan mengikuti langkah-langkah ini.
Guru Deployment Node
Pertama, menciptakan Guru simpul VM.
  1. Mengkonfigurasi vboxnet0 antarmuka host-satunya di VirtualBox dengan pergi ke File -> Preferences -> Network dan mengklik ikon obeng.
  • Alamat IP: 10.20.0.1
  • Jaringan mask: 255.255.255.0
  • DHCP Server: dinonaktifkan
  1. Buat VM untuk node Guru dengan parameter berikut:
  • OS Type: Linux
  • Versi: Ubuntu (64bit)
  • RAM: 1536+ MB (2048+ MB dianjurkan)
  • HDD: 50 GB dengan ekspansi disk dinamis
  1. Memodifikasi pengaturan VM Anda:
  • Jaringan: Lampirkan Adapter 1 ke Host-hanya vboxnet0 adapter
  1. Daya pada VM untuk memulai instalasi. Pilih ISO Fuel Anda ketika diminta untuk memilih start-up disk.
  2. Tunggu pesan Welcome dengan semua informasi yang dibutuhkan untuk login ke UI Bahan Bakar.
Menambahkan Slave Node
Selanjutnya, buat Slave node mana OpenStack harus diinstal.
  1. Buat 3 atau 4 VMS tambahan tergantung pada keinginan Anda dengan parameter berikut:
  • OS Type: Linux, Versi: Ubuntu (64bit)
  • RAM: 1536+ MB (2048+ MB dianjurkan)
  • HDD: 50 + GB, dengan ekspansi disk dinamis
  • Jaringan 1: host-hanya vboxnet0 antarmuka, PCnet-FAST perangkat III
  1. Set Network sebagai pertama dalam urutan boot:
_images / vbox-gambar1.jpg
  1. Mengkonfigurasi dua atau lebih adapter jaringan pada setiap VM (untuk penggunaan adaptor jaringan tunggal untuk setiap VM Anda harus memilih "Gunakan VLAN Tagging" kemudian di UI Fuel):
_images / vbox-image2.jpg
  1. Buka runtuh "canggih", dan periksa pilihan berikut:
  • modus promiscuous adalah "Allow All"
  • Jenis Adapter adalah "PCnet-FAST III"
  • Kabel terhubung adalah On

Mengubah Parameter Jaringan Selama Instalasi

Berbasis konsol Pengaturan BBM memungkinkan Anda untuk menyesuaikan Fuel Admin (PXE boot) jaringan, yang memiliki jaringan default 10.20.0.2/24, gateway 10.20.0.1.
Untuk melakukannya, tekan <TAB> pada layar instalasi pertama yang mengatakan "Selamat datang Fuel Installer!" dan memperbarui opsi kernel showmenu = tidak ada untuk showmenu = yes. Atau, Anda dapat menekan tombol untuk memulai penataan Fuel selama boot pertama setelah instalasi.
Dalam Pengaturan BBM Anda dapat mengkonfigurasi parameter berikut:
  • DHCP / konfigurasi Static untuk setiap antarmuka jaringan
  • Pilih antarmuka untuk jaringan Admin Fuel
  • Mendefinisikan DHCP pool (bootstrap) dan berbagai statis (node ​​diinstal)
  • password root
  • Pilihan DNS
Fungsi utama dari alat ini adalah untuk menyediakan cara sederhana untuk mengkonfigurasi Bahan Bakar untuk lingkungan jaringan tertentu, sambil membantu untuk mendeteksi kesalahan awal sehingga Anda tidak perlu membuang waktu troubleshooting file konfigurasi individual. Ubah vm_master_ip parameter di config.sh sesuai jika anda menggunakan VirtualBox otomatis script untuk menyebarkan Fuel.
_images / bahan bakar menu-interfaces.jpg
Gunakan tombol panah untuk menavigasi melalui alat. Setelah Anda telah membuat perubahan, buka Simpan & Keluar.

Mengubah Parameter Jaringan Setelah Instalasi

Hal ini dimungkinkan untuk menjalankan "fuelmenu" dari shell root pada Fuel Guru simpul setelah penyebaran untuk membuat perubahan kecil untuk antarmuka jaringan, DNS, dan gateway. Pengaturan PXE, bagaimanapun, tidak dapat diubah setelah penyebaran karena akan menyebabkan kegagalan penyebaran.
PERINGATAN 
 Setelah pengaturan IP diatur pada saat booting untuk Fuel Guru node, mereka tidak harus diubah selama seluruh siklus hidup Fuel.

PXE Boot Settings

Secara default, eth0 Bahan Bakar Guru simpul melayani permintaan PXE. Jika Anda berencana untuk menggunakan antarmuka lain, Anda mengkonfigurasi ini dalam Mengubah Parameter Jaringan Selama Instalasi .
Jika Anda ingin menginstal Fuel pada mesin virtual, maka Anda perlu memastikan bahwa dnsmasq pada node Guru dikonfigurasi untuk mendukung klien PXE digunakan oleh mesin virtual Anda. Kami aktifkan opsi dhcp-no-override karena tanpa itu, dnsmasq mencoba untuk bergerak PXE nama file dan PXE servername bidang-bidang khusus dalam pilihan DHCP. Tidak semua implementasi PXE dapat mengenali orang-orang pilihan dan karena itu mereka tidak akan bisa boot. Misalnya, libvirt di CentOS 6.4 menggunakan implementasi gPXE, bukannya lebih maju iPXE secara default, dan karena itu memerlukan dhcp-no-override

Ketika Instalasi Guru Node Selesai

Setelah node Guru diinstal, daya pada semua node slave dan masuk ke UI Fuel. Login prompt pada konsol node master akan menunjukkan URL Anda perlu menggunakan. Alamat default adalah http://10.20.0.2:8000/
node slave akan secara otomatis boot ke modus bootstrap (CentOS Linux dalam memori berdasarkan) melalui PXE dan Anda akan melihat pemberitahuan pada antarmuka pengguna tentang node ditemukan. Pada titik ini, Anda dapat menciptakan lingkungan, menambahkan node ke dalamnya, dan mulai konfigurasi.
konfigurasi jaringan adalah bagian yang paling rumit, jadi silakan baca bagian jaringan dokumentasi dengan hati-hati.

Menghentikan Penyebaran dan Ulang Lingkungan

Menghentikan Penyebaran dari UI Web

Setelah mengklik "Deploy perubahan" dan penyebaran sendiri dimulai, sebuah tombol merah kecil di sebelah kanan progress bar akan muncul:
_images / stop_deployment_button.png
Dengan mengklik tombol ini, Anda dapat mengganggu proses penyebaran (dalam kasus kesalahan, misalnya). Hal ini dapat menyebabkan dua hasil yang mungkin:
  1. Jika tidak ada node telah selesai penyebaran (mencapai status "siap"), semua node akan reboot kembali untuk bootstrap. lingkungan akan diatur ulang ke keadaan tepat sebelum "Deploy Perubahan" ditekan. lingkungan mungkin didistribusikan dari awal. Dua hal yang akan terjadi di UI:
    • Pertama, semua node akan menjadi offline dan akhirnya akan kembali kembali online setelah reboot. Karena Anda tidak dapat menyebarkan lingkungan yang mencakup secara offline node, penyebaran berikutnya harus dimulai setelah semua node telah berhasil ditemukan dan laporan sebagaimana secara online di UI.
    • Kedua, semua pengaturan akan dibuka pada semua tab dan untuk semua node, sehingga pengguna dapat mengubah pengaturan sebelum memulai penyebaran baru.
Ini sangat mirip dengan ulang lingkungan ( Ulang lingkungan setelah penyebaran ).
  1. Beberapa node sudah dikerahkan (biasanya controller) dan telah mencapai "siap" status di UI. Dalam hal ini, perilaku akan berbeda:
    • Hanya node yang tidak mencapai status yang "siap" akan reboot kembali untuk bootstrap dan yang dikerahkan akan tetap utuh.
    • Pengaturan akan tetap terkunci karena mereka telah sudah diterapkan untuk beberapa node. Anda dapat mengatur ulang lingkungan ( Ulang lingkungan setelah penyebaran ) untuk reboot semua node, membuka semua parameter dan memindahkan lingkungan dari awal untuk menerapkannya lagi.
Catatan 
 Dalam rilis 4.1, penyebaran tidak dapat terganggu selama tahap penyediaan. Ini berarti bahwa pengguna dapat mengklik "Berhenti penyebaran" sementara node pengadaan, tetapi mereka akan reboot kembali untuk bootstrap hanya ketika OS instalasi selesai.

Ulang lingkungan setelah penyebaran

Sekarang proses penyebaran dapat diselesaikan dalam satu dari tiga cara (tidak termasuk menghapus lingkungan itu sendiri):
  1. Lingkungan dikerahkan berhasil
  2. Deployment gagal dan lingkungan menerima status "error"
  3. Deployment terputus dengan mengklik tombol "Berhenti Deployment" ( Menghentikan penyebaran dari UI Web )
Salah satu dari tiga kemungkinan ini akan mengarah pada "Reset" tombol di tab "Actions" untuk menjadi dibuka:
_images / reset_environment_button.png
Dengan mengklik, Anda akan mengatur ulang seluruh lingkungan ke keadaan yang sama seperti tepat sebelum "Menyebarkan perubahan" tombol diklik pada saat pertama.
  • Semua node akan menjadi offline dan akhirnya akan kembali kembali online setelah reboot. Karena Anda tidak dapat menyebarkan lingkungan yang mencakup secara offline node, penyebaran berikutnya harus dimulai setelah semua node telah berhasil ditemukan dan laporan sebagaimana secara online di UI.
  • Semua pengaturan akan dibuka pada semua tab dan untuk semua node, sehingga pengguna dapat mengubah pengaturan sebelum memulai penyebaran baru.

Tidak ada komentar:

Posting Komentar