Introdução
Este documento descreve as etapas que são parada-início exigido um o server defeituoso do cálculo em um Ultra-M setup que a rede virtual da série da política de Cisco dos anfitriões (CP) funciona (VNFs).
Nota: A liberação M 5.1.x é considerada ultra a fim definir os procedimentos neste documento. Este documento é pretendido para os Ciscos personnel que são familiares com a plataforma de Cisco Ultra-M e detalha as etapas exigidas ser realizado a OpenStack e nível CP VNF na altura do parada-início do server do cálculo.
Pré-requisitos
Backup
Antes que você parada-início um nó do cálculo, ele estiver importante verificar o estado atual de seu ambiente da plataforma de OpenStack do chapéu vermelho. Recomenda-se que você verifica o estado atual a fim evitar complicações.
Em caso da recuperação, Cisco recomenda tomar um backup do base de dados OSPD com o uso destas etapas.
<[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
Este processo assegura-se de que um nó possa ser substituído sem afetar a Disponibilidade de todos os exemplos. Também, é backup recomendado a configuração CP.
Use esta configuração a fim suportar CP VM da máquina virtual da gerente de cluster (VM).
[root@CM ~]# config_br.py -a export --all /mnt/backup/CPS_backup_28092016.tar.gz
Identifique os VM hospedados no nó do cálculo
Identifique os VM que são hospedados no server do cálculo.
[stack@director ~]$ nova list --field name,host,networks | grep compute-10
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | pod1-compute-10.localdomain | Replication=10.160.137.161; Internal=192.168.1.131; Management=10.225.247.229; tb1-orch=172.16.180.129
Nota: Na saída mostrada aqui, a primeira coluna corresponde universalmente ao identificador exclusivo (UUID), a segunda coluna é o nome VM e a terceira coluna é o hostname onde o VM esta presente. Os parâmetros desta saída serão usados nas seções subsequente.
Desabilite os serviços PCRF que residem no VM para ser parada programada
1. Entre ao IP de gerenciamento do VM.
[stack@XX-ospd ~]$ ssh root@<Management IP>
[root@XXXSM03 ~]# monit stop all
2. Se o anSM dos theVMis, OAMorArbiter, além, para os serviços do sessionmgr.
[root@XXXSM03 ~]# cd /etc/init.d
[root@XXXSM03 init.d]# ls -l sessionmgr*
-rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27717
-rwxr-xr-x 1 root root 4399 Nov 28 22:45 sessionmgr-27721
-rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27727
3. O arquivo de Forevery intitulou a parada do serviço sessionmgr- da corrida sessionmgr-.
[root@XXXSM03 init.d]# service sessionmgr-27717 stop
Sem energia gracioso
Parada programada VM do ESC
1. Entre ao nó ESC que corresponde ao VNF e verifique o estado do VM.
[admin@VNF2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli get esc_datamodel | egrep --color "<state>|<vm_name>|<vm_id>|<deployment_name>"
<snip>
<state>SERVICE_ACTIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c1_0_df4be88d-b4bf-4456-945a-3812653ee229</vm_name>
<state>VM_ALIVE_STATE</state>
<vm_name> VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d</vm_name>
<state>VM_ALIVE_STATE</state>
<snip>
2. Pare o VM com o uso de seu nome VM. (O nome VM notável da seção “identifica os VM hospedados no nó do cálculo”).
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli vm-action STOP VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
3. Uma vez que é parado, o VM deve incorporar o estado do DESLIGAMENTO.
[admin@VNF2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli get esc_datamodel | egrep --color "<state>|<vm_name>|<vm_id>|<deployment_name>"
<snip>
<state>SERVICE_ACTIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c1_0_df4be88d-b4bf-4456-945a-3812653ee229</vm_name>
<state>VM_ALIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c3_0_3e0db133-c13b-4e3d-ac14-
<state>VM_ALIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d</vm_name>
<state>VM_SHUTOFF_STATE</state>
<snip>
Parada-início do nó do cálculo
As etapas mencionadas nesta seção são comuns independentemente dos VM hospedados no nó do cálculo.
Nó do cálculo do Parada-início do OSPD
1. Verifique o estado e então o parada-início o nó.
[stack@director ~]$ nova list | grep compute-10
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod1-stack-compute-10 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
[stack@director ~]$ nova stop pod1-stack-compute-10
2. Espere o cálculo para estar no estado do desligamento & para começá-lo então outra vez.
[stack@director ~]$ nova start pod1-stack-compute-10
3. Certifique-se do nó novo do cálculo esteja no estado ativo.
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list |grep compute-10
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod1-stack-compute-10 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
[stack@director ~]$ source pod1-stackrc-Core
[stack@director ~]$ openstack hypervisor list |grep compute-10
| 6 | pod1-compute-10.localdomain |
Restaure os VM
Recuperação VM do ESC
1. Idealmente, de OSPD se você verifica a lista da nova, os VM devem estar no estado fechado. Neste caso, você precisa de começar os VM do ESC.
[admin@VNF2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action START VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
[sudo] password for admin:
2. Ou, se o VM está no estado de erro na lista da nova, execute esta configuração.
[stack@director ~]$ nova list |grep VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | ERROR | - | NOSTATE |
3. Agora, recupere o VM do ESC.
[admin@VNF2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli recovery-vm-action DO VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
[sudo] password for admin:
Recovery VM Action
/opt/cisco/esc/confd/bin/netconf-console --port=830 --host=127.0.0.1 --user=admin --privKeyFile=/root/.ssh/confd_id_dsa --privKeyType=dsa --rpc=/tmp/esc_nc_cli.ZpRCGiieuW
<?xml version="1.0" encoding="UTF-8"?>
<rpc-reply xmlns="urn:ietf:params:xml:ns:netconf:base:1.0" message-id="1">
<ok/>
</rpc-reply>
4. Monitore yangesc.log.
admin@VNF2-esc-esc-0 ~]$ tail -f /var/log/esc/yangesc.log
…
14:59:50,112 07-Nov-2017 WARN Type: VM_RECOVERY_COMPLETE
14:59:50,112 07-Nov-2017 WARN Status: SUCCESS
14:59:50,112 07-Nov-2017 WARN Status Code: 200
14:59:50,112 07-Nov-2017 WARN Status Msg: Recovery: Successfully recovered VM [VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d].
Verifique os serviços PCRF que residem no VM
Nota: Se o VM está no estado do DESLIGAMENTO, a seguir põe-no SOBRE com o uso do esc_nc_cli do ESC. Verifique diagnostics.sh da gerente de cluster VM e se você vem através de qualquer erro encontrado para os VM que estão recuperados então.
1. Entre ao VM respectivo.
[stack@XX-ospd ~]$ ssh root@<Management IP>
[root@XXXSM03 ~]# monit start all
2. Se o anSM dos theVMis, OAMorArbiter, além, enfia os serviços do sessionmgr que pararam mais cedo. O arquivo de Forevery intitulou o sessionmgr-, executa o começo do serviço sessionmgr-.
[root@XXXSM03 init.d]# service sessionmgr-27717 start
3. Se ainda o diagnóstico não é claro, a seguir execute build_all.sh da gerente de cluster VM e a execução VM-Init no VM respectivo.
/var/qps/install/current/scripts/build_all.sh
ssh VM e.g. ssh pcrfclient01
/etc/init.d/vm-init