Introducción
Esto documenta describe el procedimiento para recuperar la directiva virtualizada Cisco y los casos de carga de la función de las reglas (vPCRF) desplegados en el despliegue Ultra-M/Openstack.
Prerrequisitos
Requisitos
Cisco recomienda que tenga conocimiento sobre estos temas:
- Openstack
- CPS
- El cálculo en el cual los casos afectados fueron desplegados está disponible ahora.
- Los recursos del cálculo están disponibles en la misma Disponibilidad de la zona que el caso afectado.
- Los procedimientos para backup como se menciona en el documento se siguen/se programan periódicamente.
Componentes Utilizados
La información en este documento se basa en el CPS y aplicable a todas las versiones.
La información que contiene este documento se creó a partir de los dispositivos en un ambiente de laboratorio específico. Todos los dispositivos que se utilizan en este documento se pusieron en funcionamiento con una configuración verificada (predeterminada). Si tiene una red en vivo, asegúrese de entender el posible impacto de cualquier comando.
Troubleshooting
Potencia en el balanceador de la carga del estado del CIERRE
Si cualquier caso está en el estado del CIERRE debido a una parada normal prevista o a una cierta otra razón, utilice por favor este procedimiento para comenzar el caso y para activarlo vigilarlo en salida.
- Controle el estado del caso vía OpenStack.
source /home/stack/destackovsrc-Pcrf
nova list --fields name,host,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | destackovs-compute-2 | SHUTOFF|
- Controle si el cálculo está disponible y asegúrese que el estado esté para arriba.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
- Ábrase una sesión al master salida como usuario admin y controle el estado del caso en el opdata.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep PD r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 VM_ERROR_STATE
- Potencia en el caso del openstack.
source /home/stack/destackovsrc-Pcrf
nova start r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Espere cinco minutos el caso para arrancar y para venir al estado activo.
source /home/stack/destackovsrc-Pcrf
nova list -fields name,status | grep cm
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | ACTIVE |
- El monitor del permiso VM en salida después del caso está en el estado activo
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Para la recuperación adicional de las configuraciones del caso, refiera el tipo procedimientos específicos del caso proporcionados abajo.
Recupere cualquier caso del estado de error
Se utiliza este procedimiento si el estado del caso CPS en el openstack es ERROR:
- Controle el estado del caso en OpenStack.
source /home/stack/destackovsrc-Pcrf
nova list --fields name,host,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | destackovs-compute-2 | ERROR|
- Controle si el cálculo está disponible y se ejecuta muy bien.
source /home/stack/destackovsrc
nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’
| state | up |
| status | enabled |
- Ábrase una sesión al master salida como usuario admin y controle el estado del caso en el opdata.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep PD
r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 VM_ERROR_STATE
- Reajuste el estado del caso para forzar el caso de nuevo a un estado activo en vez de un estado de error, una vez que está hecho, reinicie su caso.
source /home/stack/destackovsrc-Pcrf
nova reset-state –active r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
nova reboot –-hard r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Espere cinco minutos el caso para arrancar y para venir al estado activo.
source /home/stack/destackovsrc-Pcrf
nova list –fields name,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | ACTIVE |
- Si el estado de los cambios del administrador de clúster al ACTIVE después de la reinicialización, monitor del permiso VM en salida después del caso del administrador de clúster está en el estado activo.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Fije la recuperación a ejecutarse/al estado activo, refiera el tipo procedimiento específico del caso para recuperar los config/los datos de la salvaguardia.
Cargue la recuperación del balanceador
Si un balanceador de la carga se recupera recientemente, utilice este procedimiento para restablecer el haproxy y la configuración de red:
- El script de reserva y del restore es un script de Python que se utilice para tomar la salvaguardia del item de configuración pedido, disponible localmente en el administrador de clúster VM o en otras VM. Cuando se requiere un restore, la configuración suministrada se copia a la ubicación pedida dentro del administrador de clúster VM o la VM específica.
Nombre: config_br.py
Ruta: /var/qps/install/current/scripts/modules
VM: Administrador de clúster
Cuando usted ejecuta este script, usted proporciona a las opciones y especifica la ubicación para el archivo de backup
Si se requiere para importar los datos de configuración libra del restore en el administrador de clúster, funcione con este comando:
config_br.py -a import --network --haproxy --users /mnt/backup/< backup_27092016.tar.gz >
Ejemplos de uso:
config_br.py - una exportación --etc --etc-oam --svn --stats /mnt/backup/backup_27092016.tar.gz
Datos de configuración de reserva de /etc/broadhop de OAM VM (pcrfclient), configuración del constructor de la directiva, y logstash
config_br.py - una importación --etc --etc-oam --svn --stats /mnt/backup/backup_27092016.tar.gz<
Datos del Restore de la configuración de /etc/broadhop de OAM VM (pcrfclient), de la configuración del constructor de la directiva, y del logstash
Si todavía hay un problema con la estabilidad y hay requisito al reinit el balanceador VM de la carga con los archivos de configuración de la marioneta del administrador de clúster después se realiza debajo de los pasos 2 y 3
- Para generar los archivos VM en el administrador de clúster que usa configuraciones más posteriores, funcione con este comando en el administrador de clúster:
/var/qps/install/current/scripts/build/build_all.sh
- Para poner al día el balanceador de la carga con configuración más posterior ábrase una sesión al carga-balanceador y ejecute esto:
ssh lbxx
/etc/init.d/vm-init
Verificación
Para verificar si la libra esté recuperada completamente o no el funcionamiento “resumen del monit” en la libra. Este comando verificará que todos los procesos de los qns y todos los procesos vigilados por el monit estén en un buen estado
- Examine qns-x.log en /var/log/broadhop. Esto registra se puede examinar para cualesquiera errores o error que podrían afectar al proceso del tráfico