El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
En este documento se describe cómo reconstruir un fabric SD-WAN de Cisco, incluidas las copias de seguridad y la restauración de las configuraciones del controlador para varias implementaciones.
Cisco recomienda que tenga conocimiento sobre estos temas:
La información que contiene este documento se creó a partir de los dispositivos en un ambiente de laboratorio específico. Todos los dispositivos que se utilizan en este documento se pusieron en funcionamiento con una configuración verificada (predeterminada). Si tiene una red en vivo, asegúrese de entender el posible impacto de cualquier comando.
Implementación de vManage
Opciones de DR
Nota: Para obtener más detalles sobre el tipo de recuperación ante desastres, consulte este enlace
Combinaciones:
| # | Configuración de vManage | Opción DR |
|---|---|---|
| 1 | Independiente (1 nodo) | No hay DR |
| 2 | Independiente (1 nodo) | DR de nodo único |
| 3 | Clúster (3 nodos o 6 nodos) | No hay DR |
| 4 | Clúster (3 nodos o 6 nodos) | Clúster de DR en espera |
Estos pasos son comunes a todas las combinaciones de implementación. Cubren el proceso de activar instancias de VM y aplicar la configuración básica de CLI. Cada sección de combinación indica cuántas instancias se deben implementar y qué pasos adicionales se deben completar.
Nota: Cisco ha cambiado la marca de determinados términos, por lo que estos son intercambiables. Cisco vManage = Cisco Catalyst Manager, Cisco vBond = Cisco Catalyst Validator, Cisco vSmart = Cisco Catalyst Controller
Descargue los archivos OVA para los controladores SD-WAN de la página de descarga de software de Cisco aquí:
Nota: En las plataformas ESXi/en la nube, active los controladores vSmart, vBond y vManage mediante el archivo OVA. Consulte el documento vinculado y asegúrese de que se asignen suficientes CPU, RAM y discos a todos los controladores, según el tipo de implementación de SD-WAN. Navegue aquí para obtener información adicional. Asegúrese de asignar un disco secundario al nodo vManage como se menciona en la columna Storage Size* (Tamaño de almacenamiento) de la guía informática vinculada.
For a standalone vManage, choose the persona as COMPUTE_AND_DATA.
For a 3 node cluster, on 3 vManage nodes, the persona is set to COMPUTE_AND_DATA.
For a 6 node cluster, on 3 vManage nodes the persona is COMPUTE_AND_DATA and on rest 3 vManage nodes persona DATA.
Ejemplo:Elija 1 para COMPUTE_AND_DATA

Elija el disco secundario como se muestra:


Ejemplo:

Nota: Puede consultar la configuración del vManage existente y configurar el mismo esquema de direcciones IP aquí.
Conf t
vpn 0
no interface eth0
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
Ejemplo:

Nota: Puede consultar la configuración del vBond existente y configurar las mismas configuraciones aquí.
Conf t
vpn 0
no interface eth0
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
commit
Una vez que tenga acceso SSH a todos los controladores, configure estas configuraciones CLI en cada controlador.
config t
system
host-name
system-ip
site-id
organization-name
vbond
commit
Nota: Si utilizamos URL como dirección vBond, asegúrese de configurar las direcciones IP del servidor DNS en la configuración VPN 0 o asegúrese de que se puedan resolver.
Estas configuraciones son necesarias en todos los controladores para habilitar la interfaz de transporte utilizada para establecer conexiones de control con los routers y el resto de los controladores.
config t
vpn 0
dns primary
dns secondary
interface eth1
ip address
tunnel-interface
allow-service all
allow-service dhcp
allow-service dns
allow-service icmp
no allow-service sshd
no allow-service netconf
no allow-service ntp
no allow-service stun
allow-service https
!
no shutdown
!
ip route 0.0.0.0/0
commit
Nota: Puede consultar las configuraciones de su controlador existente y si la configuración está presente, puede agregar esta configuración a los nuevos controladores.
Configure el protocolo de control como TLS solo si hay un requisito para que los routers establezcan conexiones de control seguras con los nodos vManage mediante TLS. De forma predeterminada, todos los controladores y routers establecen conexiones de control mediante DTLS. Se trata de una configuración opcional que solo se requiere en los nodos vSmart y vManage, según sus necesidades.
Conf t
security
control
protocol tls
Commit
Asegúrese de que el número de instancias de Cisco SD-WAN Manager activas sea idéntico al número de las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager ejecuten la misma versión de software.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager puedan alcanzar la dirección IP de administración del Cisco SD-WAN Validator.
Asegúrese de que los certificados se hayan instalado en las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que los relojes de todos los dispositivos Cisco Catalyst SD-WAN, incluidas las nuevas instancias de Cisco SD-WAN Manager instaladas, estén sincronizados.
Asegúrese de que se haya configurado un nuevo conjunto de IP del sistema e ID del sitio en las instancias de Cisco SD-WAN Manager recién instaladas, junto con la misma configuración básica que el clúster activo.




En este caso, si estamos utilizando nuestra propia CA, autoridad de certificación de empresa, elija Empresa.


Vaya a Configuration > Devices > Control Components en caso de nodos vManage 20.15/20.18. En el caso de las versiones 20.9/20.12, Configuración > Dispositivos > Controladores
Nota: Necesitamos usar las credenciales de administración de vBono una parte de usuario denetadmingroup. Puede verificarlo en la CLI de thevBond. Elija Sí en el menú desplegable de "Generar CSR" si necesitamos instalar un nuevo certificado para vBond.
Nota: Si vBond está detrás de un dispositivo NAT/firewall, verifique si la IP de la interfaz VPN 0 de vBond se traduce a una IP pública. Si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la interfaz VPN 0 en este paso.

Haga clic en Add vSmart en el caso de 20.12 vManage o Add Controller en el caso de 20.15/20.18 vManage.
Se abre una ventana emergente, introduzca la IP de transporte VPN 0 de vSmart, a la que se puede acceder desde vManage.
Compruebe la disponibilidad mediante ping si se permite desde la CLI de vManage a vSmart IP.
Introduzca las credenciales de usuario de vSmart Note que necesitamos para utilizar las credenciales de administrador de vSmart o una parte de usuario del grupo netadmin.
Puede comprobarlo en la CLI de vSmart.
Establezca el protocolo en TLS, si pretendemos utilizar TLS para routers para establecer conexiones de control con vSmart. Esta configuración también debe configurarse en CLI de nodos vsmarts y vManage.
Elija Sí en el menú desplegable "Generar CSR" si necesitamos instalar un nuevo certificado para vSmart.
Nota: Si vSmart está detrás del dispositivo NAT/firewall, compruebe si la IP de la interfaz VPN 0 de vSmart se traduce a una IP pública y si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la IP de la interfaz VPN 0 en este paso.

Una vez completados todos los pasos, verifique que todos los componentes de control sean accesibles en Monitor>Dashboard


Confirme que configuration-db se esté ejecutando en el nodo vManage.
Puede verificar lo mismo mediante el comando request nms configuration-db status onvManageCLI. El resultado es como se muestra
vmanage# request nms configuration-db status
NMS configuration database
Enabled: true
Status: running PID:32632 for 1066085s
Native metrics status: ENABLED
Server-load metrics status: ENABLED
vmanage#
Utilice este comando para recopilar la copia de seguridad de la base de datos de configuración del nodo vManage del líder de la base de datos de configuración identificado.
request nms configuration-db backup path /opt/data/backup/
El resultado esperado es el siguiente:
vmanage# request nms configuration-db backup path /opt/data/backup/june18th
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved backup to /opt/data/backup/june18th.tar.gz
sha256sum: 8d0f5af8aee4e70f05e3858be6bdd5e6c136134ae47c383569ec883080f5d359
Removing the temp staging dir :/opt/data/backup/staging
vmanage#
Copie la copia de seguridad de la base de datos de configuración en el directorio /home/admin/ de vManage mediante SCP.
Ejemplo de resultado del comando scp:
XXXXXXXXX Downloads % scp june18th.tar.gz admin@10.66.62.27:/home/admin/
viptela 20.15.4.1
(admin@10.66.62.27) Password:
(admin@10.66.62.27) Password:
june18th.tar.gz 0% 255KB 47.2KB/s - stalled -
Para restaurar la copia de seguridad de la base de datos de configuración, primero debemos configurar las credenciales de la base de datos de configuración. Si sus credenciales de configuration-db son predeterminadas (neo4j/password), podemos saltarnos este paso.
Para configurar las credenciales de configuration-db, utilice el comando request nms configuration-db update-admin-user. Utilice el nombre de usuario y la contraseña que desee.
Tenga en cuenta que el servidor de aplicaciones de vManage se reinicia. Debido a lo cual, la interfaz de usuario de vManage se vuelve inaccesible durante un breve período de tiempo.
vmanage# request nms configuration-db update-admin-user
configuration-db
Enter current user name:neo4j
Enter current user password:password
Enter new user name:ciscoadmin
Enter new user password:ciscoadmin
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully updated configuration database admin user(this is service node, please repeat same operation on all service/data nodes)
Successfully restarted vManage Device Data Collector
Successfully restarted NMS application server
Successfully restarted NMS data collection agent
vmanage#
Publicación en la que podemos continuar con la restauración de la copia de seguridad de la base de datos de configuración:
Podemos utilizar el comando request nms configuration-db restore path /home/admin/< > para restaurar la base de datos de configuración en el nuevo vManage:
vmanage# request nms configuration-db restore path /home/admin/june18th.tar.gz
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Successfully backup database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Configuration database is running in a standalone mode
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully saved cluster configuration for localhost
Successfully saved vManage root CA information for device: "53f95156-f56b-472f-b713-d164561b25b7"
Stopping NMS application server on localhost
Stopping NMS configuration database on localhost
Reseting NMS configuration database on localhost
Loading NMS configuration database on localhost
Starting NMS configuration database on localhost
Waiting for 180s or the instance to start...
NMS configuration database on localhost has started.
Updating DB with the saved cluster configuration data
Successfully reinserted cluster meta information
Successfully reinserted vmanage root ca information
Starting NMS application server on localhost
Waiting for 180s for the instance to start...
Successfully restored database
Una vez restaurada la base de datos de configuración, asegúrese de que se puede acceder a la interfaz de usuario de vManage. Espere unos 5 minutos e intente acceder a la interfaz de usuario.
Una vez que haya iniciado sesión correctamente en la interfaz de usuario, asegúrese de que la lista de routers periféricos, la plantilla, las políticas y el resto de las configuraciones que estaban presentes en la interfaz de usuario de vManage anterior o existente se reflejan en la nueva interfaz de usuario de vManage.
Una vez restaurada la base de datos de configuración, necesitamos volver a autenticar todos los nuevos controladores (vmanage/vsmart/vbond) en el fabric.
Nota: En la producción real, si la IP de interfaz utilizada para la reautenticación es la IP de interfaz de túnel, debe asegurarse de que se permite el servicio NETCONF en la interfaz de túnel de vManage, vSmart y vBond, así como en los firewalls a lo largo de la ruta. El puerto del firewall que se debe abrir es el puerto TCP 830 como regla bidireccional desde el clúster DR a todos los vBonds y vsmarts.
En vmanage UI, haga clic en Configuration > Devices > Controllers


Una vez que todos los controladores estén incorporados, complete este paso:
En cualquier servidor Cisco SD-WAN Manager del clúster recién activo, realice estas acciones:
Ingrese este comando para sincronizar el certificado raíz con todos los dispositivos Cisco Catalyst SD-WAN en el agrupamiento recientemente activo:
https://vmanage-url/dataservice/system/device/sync/rootcertchain
Ingrese este comando para sincronizar el UUID de Cisco SD-WAN Manager con el Validador de Cisco SD-WAN:
https://vmanage-url/dataservice/certificate/syncvbond
Una vez restaurado el fabric y activadas las sesiones de control y bfd para todos los bordes y controladores del fabric, debemos invalidar los controladores antiguos (vmanage/vsmart/vbond) de la interfaz de usuario
Nota: Continúe con la sección Post Checks (Comprobaciones posteriores) que se muestra aquí, que es común a todas las combinaciones de implementación.
Asegúrese de que el número de instancias activas de Cisco SD-WAN Manager sea idéntico al número de instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager ejecuten la misma versión de software.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager puedan alcanzar la dirección IP de administración del Cisco SD-WAN Validator.
Asegúrese de que los certificados se hayan instalado en las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que los relojes de todos los dispositivos Cisco Catalyst SD-WAN, incluidas las nuevas instancias de Cisco SD-WAN Manager instaladas, estén sincronizados.
Asegúrese de que se haya configurado un nuevo conjunto de IP del sistema e ID del sitio en las instancias de Cisco SD-WAN Manager recién instaladas, junto con la misma configuración básica que el clúster activo.




En este caso, si estamos utilizando nuestra propia CA, autoridad de certificación de empresa, elija Empresa.


Vaya a Configuration > Devices > Control Components en caso de nodos vManage 20.15/20.18. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Nota: Necesitamos usar las credenciales de administración de vBono una parte de usuario denetadmingroup. Puede verificarlo en la CLI de thevBond. Elija Sí en el menú desplegable de "Generar CSR" si necesitamos instalar un nuevo certificado para vBond
Nota: Si vBond está detrás de un dispositivo NAT/firewall, verifique si la IP de la interfaz VPN 0 de vBond se traduce a una IP pública. Si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la interfaz VPN 0 en este paso

Haga clic en Add vSmart en el caso de 20.12 vManage o Add Controller en el caso de 20.15/20.18 vManage.
Se abre una ventana emergente, introduzca la IP de transporte VPN 0 de vSmart, a la que se puede acceder desde vManage.
Compruebe la disponibilidad mediante ping si se permite desde la CLI de vManage a vSmart IP.
Introduzca las credenciales de usuario de vSmart Note que necesitamos para utilizar las credenciales de administrador de vSmart o una parte de usuario del grupo netadmin.
Puede comprobarlo en la CLI de vSmart.
Establezca el protocolo en TLS, si pretendemos utilizar TLS para routers para establecer conexiones de control con vSmart. Esta configuración también debe configurarse en CLI de nodos vsmarts y vManage.
Elija Sí en el menú desplegable "Generar CSR" si necesitamos instalar un nuevo certificado para vSmart.
Nota: Si vSmart está detrás del dispositivo NAT/firewall, compruebe si la IP de la interfaz VPN 0 de vSmart se traduce a una IP pública y si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la IP de la interfaz VPN 0 en este paso.

Una vez completados todos los pasos, verifique que todos los componentes de control sean accesibles en Monitor>Dashboard


Nota: Mientras recopila la copia de seguridad de la base de datos de configuración del nodo de vManage existente que tiene habilitada la recuperación ante desastres, asegúrese de que se recopila después de pausar y eliminar la recuperación ante desastres de ese nodo.
Confirme que no hay replicación de recuperación ante desastres en curso. Vaya a Administration > Disaster Recovery y asegúrese de que el estado es Correcto y no está en un estado transitorio, como Importación pendiente, Exportación pendiente o Descarga pendiente. Si el estado no es correcto, póngase en contacto con Cisco TAC y asegúrese de que la replicación es correcta antes de proceder a pausar la recuperación ante desastres.
En primer lugar, detenga la recuperación ante desastres y asegúrese de que la tarea se ha completado. A continuación, elimine la recuperación ante desastres y confirme que la tarea se ha completado.

Póngase en contacto con el TAC de Cisco para asegurarse de que la recuperación ante desastres se ha limpiado correctamente.
Confirme que configuration-db se esté ejecutando en el nodo vManage.
Puede verificar lo mismo mediante el comando request nms configuration-db statusonvManageCLI. El resultado es como se muestra
vmanage# request nms configuration-db status
NMS configuration database
Enabled: true
Status: running PID:32632 for 1066085s
Native metrics status: ENABLED
Server-load metrics status: ENABLED
vmanage#
Utilice este comando para recopilar la copia de seguridad de la base de datos de configuración del nodo vManage del líder de la base de datos de configuración identificado.
request nms configuration-db backup path /opt/data/backup/
El resultado esperado es el siguiente:
vmanage# request nms configuration-db backup path /opt/data/backup/june18th
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved backup to /opt/data/backup/june18th.tar.gz
sha256sum: 8d0f5af8aee4e70f05e3858be6bdd5e6c136134ae47c383569ec883080f5d359
Removing the temp staging dir :/opt/data/backup/staging
vmanage#
Copie la copia de seguridad de la base de datos de configuración en el directorio /home/admin/ de vManage mediante SCP.
Ejemplo de resultado del comando scp:
XXXXXXXXX Downloads % scp june18th.tar.gz admin@10.66.62.27:/home/admin/
viptela 20.15.4.1
(admin@10.66.62.27) Password:
(admin@10.66.62.27) Password:
june18th.tar.gz 0% 255KB 47.2KB/s - stalled -
Para restaurar la copia de seguridad de la base de datos de configuración, primero debemos configurar las credenciales de la base de datos de configuración. Si sus credenciales de configuration-db son predeterminadas (neo4j/password), podemos saltarnos este paso.
Para configurar las credenciales de configuration-db, utilice el comando request nms configuration-db update-admin-user.Use el nombre de usuario y la contraseña que desee.
Tenga en cuenta que el servidor de aplicaciones de vManage se reinicia. Debido a lo cual, la interfaz de usuario de vManage se vuelve inaccesible durante un breve período de tiempo.
vmanage# request nms configuration-db update-admin-user
configuration-db
Enter current user name:neo4j
Enter current user password:password
Enter new user name:ciscoadmin
Enter new user password:ciscoadmin
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully updated configuration database admin user(this is service node, please repeat same operation on all service/data nodes)
Successfully restarted vManage Device Data Collector
Successfully restarted NMS application server
Successfully restarted NMS data collection agent
vmanage#
Publicación en la que podemos continuar con la restauración de la copia de seguridad de la base de datos de configuración:
Podemos utilizar el comando request nms configuration-db restore path /home/admin/< > para restaurar la base de datos de configuración en el nuevo vManage:
vmanage# request nms configuration-db restore path /home/admin/june18th.tar.gz
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Successfully backup database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Configuration database is running in a standalone mode
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully saved cluster configuration for localhost
Successfully saved vManage root CA information for device: "53f95156-f56b-472f-b713-d164561b25b7"
Stopping NMS application server on localhost
Stopping NMS configuration database on localhost
Reseting NMS configuration database on localhost
Loading NMS configuration database on localhost
Starting NMS configuration database on localhost
Waiting for 180s or the instance to start...
NMS configuration database on localhost has started.
Updating DB with the saved cluster configuration data
Successfully reinserted cluster meta information
Successfully reinserted vmanage root ca information
Starting NMS application server on localhost
Waiting for 180s for the instance to start...
Successfully restored database
Una vez restaurada la base de datos de configuración, asegúrese de que se puede acceder a la interfaz de usuario de vManage. Espere unos 5 minutos e intente acceder a la interfaz de usuario.
Una vez que haya iniciado sesión correctamente en la interfaz de usuario, asegúrese de que la lista de routers periféricos, la plantilla, las políticas y el resto de las configuraciones que estaban presentes en la interfaz de usuario de vManage anterior o existente se reflejan en la nueva interfaz de usuario de vManage.
Consulte el paso 2: Comprobaciones previas en la combinación 2: vManage independiente + DR de nodo único y asegúrese de que hemos cumplido todos los requisitos antes de continuar con la activación de la recuperación ante desastres.
Interfaz de clúster fuera de banda en VPN 0
La configuración mínima para vManageantes del registro de recuperación ante desastres, como se muestra a continuación
config t
system
host-name
system-ip
site-id
organization-name
vbond
commit
Nota: Si utilizamos URL como dirección vBond, asegúrese de configurar las direcciones IP del servidor DNS en la configuración VPN 0 o asegúrese de que se puedan resolver.
Estas configuraciones son necesarias para habilitar la interfaz de transporte utilizada para establecer conexiones de control con los routers y el resto de los controladores
config t
vpn 0
dns primary
dns secondary
interface eth1
ip address
tunnel-interface
allow-service all
allow-service dhcp
allow-service dns
allow-service icmp
no allow-service sshd
no allow-service netconf
no allow-service ntp
no allow-service stun
allow-service https
!
no shutdown
!
ip route 0.0.0.0/0
commit
Configure también la interfaz de administración VPN 512para habilitar el acceso de administración fuera de banda al controlador.
Conf t
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
commit
Configure la interfaz de servicio en el nodo vManage. Esta interfaz se utiliza para la comunicación DR,
conf t
interface eth2
ip address
no shutdown
commit
Asegúrese de que la misma subred IP se utiliza para la interfaz de servicio en el vManage principal y el DR vManage
Continúe con los pasos dados en la sección Combinación 2: vManage independiente + DR de nodo único Paso 3: Configure la interfaz de usuario, los certificados y los controladores integrados de vManage para instalar el certificado en el vManage de recuperación ante desastres.

Una vez rellenado, haga clic en "Siguiente".
Rellene los detalles de los controladores de vBond.
Los controladores vBond deben ser accesibles en la dirección IP especificada a través de Netconf.
Las credenciales deben ser las de un usuario netadmin (dradmin) y no deben cambiarse una vez configurado el DR.
Para ello, se recomienda que vBond configure localmente este usuario dradmin o que utilice el usuario admin para agregar vBond.


En la programación de replicación, defina el valor de 'Intervalo de replicación’.Cada tiempo del intervalo de replicación, los datos se replican desde el principal vManage a vManage secundario El valor mínimo configurable es de 15 minutos.


Tenga en cuenta que la GUI de vManage se reinicia durante este proceso.
Una vez finalizado, se debe ver el estado Correcto.

Vaya aAdministración → Recuperación ante desastrespara ver el estado de Recuperación ante desastres y cuándo se replicaron los datos por última vez.

Una vez restaurada la base de datos de configuración, necesitamos volver a autenticar todos los nuevos controladores (vmanage/vsmart/vbond) en el fabric
Nota: En la producción real, si la IP de interfaz utilizada para la reautenticación es la IP de interfaz de túnel, debe asegurarse de que se permite el servicio NETCONF en la interfaz de túnel de vManage, vSmart y vBond, así como en los firewalls a lo largo de la ruta. El puerto del firewall que se debe abrir es el puerto TCP 830 como regla bidireccional desde el clúster DR a todos los vBonds y vsmarts .
En vmanage UI, haga clic en Configuration > Devices > Controllers

Una vez que todos los controladores estén incorporados, complete este paso:
En cualquier servidor Cisco SD-WAN Manager del clúster recién activo, realice estas acciones:
Ingrese este comando para sincronizar el certificado raíz con todos los dispositivos Cisco Catalyst SD-WAN en el agrupamiento recientemente activo:
https://vmanage-url/dataservice/system/device/sync/rootcertchain
Ingrese este comando para sincronizar el UUID de Cisco SD-WAN Manager con el Validador de Cisco SD-WAN:
https://vmanage-url/dataservice/certificate/syncvbond
Una vez restaurado el fabric y activadas las sesiones de control y bfd para todos los bordes y controladores del fabric, debemos invalidar los controladores antiguos (vmanage/vsmart/vbond) de la interfaz de usuario
Nota: Continúe con la sección Post Checks (Comprobaciones posteriores) que se muestra aquí, que es común a todas las combinaciones de implementación.
Instancias necesarias:
Pasos:
Asegúrese de que el número de instancias activas de Cisco SD-WAN Manager sea idéntico al número de instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager ejecuten la misma versión de software.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager puedan alcanzar la dirección IP de administración del Cisco SD-WAN Validator.
Asegúrese de que los certificados se hayan instalado en las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que los relojes de todos los dispositivos Cisco Catalyst SD-WAN, incluidas las nuevas instancias de Cisco SD-WAN Manager instaladas, estén sincronizados.
Asegúrese de que se haya configurado un nuevo conjunto de IP del sistema e ID del sitio en las instancias de Cisco SD-WAN Manager recién instaladas, junto con la misma configuración básica que el clúster activo.




En este caso, si estamos utilizando nuestra propia CA, autoridad de certificación de empresa, elija Empresa.


Vaya a Configuration > Devices > Control Components en caso de nodos vManage 20.15/20.18. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Nota: Necesitamos usar las credenciales de administración de vBono una parte de usuario denetadmingroup. Puede verificarlo en la CLI de thevBond. Elija Sí en el menú desplegable de "Generar CSR" si necesitamos instalar un nuevo certificado para vBond
Nota: Si vBond está detrás de un dispositivo NAT/firewall, verifique si la IP de la interfaz VPN 0 de vBond se traduce a una IP pública. Si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la interfaz VPN 0 en este paso

Haga clic en Add vSmart en el caso de 20.12 vManage o Add Controller en el caso de 20.15/20.18 vManage.
Se abre una ventana emergente, introduzca la IP de transporte VPN 0 de vSmart, a la que se puede acceder desde vManage.
Compruebe la disponibilidad mediante ping si se permite desde la CLI de vManage a vSmart IP.
Introduzca las credenciales de usuario de vSmart Note que necesitamos para utilizar las credenciales de administrador de vSmart o una parte de usuario del grupo netadmin.
Puede comprobarlo en la CLI de vSmart.
Establezca el protocolo en TLS, si pretendemos utilizar TLS para routers para establecer conexiones de control con vSmart. Esta configuración también debe configurarse en CLI de nodos vsmarts y vManage.
Elija Sí en el menú desplegable "Generar CSR" si necesitamos instalar un nuevo certificado para vSmart.
Nota: Si vSmart está detrás del dispositivo NAT/firewall, compruebe si la IP de la interfaz VPN 0 de vSmart se traduce a una IP pública y si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la IP de la interfaz VPN 0 en este paso.

Una vez completados todos los pasos, verifique que todos los componentes de control sean accesibles en Monitor>Dashboard


Nota: vManage Cluster se puede configurar con 3 nodos vManage o 6 nodos vManage en función del número de sitios incorporados al fabric SD-WAN. Consulte el clúster de vManage existente y elija el número de nodos de la misma forma.
config t
system
host-name
system-ip
site-id
organization-name
vbond
commit
Nota: Si utilizamos URL como dirección vBond, asegúrese de configurar las direcciones IP del servidor DNS en la configuración VPN 0 o asegúrese de que se puedan resolver.
Estas configuraciones son necesarias para habilitar la interfaz de transporte utilizada para establecer conexiones de control con los routers y el resto de los controladores.
config t
vpn 0
dns primary
dns secondary
interface eth1
ip address
tunnel-interface
allow-service all
allow-service dhcp
allow-service dns
allow-service icmp
no allow-service sshd
no allow-service netconf
no allow-service ntp
no allow-service stun
allow-service https
!
no shutdown
!
ip route 0.0.0.0/0
commit
Configure también la interfaz de administración VPN 512para habilitar el acceso de administración fuera de banda al controlador.
Conf t
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
Commit
Configuración opcional:
Conf t
security
control
protocol tls
commit
Configure la interfaz de servicio en todos los thevManagenodes, incluido vManage-1, que ya se ha incorporado. Esta interfaz se utiliza para la comunicación del clúster, lo que significa comunicación entre losnodos de administración del clúster.
conf t
interface eth2
ip address
no shutdown
commit
Asegúrese de que se utiliza la misma subred IP para la interfaz de servicio en todos los nodos delclúster de administración.
Podemos utilizar las mismas credenciales de administrador de thevManagenodes para configurar thevManagecluster. De lo contrario, podemos configurar una nueva credencial de usuario que forma parte denetadmingroup. Las configuraciones para configurar las nuevas credenciales de usuario son las siguientes
conf t
system
aaa
user
password
group netadmin
commit
Asegúrese de configurar las mismas credenciales de usuario en todos los vManagenodesque forman parte del clúster.Si decidimos utilizar credenciales de administrador, debe ser el mismo nombre de usuario/contraseña en todos los vManagenodes.
Vaya a Configuration > Certificates > Control Components en el caso de los nodos 20.15/20.18 vManage. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Haga clic en ... para Manager/vManage y haga clic en Generate CSR.

Una vez generada la CSR, puede descargar la CSR y firmarla en función de la autoridad de certificados elegida para los controladores. Puede verificar esta configuración en Administration > Settings > Controller Certificate Authorization. Si se elige Cisco (recomendado), vManage carga automáticamente el CSR en el portal PNP y, una vez firmado el certificado, se instala automáticamente en vManage.
Si selecciona Manual, firme manualmente el CSR mediante el portal PNP de Cisco accediendo a la cuenta inteligente y a la cuenta virtual de la superposición SD-WAN respectiva. Se aplica el mismo procedimiento si utilizamos Digicert y el certificado raíz de empresa.
Una vez que el certificado esté disponible en el portal PNP, haga clic en Instalar certificado en la misma sección de vManage y cargue el certificado e instálelo.
Complete este paso en todos los nodos de vManage que forman parte del clúster.
Nota: Para un clúster de 3 nodos, los 3 nodos de vManage se activan con compute+data como persona.

Nota: Haga referencia a esta configuración en su clúster existente para habilitar SDAVC: solo debe comprobarse si es necesario y sólo es necesario en un nodo vManage del clúster.
Haga clic en Actualizar.




Estos puntos deben tenerse en cuenta antes de agregar el siguiente nodo al clúster:
Verifique estos puntos en todas las UI de los nodos vManage que se han agregado al clúster hasta el momento:
Una vez que todos los controladores estén incorporados, complete este paso:
Nota: Mientras recopila la copia de seguridad de la base de datos de configuración del clúster de vManage existente que tiene habilitada la recuperación ante desastres, asegúrese de que se recopila después de pausar y eliminar la recuperación ante desastres de ese nodo.
Confirme que no hay replicación de recuperación ante desastres en curso. Vaya a Administration > Disaster Recovery y asegúrese de que el estado es Correcto y no está en un estado transitorio, como Importación pendiente, Exportación pendiente o Descarga pendiente. Si el estado no es correcto, póngase en contacto con Cisco TAC y asegúrese de que la replicación es correcta antes de proceder a pausar la recuperación ante desastres.
En primer lugar, detenga la recuperación ante desastres y asegúrese de que la tarea se ha completado. A continuación, elimine la recuperación ante desastres y confirme que la tarea se ha completado.

Póngase en contacto con el TAC de Cisco para asegurarse de que la recuperación ante desastres se ha limpiado correctamente.
Puede verificar lo mismo mediante el comando requestnmsconfiguration-dbstatus en vManageCLI. El resultado es como se muestra
vmanage# request nms configuration-db status
NMS configuration database
Enabled: true
Status: running PID:32632 for 1066085s
Native metrics status: ENABLED
Server-load metrics status: ENABLED
vmanage#
vManage-3# request nms configuration-db diagnostics
NMS configuration database
Checking cluster connectivity for ports 7687,7474 ...
Pinging vManage node 0 on 169.254.1.5:7687,7474...
Starting Nping 0.7.80 ( https://nmap.org/nping ) at 2026-02-18 12:41 UTC
SENT (0.0013s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (0.0022s) Handshake with 169.254.1.5:7474 completed
SENT (1.0024s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (1.0028s) Handshake with 169.254.1.5:7687 completed
SENT (2.0044s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (2.0050s) Handshake with 169.254.1.5:7474 completed
SENT (3.0064s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (3.0072s) Handshake with 169.254.1.5:7687 completed
SENT (4.0083s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (4.0091s) Handshake with 169.254.1.5:7474 completed
SENT (5.0106s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (5.0115s) Handshake with 169.254.1.5:7687 completed
Max rtt: 0.906ms | Min rtt: 0.392ms | Avg rtt: 0.724ms
TCP connection attempts: 6 | Successful connections: 6 | Failed: 0 (0.00%)
Nping done: 1 IP address pinged in 5.01 seconds
Pinging vManage node 1 on 169.254.2.5:7687,7474...
========== SNIP ==========
Connecting to 10.10.10.3...
+------------------------------------------------------------------------------------+
| type | row | attributes[row]["value"] |
+------------------------------------------------------------------------------------+
| "StoreSizes" | "TotalStoreSize" | 85828934 |
| "PageCache" | "Flush" | 4268666 |
| "PageCache" | "EvictionExceptions" | 0 |
| "PageCache" | "UsageRatio" | 0.09724264705882353 |
| "PageCache" | "Eviction" | 2068 |
| "PageCache" | "HitRatio" | 1.0 |
| "ID Allocations" | "NumberOfRelationshipIdsInUse" | 2068 |
| "ID Allocations" | "NumberOfPropertyIdsInUse" | 56151 |
| "ID Allocations" | "NumberOfNodeIdsInUse" | 7561 |
| "ID Allocations" | "NumberOfRelationshipTypeIdsInUse" | 31 |
| "Transactions" | "LastCommittedTxId" | 214273 |
| "Transactions" | "NumberOfOpenTransactions" | 1 |
| "Transactions" | "NumberOfOpenedTransactions" | 441742 |
| "Transactions" | "PeakNumberOfConcurrentTransactions" | 11 |
| "Transactions" | "NumberOfCommittedTransactions" | 414568 |
| "Causal Cluster" | "IsLeader" | 1 >>>>>>>>> |
| "Causal Cluster" | "MsgProcessDelay" | 0 |
| "Causal Cluster" | "InFlightCacheTotalBytes" | 0 |
+------------------------------------------------------------------------------------+
18 rows
ready to start consuming query after 388 ms, results consumed after another 13 ms
Completed
Connecting to 10.10.10.3...
Displaying the Neo4j Cluster Status
+---------------------------------------------------------------------------------------------------------------------------------+
| name | aliases | access | address | role | requestedStatus | currentStatus | error | default | home |
+---------------------------------------------------------------------------------------------------------------------------------+
| "neo4j" | [] | "read-write" | "169.254.3.5:7687" | "leader" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.1.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "system" | [] | "read-write" | "169.254.3.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.1.5:7687" | "leader" | "online" | "online" | "" | FALSE | FALSE |
+---------------------------------------------------------------------------------------------------------------------------------+
6 rows
ready to start consuming query after 256 ms, results consumed after another 3 ms
Completed
Total disk space used by configuration-db:
60M .
Utilice este comando para recopilar la copia de seguridad de la base de datos de configuración del nodo vManage del líder de la base de datos de configuración identificado.
request nms configuration-db backup path /opt/data/backup/
El resultado esperado es el siguiente:
vmanage# request nms configuration-db backup path /opt/data/backup/june18th
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved backup to /opt/data/backup/june18th.tar.gz
sha256sum: 8d0f5af8aee4e70f05e3858be6bdd5e6c136134ae47c383569ec883080f5d359
Removing the temp staging dir :/opt/data/backup/staging
vmanage#
Copie la copia de seguridad de la base de datos de configuración en el directorio /home/admin/ de vManage mediante SCP.
Ejemplo de resultado del comando scp:
XXXXXXXXX Downloads % scp june18th.tar.gz admin@10.66.62.27:/home/admin/
viptela 20.15.4.1
(admin@10.66.62.27) Password:
(admin@10.66.62.27) Password:
june18th.tar.gz 0% 255KB 47.2KB/s - stalled -
Para restaurar la copia de seguridad de la base de datos de configuración, primero debemos configurar las credenciales de la base de datos de configuración. Si sus credenciales de configuration-db son predeterminadas (neo4j/password), podemos saltarnos este paso.
Para configurar las credenciales de configuration-db, utilice el comando request nms configuration-db update-admin-user.Use el nombre de usuario y la contraseña que desee.
Tenga en cuenta que el servidor de aplicaciones de vManage se reinicia. Debido a lo cual, la interfaz de usuario de vManage se vuelve inaccesible durante un breve período de tiempo.
vmanage# request nms configuration-db update-admin-user
configuration-db
Enter current user name:neo4j
Enter current user password:password
Enter new user name:ciscoadmin
Enter new user password:ciscoadmin
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully updated configuration database admin user(this is service node, please repeat same operation on all service/data nodes)
Successfully restarted vManage Device Data Collector
Successfully restarted NMS application server
Successfully restarted NMS data collection agent
vmanage#
Publicación en la que podemos continuar con la restauración de la copia de seguridad de la base de datos de configuración:
Podemos utilizar el comando request nms configuration-db restore path /home/admin/< > para restaurar la base de datos de configuración en el nuevo vManage:
vmanage# request nms configuration-db restore path /home/admin/june18th.tar.gz
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Successfully backup database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Configuration database is running in a standalone mode
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully saved cluster configuration for localhost
Successfully saved vManage root CA information for device: "53f95156-f56b-472f-b713-d164561b25b7"
Stopping NMS application server on localhost
Stopping NMS configuration database on localhost
Reseting NMS configuration database on localhost
Loading NMS configuration database on localhost
Starting NMS configuration database on localhost
Waiting for 180s or the instance to start...
NMS configuration database on localhost has started.
Updating DB with the saved cluster configuration data
Successfully reinserted cluster meta information
Successfully reinserted vmanage root ca information
Starting NMS application server on localhost
Waiting for 180s for the instance to start...
Successfully restored database
Una vez restaurada la base de datos de configuración, asegúrese de que se puede acceder a la interfaz de usuario de vManage. Espere unos 5 minutos e intente acceder a la interfaz de usuario.
Una vez que haya iniciado sesión correctamente en la interfaz de usuario, asegúrese de que la lista de routers periféricos, la plantilla, las políticas y el resto de las configuraciones que estaban presentes en la interfaz de usuario de vManage anterior o existente se reflejan en la nueva interfaz de usuario de vManage.
Una vez restaurada la base de datos de configuración, necesitamos volver a autenticar todos los nuevos controladores (vmanage/vsmart/vbond) en el fabric
Nota: En la producción real, si la IP de interfaz utilizada para la reautenticación es la IP de interfaz de túnel, debe asegurarse de que se permite el servicio NETCONF en la interfaz de túnel de vManage, vSmart y vBond, así como en los firewalls a lo largo de la ruta. El puerto del firewall que se debe abrir es el puerto TCP 830 como regla bidireccional desde el clúster DR a todos los vBonds y vsmarts .
En vmanage UI, haga clic en Configuration > Devices > Controllers

Una vez que todos los controladores estén incorporados, complete este paso:
En cualquier servidor Cisco SD-WAN Manager del clúster recién activo, realice estas acciones:
Ingrese este comando para sincronizar el certificado raíz con todos los dispositivos Cisco Catalyst SD-WAN en el agrupamiento recientemente activo:
https://vmanage-url/dataservice/system/device/sync/rootcertchain
Ingrese este comando para sincronizar el UUID de Cisco SD-WAN Manager con el Validador de Cisco SD-WAN:
https://vmanage-url/dataservice/certificate/syncvbond
Una vez restaurado el fabric y activadas las sesiones de control y bfd para todos los bordes y controladores del fabric, debemos invalidar los controladores antiguos (vmanage/vsmart/vbond) de la interfaz de usuario
Nota: Continúe con la sección Post Checks (Comprobaciones posteriores) que se muestra aquí, que es común a todas las combinaciones de implementación.
¿Qué es Manual/Cold Standby DR ? El servidor de respaldo SD-WAN Manager o el clúster de SD-WAN Manager se mantiene apagado en el estado de espera en frío.
Se realizan copias de seguridad periódicas de la base de datos activa y, si el clúster del administrador de SD-WAN o el administrador de SD-WAN principal deja de funcionar, el clúster del administrador de SD-WAN o el administrador de SD-WAN en espera se activa manualmente y la base de datos de copia de seguridad se restaura en él.
Instancias necesarias:
Pasos:
Asegúrese de que el número de instancias de Cisco SD-WAN Manager activas sea idéntico al número de instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager ejecuten la misma versión de software.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager puedan alcanzar la dirección IP de administración del Cisco SD-WAN Validator.
Asegúrese de que los certificados se hayan instalado en las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que los relojes de todos los dispositivos Cisco Catalyst SD-WAN, incluidas las nuevas instancias de Cisco SD-WAN Manager instaladas, estén sincronizados.
Asegúrese de que se haya configurado un nuevo conjunto de IP del sistema e ID del sitio en las instancias de Cisco SD-WAN Manager recién instaladas, junto con la misma configuración básica que el clúster activo.




En este caso, si estamos utilizando nuestra propia CA, autoridad de certificación de empresa, elija Empresa.


Vaya a Configuration > Devices > Control Components en caso de nodos vManage 20.15/20.18. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Nota: Necesitamos usar las credenciales de administración de vBono una parte de usuario denetadmingroup. Puede verificarlo en la CLI de thevBond. Elija Sí en el menú desplegable de "Generar CSR" si necesitamos instalar un nuevo certificado para vBond
Nota: Si vBond está detrás de un dispositivo NAT/firewall, verifique si la IP de la interfaz VPN 0 de vBond se traduce a una IP pública. Si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la interfaz VPN 0 en este paso

Haga clic en Add vSmart en el caso de 20.12 vManage o Add Controller en el caso de 20.15/20.18 vManage.
Se abre una ventana emergente, introduzca la IP de transporte VPN 0 de vSmart, a la que se puede acceder desde vManage.
Compruebe la disponibilidad mediante ping si se permite desde la CLI de vManage a vSmart IP.
Introduzca las credenciales de usuario de vSmart Note que necesitamos para utilizar las credenciales de administrador de vSmart o una parte de usuario del grupo netadmin.
Puede comprobarlo en la CLI de vSmart.
Establezca el protocolo en TLS, si pretendemos utilizar TLS para routers para establecer conexiones de control con vSmart. Esta configuración también debe configurarse en CLI de nodos vsmarts y vManage.
Elija Sí en el menú desplegable "Generar CSR" si necesitamos instalar un nuevo certificado para vSmart.
Nota: Si vSmart está detrás del dispositivo NAT/firewall, compruebe si la IP de la interfaz VPN 0 de vSmart se traduce a una IP pública y si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la IP de la interfaz VPN 0 en este paso.

Una vez completados todos los pasos, verifique que todos los componentes de control sean accesibles en Monitor>Dashboard


Nota: vManage Cluster se puede configurar con 3 nodos vManage o 6 nodos vManage en función del número de sitios incorporados al fabric SD-WAN
Continúe con los pasos compartidos en "Controladores SD-WAN integrados con vManage de un solo nodo en la superposición SD-WAN" para activar primero el fabric SD-WAN con un nodo vManage e integrar todos los validadores (vBond) y controladores (vSmart) necesarios.
config t
system
host-name
system-ip
site-id
organization-name
vbond
commit
Nota: Si utilizamos URL como dirección vBond, asegúrese de configurar las direcciones IP del servidor DNS en la configuración VPN 0 o asegúrese de que se puedan resolver.
Estas configuraciones son necesarias para habilitar la interfaz de transporte utilizada para establecer conexiones de control con los routers y el resto de los controladores.
config t
vpn 0
dns primary
dns secondary
interface eth1
ip address
tunnel-interface
allow-service all
allow-service dhcp
allow-service dns
allow-service icmp
no allow-service sshd
no allow-service netconf
no allow-service ntp
no allow-service stun
allow-service https
!
no shutdown
!
ip route 0.0.0.0/0
commit
Configure también la interfaz de administración VPN 512para habilitar el acceso de administración fuera de banda al controlador.
Conf t
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
Commit
Configuración opcional:
Conf t
security
control
protocol tls
commit
Configure la interfaz de servicio en todos los thevManagenodes, incluido vManage-1, que ya se ha incorporado. Esta interfaz se utiliza para la comunicación del clúster, lo que significa comunicación entre losnodos de administración del clúster.
conf t
interface eth2
ip address
no shutdown
commit
Asegúrese de que se utiliza la misma subred IP para la interfaz de servicio en todos los nodos delclúster de administración.
Podemos utilizar las mismas credenciales de administrador de thevManagenodes para configurar thevManagecluster. De lo contrario, podemos configurar una nueva credencial de usuario que forma parte denetadmingroup. Las configuraciones para configurar las nuevas credenciales de usuario son las siguientes
conf t
system
aaa
user
password
group netadmin
commit
Asegúrese de configurar las mismas credenciales de usuario en todos los thevManagenodesque forman parte del clúster.Si decidimos utilizar credenciales de administrador, debe ser el mismo nombre de usuario/contraseña en todos los thevManagenodes.
Vaya a Configuration > Certificates > Control Components en el caso de los nodos 20.15/20.18 vManage. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Haga clic en ... para Manager/vManage y haga clic en Generate CSR.

Una vez generada la CSR, puede descargar la CSR y firmarla en función de la autoridad de certificados elegida para los controladores. Puede verificar esta configuración en Administration > Settings > Controller Certificate Authorization. Si se elige Cisco (recomendado), vManage carga automáticamente el CSR en el portal PNP y, una vez firmado el certificado, se instala automáticamente en vManage.
Si elige Manual, firme manualmente el CSR mediante el portal PNP de Cisco. Para ello, vaya a la cuenta inteligente y a la cuenta virtual de la superposición SD-WAN correspondiente.
Una vez que el certificado esté disponible en el portal PNP, haga clic en Instalar certificado en la misma sección de vManage y cargue el certificado e instálelo.
El mismo procedimiento es aplicable si estamos utilizando Digicert y Enterprise Root Certificate.
Complete este paso en todos los nodos de vManage que forman parte del clúster.
Nota: Para un clúster de 3 nodos, los 3 nodos de vManage se activan con compute+data como persona.
Configuración opcional:
Consulte esta configuración en el clúster existente para Habilitar SDAVC: sólo debe comprobarse si es necesario y sólo es necesario en un nodo vManage del clúster.
Haga clic en Actualizar.



Estos puntos deben tenerse en cuenta antes de agregar el siguiente nodo al clúster:
Verifique estos puntos en todas las UI de los nodos vManage que se han agregado al clúster hasta el momento:
Puede activar un clúster más de vManage siguiendo los pasos descritos en el Paso 4: Generar clúster de vManage. Publicación que completa los pasos descritos en el paso 6: Copia de seguridad/Restauración de Config-db para restaurar la copia de seguridad de config-db en el clúster en espera.
Puede verificar lo mismo mediante el comando requestnmsconfiguration-dbstatus en vManageCLI. El resultado es como se muestra
vmanage# request nms configuration-db status
NMS configuration database
Enabled: true
Status: running PID:32632 for 1066085s
Native metrics status: ENABLED
Server-load metrics status: ENABLED
vmanage#
vManage-3# request nms configuration-db diagnostics
NMS configuration database
Checking cluster connectivity for ports 7687,7474 ...
Pinging vManage node 0 on 169.254.1.5:7687,7474...
Starting Nping 0.7.80 ( https://nmap.org/nping ) at 2026-02-18 12:41 UTC
SENT (0.0013s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (0.0022s) Handshake with 169.254.1.5:7474 completed
SENT (1.0024s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (1.0028s) Handshake with 169.254.1.5:7687 completed
SENT (2.0044s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (2.0050s) Handshake with 169.254.1.5:7474 completed
SENT (3.0064s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (3.0072s) Handshake with 169.254.1.5:7687 completed
SENT (4.0083s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (4.0091s) Handshake with 169.254.1.5:7474 completed
SENT (5.0106s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (5.0115s) Handshake with 169.254.1.5:7687 completed
Max rtt: 0.906ms | Min rtt: 0.392ms | Avg rtt: 0.724ms
TCP connection attempts: 6 | Successful connections: 6 | Failed: 0 (0.00%)
Nping done: 1 IP address pinged in 5.01 seconds
Pinging vManage node 1 on 169.254.2.5:7687,7474...
========== SNIP ==========
Connecting to 10.10.10.3...
+------------------------------------------------------------------------------------+
| type | row | attributes[row]["value"] |
+------------------------------------------------------------------------------------+
| "StoreSizes" | "TotalStoreSize" | 85828934 |
| "PageCache" | "Flush" | 4268666 |
| "PageCache" | "EvictionExceptions" | 0 |
| "PageCache" | "UsageRatio" | 0.09724264705882353 |
| "PageCache" | "Eviction" | 2068 |
| "PageCache" | "HitRatio" | 1.0 |
| "ID Allocations" | "NumberOfRelationshipIdsInUse" | 2068 |
| "ID Allocations" | "NumberOfPropertyIdsInUse" | 56151 |
| "ID Allocations" | "NumberOfNodeIdsInUse" | 7561 |
| "ID Allocations" | "NumberOfRelationshipTypeIdsInUse" | 31 |
| "Transactions" | "LastCommittedTxId" | 214273 |
| "Transactions" | "NumberOfOpenTransactions" | 1 |
| "Transactions" | "NumberOfOpenedTransactions" | 441742 |
| "Transactions" | "PeakNumberOfConcurrentTransactions" | 11 |
| "Transactions" | "NumberOfCommittedTransactions" | 414568 |
| "Causal Cluster" | "IsLeader" | 1 >>>>>>>>> |
| "Causal Cluster" | "MsgProcessDelay" | 0 |
| "Causal Cluster" | "InFlightCacheTotalBytes" | 0 |
+------------------------------------------------------------------------------------+
18 rows
ready to start consuming query after 388 ms, results consumed after another 13 ms
Completed
Connecting to 10.10.10.3...
Displaying the Neo4j Cluster Status
+---------------------------------------------------------------------------------------------------------------------------------+
| name | aliases | access | address | role | requestedStatus | currentStatus | error | default | home |
+---------------------------------------------------------------------------------------------------------------------------------+
| "neo4j" | [] | "read-write" | "169.254.3.5:7687" | "leader" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.1.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "system" | [] | "read-write" | "169.254.3.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.1.5:7687" | "leader" | "online" | "online" | "" | FALSE | FALSE |
+---------------------------------------------------------------------------------------------------------------------------------+
6 rows
ready to start consuming query after 256 ms, results consumed after another 3 ms
Completed
Total disk space used by configuration-db:
60M .
Utilice este comando para recopilar la copia de seguridad de la base de datos de configuración del nodo vManage del líder de la base de datos de configuración identificado.
request nms configuration-db backup path /opt/data/backup/
El resultado esperado es el siguiente:
vmanage# request nms configuration-db backup path /opt/data/backup/june18th
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved backup to /opt/data/backup/june18th.tar.gz
sha256sum: 8d0f5af8aee4e70f05e3858be6bdd5e6c136134ae47c383569ec883080f5d359
Removing the temp staging dir :/opt/data/backup/staging
vmanage#
Copie la copia de seguridad de la base de datos de configuración en el directorio /home/admin/ de vManage mediante SCP.
Ejemplo de resultado del comando scp:
XXXXXXXXX Downloads % scp june18th.tar.gz admin@10.66.62.27:/home/admin/
viptela 20.15.4.1
(admin@10.66.62.27) Password:
(admin@10.66.62.27) Password:
june18th.tar.gz 0% 255KB 47.2KB/s - stalled -
Para restaurar la copia de seguridad de la base de datos de configuración, primero debemos configurar las credenciales de la base de datos de configuración. Si sus credenciales de configuration-db son predeterminadas (neo4j/password), podemos saltarnos este paso.
Para configurar las credenciales de configuration-db, utilice el comando request nms configuration-db update-admin-user.Use el nombre de usuario y la contraseña que desee.
Tenga en cuenta que el servidor de aplicaciones de vManage se reinicia. Debido a lo cual, la interfaz de usuario de vManage se vuelve inaccesible durante un breve período de tiempo.
vmanage# request nms configuration-db update-admin-user
configuration-db
Enter current user name:neo4j
Enter current user password:password
Enter new user name:ciscoadmin
Enter new user password:ciscoadmin
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully updated configuration database admin user(this is service node, please repeat same operation on all service/data nodes)
Successfully restarted vManage Device Data Collector
Successfully restarted NMS application server
Successfully restarted NMS data collection agent
vmanage#
Publicación en la que podemos continuar con la restauración de la copia de seguridad de la base de datos de configuración:
Podemos utilizar el comando request nms configuration-db restore path /home/admin/< > para restaurar la base de datos de configuración en el nuevo vManage:
vmanage# request nms configuration-db restore path /home/admin/june18th.tar.gz
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Successfully backup database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Configuration database is running in a standalone mode
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully saved cluster configuration for localhost
Successfully saved vManage root CA information for device: "53f95156-f56b-472f-b713-d164561b25b7"
Stopping NMS application server on localhost
Stopping NMS configuration database on localhost
Reseting NMS configuration database on localhost
Loading NMS configuration database on localhost
Starting NMS configuration database on localhost
Waiting for 180s or the instance to start...
NMS configuration database on localhost has started.
Updating DB with the saved cluster configuration data
Successfully reinserted cluster meta information
Successfully reinserted vmanage root ca information
Starting NMS application server on localhost
Waiting for 180s for the instance to start...
Successfully restored database
Una vez restaurada la base de datos de configuración, asegúrese de que se puede acceder a la interfaz de usuario de vManage. Espere unos 5 minutos e intente acceder a la interfaz de usuario.
Una vez que haya iniciado sesión correctamente en la interfaz de usuario, asegúrese de que la lista de routers periféricos, la plantilla, las políticas y el resto de las configuraciones que estaban presentes en la interfaz de usuario de vManage anterior o existente se reflejan en la nueva interfaz de usuario de vManage.
Una vez restaurada la base de datos de configuración, necesitamos volver a autenticar todos los nuevos controladores (vmanage/vsmart/vbond) en el fabric
Nota: En la producción real, si la IP de interfaz utilizada para la reautenticación es la IP de interfaz de túnel, debe asegurarse de que se permite el servicio NETCONF en la interfaz de túnel de vManage, vSmart y vBond, así como en los firewalls a lo largo de la ruta. El puerto del firewall que se debe abrir es el puerto TCP 830 como regla bidireccional desde el clúster DR a todos los vBonds y vsmarts .
En vmanage UI, haga clic en Configuration > Devices > Controllers

Una vez que todos los controladores estén incorporados, complete este paso:
En cualquier servidor Cisco SD-WAN Manager del clúster recién activo, realice estas acciones:
Ingrese este comando para sincronizar el certificado raíz con todos los dispositivos Cisco Catalyst SD-WAN en el agrupamiento recientemente activo:
https://vmanage-url/dataservice/system/device/sync/rootcertchain
Ingrese este comando para sincronizar el UUID de Cisco SD-WAN Manager con el Validador de Cisco SD-WAN:
https://vmanage-url/dataservice/certificate/syncvbond
Una vez restaurado el fabric y activadas las sesiones de control y bfd para todos los bordes y controladores del fabric, debemos invalidar los controladores antiguos (vmanage/vsmart/vbond) de la interfaz de usuario
Nota: Continúe con la sección Post Checks (Comprobaciones posteriores) que se muestra aquí, que es común a todas las combinaciones de implementación.
Instancias necesarias:
Pasos:
Asegúrese de que el número de instancias de Cisco SD-WAN Manager activas sea idéntico al número de instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager ejecuten la misma versión de software.
Asegúrese de que todas las instancias activas y nuevas de Cisco SD-WAN Manager puedan alcanzar la dirección IP de administración del Cisco SD-WAN Validator.
Asegúrese de que los certificados se hayan instalado en las instancias de Cisco SD-WAN Manager recién instaladas.
Asegúrese de que los relojes de todos los dispositivos Cisco Catalyst SD-WAN, incluidas las nuevas instancias de Cisco SD-WAN Manager instaladas, estén sincronizados.
Asegúrese de que se haya configurado un nuevo conjunto de IP del sistema e ID del sitio en las instancias de Cisco SD-WAN Manager recién instaladas, junto con la misma configuración básica que el clúster activo.




En este caso, si estamos utilizando nuestra propia CA, autoridad de certificación de empresa, elija Empresa.


Vaya a Configuration > Devices > Control Components en caso de nodos vManage 20.15/20.18. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Nota: Necesitamos usar las credenciales de administración de vBono una parte de usuario denetadmingroup. Puede verificarlo en la CLI de thevBond. Elija Sí en el menú desplegable de "Generar CSR" si necesitamos instalar un nuevo certificado para vBond
Nota: Si vBond está detrás de un dispositivo NAT/firewall, verifique si la IP de la interfaz VPN 0 de vBond se traduce a una IP pública. Si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la interfaz VPN 0 en este paso

Haga clic en Add vSmart en el caso de 20.12 vManage o Add Controller en el caso de 20.15/20.18 vManage.
Se abre una ventana emergente, introduzca la IP de transporte VPN 0 de vSmart, a la que se puede acceder desde vManage.
Compruebe la disponibilidad mediante ping si se permite desde la CLI de vManage a vSmart IP.
Introduzca las credenciales de usuario de vSmart Note que necesitamos para utilizar las credenciales de administrador de vSmart o una parte de usuario del grupo netadmin.
Puede comprobarlo en la CLI de vSmart.
Establezca el protocolo en TLS, si pretendemos utilizar TLS para routers para establecer conexiones de control con vSmart. Esta configuración también debe configurarse en CLI de nodos vsmarts y vManage.
Elija Sí en el menú desplegable "Generar CSR" si necesitamos instalar un nuevo certificado para vSmart.
Nota: Si vSmart está detrás del dispositivo NAT/firewall, compruebe si la IP de la interfaz VPN 0 de vSmart se traduce a una IP pública y si la IP de la interfaz VPN 0 no es accesible desde vManage, utilice la dirección IP pública de la IP de la interfaz VPN 0 en este paso.

Una vez completados todos los pasos, verifique que todos los componentes de control sean accesibles en Monitor>Dashboard


Nota: vManage Cluster se puede configurar con 3 nodos vManage o 6 nodos vManage en función del número de sitios incorporados al fabric SD-WAN
Continúe con los pasos compartidos en "Controladores SD-WAN integrados con vManage de un solo nodo en la superposición SD-WAN" para activar primero el fabric SD-WAN con un nodo vManage e integrar todos los validadores (vBond) y controladores (vSmart) necesarios.
config t
system
host-name
system-ip
site-id
organization-name
vbond
commit
Nota: Si utilizamos URL como dirección vBond, asegúrese de configurar las direcciones IP del servidor DNS en la configuración VPN 0 o asegúrese de que se puedan resolver.
Estas configuraciones son necesarias para habilitar la interfaz de transporte utilizada para establecer conexiones de control con los routers y el resto de los controladores.
config t
vpn 0
dns primary
dns secondary
interface eth1
ip address
tunnel-interface
allow-service all
allow-service dhcp
allow-service dns
allow-service icmp
no allow-service sshd
no allow-service netconf
no allow-service ntp
no allow-service stun
allow-service https
!
no shutdown
!
ip route 0.0.0.0/0
commit
Configure también la interfaz de administración VPN 512para habilitar el acceso de administración fuera de banda al controlador.
Conf t
vpn 512
interface eth0
ip address
no shutdown
!
ip route 0.0.0.0/0
!
Commit
Configuración opcional:
Conf t
security
control
protocol tls
commit
Configure la interfaz de servicio en todos los thevManagenodes, incluido vManage-1, que ya se ha incorporado. Esta interfaz se utiliza para la comunicación del clúster, lo que significa comunicación entre losnodos de administración del clúster.
conf t
interface eth2
ip address
no shutdown
commit
Asegúrese de que se utiliza la misma subred IP para la interfaz de servicio en todos los nodos delclúster de administración.
Podemos utilizar las mismas credenciales de administrador de thevManagenodes para configurar thevManagecluster. De lo contrario, podemos configurar una nueva credencial de usuario que forma parte denetadmingroup. Las configuraciones para configurar las nuevas credenciales de usuario son las siguientes
conf t
system
aaa
user
password
group netadmin
commit
Asegúrese de configurar las mismas credenciales de usuario en todos los thevManagenodesque forman parte del clúster.Si decidimos utilizar credenciales de administrador, debe ser el mismo nombre de usuario/contraseña en todos los thevManagenodes.
Vaya a Configuration > Certificates > Control Components en el caso de los nodos 20.15/20.18 vManage. En el caso de las versiones 20.9/20.12, Configuration > Devices > Controllers
Haga clic en ... para Manager/vManage y haga clic en Generate CSR.

Una vez generada la CSR, puede descargar la CSR y firmarla en función de la autoridad de certificados elegida para los controladores. Puede verificar esta configuración en Administration > Settings > Controller Certificate Authorization. Si se elige Cisco (recomendado), vManage carga automáticamente el CSR en el portal PNP y, una vez firmado el certificado, se instala automáticamente en vManage.
Si elige Manual, firme manualmente el CSR mediante el portal PNP de Cisco. Para ello, vaya a la cuenta inteligente y a la cuenta virtual de la superposición SD-WAN correspondiente.
Una vez que el certificado esté disponible en el portal PNP, haga clic en Instalar certificado en la misma sección de vManage y cargue el certificado e instálelo.
El mismo procedimiento es aplicable si estamos utilizando Digicert y Enterprise Root Certificate.
Complete este paso en todos los nodos de vManage que forman parte del clúster.
Nota: Para un clúster de 3 nodos, los 3 nodos de vManage se activan con compute+data como persona. Para un clúster de 6 nodos, 3 nodos de vManage se activan con compute+data como persona y 3 nodos de vManage se activan con datos como persona.

Configuración opcional:
Consulte esta configuración en el clúster existente para Habilitar SDAVC: sólo debe comprobarse si es necesario y sólo es necesario en un nodo vManage del clúster.
Haga clic en Actualizar.



Estos puntos deben tenerse en cuenta antes de agregar el siguiente nodo al clúster:
Verifique estos puntos en todas las UI de los nodos vManage que se han agregado al clúster hasta el momento:
Nota: Mientras recopila la copia de seguridad de la base de datos de configuración del clúster de vManage existente que tiene habilitada la recuperación ante desastres, asegúrese de que se recopila después de pausar y eliminar la recuperación ante desastres de ese nodo.
Confirme que no hay replicación de recuperación ante desastres en curso. Vaya a Administration > Disaster Recovery y asegúrese de que el estado es Correcto y no está en un estado transitorio, como Importación pendiente, Exportación pendiente o Descarga pendiente. Si el estado no es correcto, póngase en contacto con Cisco TAC y asegúrese de que la replicación es correcta antes de proceder a pausar la recuperación ante desastres.
En primer lugar, detenga la recuperación ante desastres y asegúrese de que la tarea se ha completado. A continuación, elimine la recuperación ante desastres y confirme que la tarea se ha completado.

Póngase en contacto con el TAC de Cisco para asegurarse de que la recuperación ante desastres se ha limpiado correctamente.
Puede verificar lo mismo mediante el comando requestnmsconfiguration-dbstatus en vManageCLI. El resultado es como se muestra
vmanage# request nms configuration-db status
NMS configuration database
Enabled: true
Status: running PID:32632 for 1066085s
Native metrics status: ENABLED
Server-load metrics status: ENABLED
vmanage#
vManage-3# request nms configuration-db diagnostics
NMS configuration database
Checking cluster connectivity for ports 7687,7474 ...
Pinging vManage node 0 on 169.254.1.5:7687,7474...
Starting Nping 0.7.80 ( https://nmap.org/nping ) at 2026-02-18 12:41 UTC
SENT (0.0013s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (0.0022s) Handshake with 169.254.1.5:7474 completed
SENT (1.0024s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (1.0028s) Handshake with 169.254.1.5:7687 completed
SENT (2.0044s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (2.0050s) Handshake with 169.254.1.5:7474 completed
SENT (3.0064s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (3.0072s) Handshake with 169.254.1.5:7687 completed
SENT (4.0083s) Starting TCP Handshake > 169.254.1.5:7474
RCVD (4.0091s) Handshake with 169.254.1.5:7474 completed
SENT (5.0106s) Starting TCP Handshake > 169.254.1.5:7687
RCVD (5.0115s) Handshake with 169.254.1.5:7687 completed
Max rtt: 0.906ms | Min rtt: 0.392ms | Avg rtt: 0.724ms
TCP connection attempts: 6 | Successful connections: 6 | Failed: 0 (0.00%)
Nping done: 1 IP address pinged in 5.01 seconds
Pinging vManage node 1 on 169.254.2.5:7687,7474...
========== SNIP ==========
Connecting to 10.10.10.3...
+------------------------------------------------------------------------------------+
| type | row | attributes[row]["value"] |
+------------------------------------------------------------------------------------+
| "StoreSizes" | "TotalStoreSize" | 85828934 |
| "PageCache" | "Flush" | 4268666 |
| "PageCache" | "EvictionExceptions" | 0 |
| "PageCache" | "UsageRatio" | 0.09724264705882353 |
| "PageCache" | "Eviction" | 2068 |
| "PageCache" | "HitRatio" | 1.0 |
| "ID Allocations" | "NumberOfRelationshipIdsInUse" | 2068 |
| "ID Allocations" | "NumberOfPropertyIdsInUse" | 56151 |
| "ID Allocations" | "NumberOfNodeIdsInUse" | 7561 |
| "ID Allocations" | "NumberOfRelationshipTypeIdsInUse" | 31 |
| "Transactions" | "LastCommittedTxId" | 214273 |
| "Transactions" | "NumberOfOpenTransactions" | 1 |
| "Transactions" | "NumberOfOpenedTransactions" | 441742 |
| "Transactions" | "PeakNumberOfConcurrentTransactions" | 11 |
| "Transactions" | "NumberOfCommittedTransactions" | 414568 |
| "Causal Cluster" | "IsLeader" | 1 >>>>>>>>> |
| "Causal Cluster" | "MsgProcessDelay" | 0 |
| "Causal Cluster" | "InFlightCacheTotalBytes" | 0 |
+------------------------------------------------------------------------------------+
18 rows
ready to start consuming query after 388 ms, results consumed after another 13 ms
Completed
Connecting to 10.10.10.3...
Displaying the Neo4j Cluster Status
+---------------------------------------------------------------------------------------------------------------------------------+
| name | aliases | access | address | role | requestedStatus | currentStatus | error | default | home |
+---------------------------------------------------------------------------------------------------------------------------------+
| "neo4j" | [] | "read-write" | "169.254.3.5:7687" | "leader" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "neo4j" | [] | "read-write" | "169.254.1.5:7687" | "follower" | "online" | "online" | "" | TRUE | TRUE |
| "system" | [] | "read-write" | "169.254.3.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.2.5:7687" | "follower" | "online" | "online" | "" | FALSE | FALSE |
| "system" | [] | "read-write" | "169.254.1.5:7687" | "leader" | "online" | "online" | "" | FALSE | FALSE |
+---------------------------------------------------------------------------------------------------------------------------------+
6 rows
ready to start consuming query after 256 ms, results consumed after another 3 ms
Completed
Total disk space used by configuration-db:
60M .
Utilice este comando para recopilar la copia de seguridad de la base de datos de configuración del nodo vManage del líder de la base de datos de configuración identificado.
request nms configuration-db backup path /opt/data/backup/
El resultado esperado es el siguiente:
vmanage# request nms configuration-db backup path /opt/data/backup/june18th
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved backup to /opt/data/backup/june18th.tar.gz
sha256sum: 8d0f5af8aee4e70f05e3858be6bdd5e6c136134ae47c383569ec883080f5d359
Removing the temp staging dir :/opt/data/backup/staging
vmanage#
Copie la copia de seguridad de la base de datos de configuración en el directorio /home/admin/ de vManage mediante SCP.
Ejemplo de resultado del comando scp:
XXXXXXXXX Downloads % scp june18th.tar.gz admin@10.66.62.27:/home/admin/
viptela 20.15.4.1
(admin@10.66.62.27) Password:
(admin@10.66.62.27) Password:
june18th.tar.gz 0% 255KB 47.2KB/s - stalled -
Para restaurar la copia de seguridad de la base de datos de configuración, primero debemos configurar las credenciales de la base de datos de configuración. Si sus credenciales de configuration-db son predeterminadas (neo4j/password), podemos saltarnos este paso.
Para configurar las credenciales de configuration-db, utilice el comando request nms configuration-db update-admin-user.Use el nombre de usuario y la contraseña que desee.
Tenga en cuenta que el servidor de aplicaciones de vManage se reinicia. Debido a lo cual, la interfaz de usuario de vManage se vuelve inaccesible durante un breve período de tiempo.
vmanage# request nms configuration-db update-admin-user
configuration-db
Enter current user name:neo4j
Enter current user password:password
Enter new user name:ciscoadmin
Enter new user password:ciscoadmin
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully updated configuration database admin user(this is service node, please repeat same operation on all service/data nodes)
Successfully restarted vManage Device Data Collector
Successfully restarted NMS application server
Successfully restarted NMS data collection agent
vmanage#
Publicación en la que podemos continuar con la restauración de la copia de seguridad de la base de datos de configuración:
Podemos utilizar el comando request nms configuration-db restore path /home/admin/< > para restaurar la base de datos de configuración en el nuevo vManage:
vmanage# request nms configuration-db restore path /home/admin/june18th.tar.gz
Starting backup of configuration-db
config-db backup logs are available in /var/log/nms/neo4j-backup.log file
Successfully saved database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Successfully backup database to /opt/data/backup/configdb-local-tmp-20230623-160954.tar.gz
Configuration database is running in a standalone mode
WARNING: sun.reflect.Reflection.getCallerClass is not supported. This will impact performance.
Successfully saved cluster configuration for localhost
Successfully saved vManage root CA information for device: "53f95156-f56b-472f-b713-d164561b25b7"
Stopping NMS application server on localhost
Stopping NMS configuration database on localhost
Reseting NMS configuration database on localhost
Loading NMS configuration database on localhost
Starting NMS configuration database on localhost
Waiting for 180s or the instance to start...
NMS configuration database on localhost has started.
Updating DB with the saved cluster configuration data
Successfully reinserted cluster meta information
Successfully reinserted vmanage root ca information
Starting NMS application server on localhost
Waiting for 180s for the instance to start...
Successfully restored database
Una vez restaurada la base de datos de configuración, asegúrese de que se puede acceder a la interfaz de usuario de vManage. Espere unos 5 minutos e intente acceder a la interfaz de usuario.
Una vez que haya iniciado sesión correctamente en la interfaz de usuario, asegúrese de que la lista de routers periféricos, la plantilla, las políticas y el resto de las configuraciones que estaban presentes en la interfaz de usuario de vManage anterior o existente se reflejan en la nueva interfaz de usuario de vManage.
Comprobaciones previas importantes
Se deben configurar y poner en funcionamiento dos clústeres independientes de 3 nodos de vManage para continuar con la recuperación ante desastres. En el clúster activo debe tener validadores y controladores incorporados. En caso de que tenga un validador y controladores en el sitio DR, también deben estar incorporados en el clúster activo y no en el clúster DR vManage.
Cisco recomienda que, antes de registrar la recuperación ante desastres, se cumplan estos requisitos:
Configuraciones
Para obtener más información sobre vManage Disaster Recovery, consulte este enlace.
Ya se han creado los dos clústeres de 3 nodos independientes, suponiendo que cada administrador de SD-WAN tiene una configuración mínima y que se ha completado la parte de certificación.
Vaya a Administration > Cluster Management en ambos clústeres y verifique que todos los nodos estén en estado Ready.
vManage de DC

DR vmanage

Vaya a Administration>Disaster Recovery of Primary vManage Cluster. Haga clic en Administrar recuperación ante desastres.

En la ventana emergente, rellene los detalles de vManage principal y secundaria.
Las direcciones IP que se deben indicar son las direcciones IP de las interfaces de clúster fuera de banda. Utilice preferiblemente la dirección IP de la interfaz de servicio VPN 0 de vManage-1 en cada clúster.
Las credenciales deben ser las de un usuario netadmin y no se deben cambiar una vez configurado el DR, a menos que se elimine. Se puede utilizar una credencial de usuario local de vManage independiente para la recuperación ante desastres. Debemos asegurarnos de que el usuario local de vManage forma parte del grupo netadmin. Incluso las credenciales de administrador se pueden utilizar aquí.

Una vez rellenado, haga clic en Next.
Los controladores vBond deben ser accesibles en la dirección IP especificada a través de Netconf.

Una vez rellenado, haga clic en Next.


Establezca el valor y haga clic en Guardar.

Verificación
Navegue hasta Administración>Recuperación ante desastres para ver el estado de Recuperación ante desastres y cuándo se replicaron los datos por última vez.

Nota: La replicación puede tardar varias horas en función del tamaño de la base de datos. Además, puede requerir algunos ciclos para lograr una replicación correcta.
Una vez restaurada la base de datos de configuración, necesitamos volver a autenticar todos los nuevos controladores (vmanage/vsmart/vbond) en el fabric
Nota: En la producción real, si la IP de interfaz utilizada para la reautenticación es la IP de interfaz de túnel, debe asegurarse de que se permite el servicio NETCONF en la interfaz de túnel de vManage, vSmart y vBond, así como en los firewalls a lo largo de la ruta. El puerto del firewall que se debe abrir es el puerto TCP 830 como regla bidireccional desde el clúster DR a todos los vBonds y vsmarts .
En vmanage UI, haga clic en Configuration > Devices > Controllers

Una vez que todos los controladores estén incorporados, complete este paso:
En cualquier servidor Cisco SD-WAN Manager del clúster recién activo, realice estas acciones:
Ingrese este comando para sincronizar el certificado raíz con todos los dispositivos Cisco Catalyst SD-WAN en el agrupamiento recientemente activo:
https://vmanage-url/dataservice/system/device/sync/rootcertchain
Ingrese este comando para sincronizar el UUID de Cisco SD-WAN Manager con el Validador de Cisco SD-WAN:
https://vmanage-url/dataservice/certificate/syncvbond
Una vez restaurado el fabric y activadas las sesiones de control y bfd para todos los bordes y controladores del fabric, debemos invalidar los controladores antiguos (vmanage/vsmart/vbond) de la interfaz de usuario
Estas comprobaciones posteriores se aplican a todas las combinaciones de implementación.
request platform software sdwan vedge_cloud activate chassis-number token
Verifique que los elementos aparezcan como se espera:
Plantillas
Políticas
Página Dispositivo (ambas fichas)WAN vEdge ListControllers
Aplicable a nodos vManage:
Comprobaciones de Configuration-DB(Neo4j):
Ejecute el comando "request nms configuration-db diagnostics" en todos los nodos de vManage:
1. Compruebe el estado del nodo online y del liderazgo:(no disponible para todas las versiones)
"Neo4j" debe mostrar 3 nodos en línea y 1 líder y 2 seguidores. "system" también debe mostrar 3 nodos en línea y 1 líder y 2 seguidores; sin embargo, como este no es el Db predeterminado, el indicador predeterminado es false. Si hay menos de 3 entradas en cada neo4j y el sistema significa que el nodo se ha caído del clúster. Póngase en contacto con el TAC de Cisco para solucionar el mismo problema.
2. Compruebe si algún nodo está en "cuarentena".

Ninguno de los nodos debe estar en cuarentena.
3. La validación del esquema debe ser "correcta".

4. Recopile una copia de seguridad de configuration-db usando el comando "request nms configuration-db diagnostics" y asegúrese de que sea exitosa.

Si se observan incoherencias o errores, póngase en contacto con el TAC de Cisco para obtener información sobre la solución de problemas.
Alternativamente, podemos ejecutar estas llamadas API para confirmar el estado del nodo vmanage para un clúster (para todos los nodos COMPUTE+DATA) - funciona sólo en la versión 20.12 y posteriores
go to vshell of the vmanage node ( to be done on all vmanages)
===============================================================
curl -u : -H "Content-Type: application/json" -d '{"statements":[{"statement":"call dbms.cluster.overview"}]}' http://:7474/db/neo4j/tx/commit | jq -r
curl -u : -H "Content-Type: application/json" -d '{"statements":[{"statement":"show databases"}]}' http://:7474/db/neo4j/tx/commit | jq -r Asegúrese de que en un clúster sólo haya un líder tanto para neo4j como para el sistema y que descanse como seguidores. Asegúrese de que todos los nodos estén en línea. Si tiene un clúster de 3 nodos (los tres son COMPUTE+DATA), debe haber un solo líder tanto para neo4j como para el sistema. Cualquier desviación, debe comunicarse con TAC
5. Verifique /var/log/kern.log para ver si hay errores de disco, memoria o E/S. Esto debe comprobarse en todos los nodos de vManage.
6. Verifique el paso cuando forme un clúster nuevo para vmanage que no tenga CC entre cada nodo
Realice ssh como vmanage-admin desde el nodo 1 a otros nodos cluster ip y viceversa, para verificar si se intercambia la clave pública y si funciona la contraseña menos ssh [Se requiere token de consentimiento para mostrar estos pasos]
DR-vManage-1:~# ssh -i /etc/viptela/.ssh/id_dsa -p 830 vmanage-admin@
The authenticity of host '[192.168.50.5]:830 ([192.168.50.5]:830)' can't be established.
ECDSA key fingerprint is SHA256:rSpscoYCVC+yifUMHVTlxtjqmyrZSFg93msFdoSUieQ.
Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
Warning: Permanently added '[192.168.50.5]:830' (ECDSA) to the list of known hosts.
viptela 20.9.3.0.31
Password:
En caso de que el resultado pida introducir la contraseña, póngase en contacto con el TAC
Aplicable a todos los controladores SD-WAN (vBond, vManage, vSmart):
Ejecute los comandos en todos los controladores de la superposición y confirme que el UUID de vManage y los números de serie vistos sean válidos para el fabric actual:
Comandos de vBond:
show orchestrator valid-vsmarts
show orchestrator valid-vmanage-id
Comandos vManage/vSmart:
show control valid-vsmarts
show control valid-vmanage-id
Tenga en cuenta que el resultado de show control valid-vsmarts incluye los números de serie de los nodos vsmarts y vManage.
Compárelo con los que se ven en la interfaz de usuario de vManage. Vaya a la sección Configuración > Certificados > Controladores.
Si se observan entradas adicionales para el UUID/número de serie que actualmente no están incorporadas al fabric, debemos eliminarlas. Puede ponerse en contacto con el TAC de Cisco para el mismo fin.
| Revisión | Fecha de publicación | Comentarios |
|---|---|---|
1.0 |
25-Feb-2026
|
Versión inicial |
Comentarios