El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
Este documento describe los pasos necesarios para reemplazar un servidor informático defectuoso en una configuración Ultra-M.
Este procedimiento se aplica a un entorno Openstack que utiliza la versión NEWTON en la que Elastic Services Controller (ESC) no gestiona Cisco Prime Access Registrar (CPAR) y CPAR se instala directamente en la VM implementada en Openstack.
Ultra-M es una solución de núcleo de paquetes móviles virtualizados previamente empaquetada y validada que se ha diseñado para simplificar la implementación de VNF. OpenStack es el Virtualized Infrastructure Manager (VIM) para Ultra-M y consta de los siguientes tipos de nodos:
La arquitectura de alto nivel de Ultra-M y los componentes implicados se muestran en esta imagen:

Este documento está dirigido al personal de Cisco que está familiarizado con la plataforma Ultra-M de Cisco y detalla los pasos que deben llevarse a cabo en OpenStack y Redhat OS.
Nota: Se considera la versión Ultra M 5.1.x para definir los procedimientos en este documento.
| FREGAR | Método de procedimiento |
| OSD | Discos de almacenamiento de objetos |
| OSPD | OpenStack Platform Director |
| HDD | Disco duro |
| SSD | Unidad de estado sólido |
| VIM | Administrador de infraestructura virtual |
| VM | Máquina virtual |
| EM | Administrador de elementos |
| UAS | Servicios de ultra automatización |
| UUID | Identificador único universal |

Antes de reemplazar un nodo Compute, es importante verificar el estado actual de su entorno Red Hat OpenStack Platform. Se recomienda que verifique el estado actual para evitar complicaciones cuando el proceso de reemplazo de Compute esté activado. Se puede lograr con este flujo de reemplazo.
En caso de recuperación, Cisco recomienda realizar una copia de seguridad de la base de datos OSPD con el uso de estos pasos:
[root@ al03-pod2-ospd ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql [root@ al03-pod2-ospd ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql /etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack tar: Removing leading `/' from member names
Este proceso garantiza que un nodo se puede reemplazar sin afectar a la disponibilidad de las instancias.
Nota: Asegúrese de tener la instantánea de la instancia para poder restaurar la VM cuando sea necesario. Siga el siguiente procedimiento sobre cómo tomar una instantánea de la VM.
Identifique las VM alojadas en el servidor informático.
[stack@al03-pod2-ospd ~]$ nova list --field name,host +--------------------------------------+---------------------------+----------------------------------+ | ID | Name | Host | +--------------------------------------+---------------------------+----------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | pod2-stack-compute-3.localdomain | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | pod2-stack-compute-3.localdomain | +--------------------------------------+---------------------------+----------------------------------+
Nota: En el resultado que se muestra aquí, la primera columna corresponde al identificador único universal (UUID), la segunda columna es el nombre de la máquina virtual y la tercera columna es el nombre del host en el que está presente la máquina virtual. Los parámetros de esta salida se utilizarán en las secciones siguientes.
Paso 1. Abra cualquier cliente SSH conectado a la red y conéctese a la instancia CPAR.
Es importante no apagar todas las 4 instancias AAA dentro de un sitio al mismo tiempo, hacerlo de una en una manera.
Paso 2. Cierre la aplicación CPAR con este comando:
/opt/CSCOar/bin/arserver stop
Un mensaje indica "Cisco Prime Access Registrar Server Agent shutdown complete." debería aparecer.
Nota: Si un usuario dejó abierta una sesión de CLI, el comando arserver stop no funcionará y se mostrará el siguiente mensaje:
ERROR: You can not shut down Cisco Prime Access Registrar while the
CLI is being used. Current list of running
CLI with process id is:
2903 /opt/CSCOar/bin/aregcmd –s
En este ejemplo, el ID de proceso resaltado 2903 debe terminarse antes de que se pueda detener CPAR. Si este es el caso, termine el proceso con este comando:
kill -9 *process_id*
A continuación, repita el paso 1.
Paso 3. Verifique que la aplicación CPAR fue apagada por este comando:
/opt/CSCOar/bin/arstatus
Estos mensajes deben aparecer:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
Paso 1. Introduzca el sitio web de la GUI de Horizon que corresponde al sitio (ciudad) en el que se está trabajando actualmente. Cuando se accede a Horizon, se observa la pantalla que se muestra en la imagen:

Paso 2. Como se muestra en la imagen, navegue hasta Project > Instances.

Si el usuario utilizado fue cpar, en este menú solo aparecerán las 4 instancias AAA.
Paso 3. Apague solo una instancia a la vez, repita todo el proceso en este documento. Para apagar la VM, navegue hasta Acciones > Cerrar instancia y confirme su selección.

Paso 4 Valide que la instancia se cerró realmente mediante Status = Shutoff y Power State = Shut Down.

Este paso finaliza el proceso de cierre de CPAR.
Una vez que las VM de CPAR están inactivas, las instantáneas se pueden tomar en paralelo, ya que pertenecen a equipos independientes.
Los cuatro archivos QCOW2 se crean en paralelo.
Tome una instantánea de cada instancia AAA (25 minutos -1 hora) (25 minutos para instancias que utilizaron una imagen qcow como origen y 1 hora para instancias que utilizan una imagen raw como origen).
Paso 1. Inicie sesión en la GUI Horizon de OpenStack del POD.
Paso 2. Una vez conectado, continúe con la sección Project > Compute > Instances en el menú superior y busque las instancias AAA.

Paso 3. Haga clic en Crear Instantánea para continuar con la creación de la instantánea (debe ejecutarse en la instancia AAA correspondiente).

Paso 4. Una vez ejecutada la instantánea, navegue hasta el menú Imágenes y verifique que finaliza e informa de que no hay problemas.

Paso 5. El siguiente paso es descargar la instantánea en un formato QCOW2 y transferirla a una entidad remota en caso de que el OSPD se pierda durante este proceso. Para lograr esto, identifique la instantánea con esta lista de imágenes de vista de comando en el nivel OSPD
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
Paso 6. Una vez identificada la instantánea que se va a descargar (en este caso va a ser la que se marca arriba en verde), se descarga en un formato QCOW2 a través de esta guía de comando image-download como se muestra aquí.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
Paso 7. Una vez finalizado el proceso de descarga, es necesario ejecutar un proceso de compresión ya que esa instantánea puede estar llena de CEROS debido a procesos, tareas y archivos temporales manejados por el Sistema Operativo. El comando que se utilizará para la compresión de archivos es virt-sparsify.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
Este proceso lleva algún tiempo (entre 10 y 15 minutos). Una vez finalizado, el fichero resultante es el que debe transferirse a una entidad externa como se especifica en el paso siguiente.
Se requiere la verificación de la integridad del archivo, para lograr esto, ejecute el siguiente comando y busque el atributo corrupto al final de su resultado.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
Para evitar un problema en el que se pierde el OSPD, la instantánea creada recientemente en formato QCOW2 debe transferirse a una entidad externa. Antes de iniciar la transferencia de archivos, debemos verificar si el destino tiene suficiente espacio disponible en disco, utilice el comando df -kh, para verificar el espacio de memoria. Se recomienda transferirlo temporalmente a OSPD de otro sitio a través de SFTP sftp root@x.x.x.x donde x.x.x.x es la IP de un OSPD remoto. Para acelerar la transferencia, el destino se puede enviar a varios OSPD. De la misma manera, este comando se puede utilizar scp *name_of_the_file*.qcow2 root@ x.x.x.x:/tmp (donde x.x.x.x es la IP de un OSPD remoto) para transferir el archivo a otro OSPD.
Nodo de apagado
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
Los pasos mencionados en esta sección son comunes independientemente de las VM alojadas en el nodo de computación.
Elimine el servicio informático de la lista de servicios:
[stack@director ~]$ openstack compute service list |grep compute-3 | 138 | nova-compute | pod2-stack-compute-3.localdomain | AZ-aaa | enabled | up | 2018-06-21T15:05:37.000000 |
openstack compute service delete <ID>
[stack@director ~]$ openstack compute service delete 138
Elimine el antiguo agente neutrón asociado y abra el agente vswitch para el servidor de computación:
[stack@director ~]$ openstack network agent list | grep compute-3 | 3b37fa1d-01d4-404a-886f-ff68cec1ccb9 | Open vSwitch agent | pod2-stack-compute-3.localdomain | None | True | UP | neutron-openvswitch-agent |
openstack network agent delete <ID>
[stack@director ~]$ openstack network agent delete 3b37fa1d-01d4-404a-886f-ff68cec1ccb9
Elimine un nodo de la base de datos irónica y compruébelo:
nova show <compute-node> | grep hypervisor
[root@director ~]# source stackrc [root@director ~]# nova show pod2-stack-compute-4 | grep hypervisor | OS-EXT-SRV-ATTR:hypervisor_hostname | 7439ea6c-3a88-47c2-9ff5-0a4f24647444
ironic node-delete <ID>
[stack@director ~]$ ironic node-delete 7439ea6c-3a88-47c2-9ff5-0a4f24647444 [stack@director ~]$ ironic node-list
El nodo eliminado no debe aparecer ahora en la lista de nodos irónica.
Paso 1. Cree un archivo de script denominado delete_node.sh con el contenido como se muestra. Asegúrese de que las plantillas mencionadas son las mismas que las utilizadas en el archivo de comandos deploy.sh utilizado para la implementación de pila:
delete_node.sh
openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack <stack-name> <UUID>
[stack@director ~]$ source stackrc [stack@director ~]$ /bin/sh delete_node.sh + openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack pod2-stack 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Deleting the following nodes from stack pod2-stack: - 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Started Mistral Workflow. Execution ID: 4ab4508a-c1d5-4e48-9b95-ad9a5baa20ae real 0m52.078s user 0m0.383s sys 0m0.086s
Paso 2. Espere a que la operación de pila de OpenStack pase al estado COMPLETE:
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | pod2-stack | UPDATE_COMPLETE | 2018-05-08T21:30:06Z | 2018-05-08T20:42:48Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
Los pasos para instalar un nuevo servidor UCS C240 M4 y los pasos de configuración iniciales se pueden consultar en la Guía de instalación y servicio del servidor Cisco UCS C240 M4
Paso 1. Después de la instalación del servidor, inserte los discos duros en las ranuras respectivas como el servidor antiguo.
Paso 2. Inicie sesión en el servidor con el uso de la IP de CIMC.
Paso 3. Realice la actualización del BIOS si el firmware no es conforme a la versión recomendada utilizada anteriormente. A continuación se indican los pasos para actualizar la BIOS: Guía de actualización del BIOS del servidor de montaje en bastidor Cisco UCS C-Series
Paso 4. Para verificar el estado de las unidades físicas, que es Unconfigured Good, navegue hasta Storage > Cisco 12G SAS Modular Raid Controller (SLOT-HBA) > Physical Drive Info.

Paso 5. Para crear una unidad virtual a partir de las unidades físicas con el nivel RAID 1, navegue hasta Almacenamiento > Controlador RAID modular SAS 12G de Cisco (SLOT-HBA) > Información del controlador > Crear unidad virtual a partir de unidades físicas no utilizadas.

Paso 6. Seleccione el VD y configure Set as Boot Drive, como se muestra en la imagen.

Paso 7. Para habilitar IPMI sobre LAN, navegue hasta Admin > Communication Services > Communication Services, como se muestra en la imagen.

Paso 8. Para inhabilitar el hyperthreading, navegue hasta Compute > BIOS > Configure BIOS > Advanced > Processor Configuration.
Nota: La imagen que se muestra aquí y los pasos de configuración mencionados en esta sección hacen referencia a la versión de firmware 3.0(3e) y puede haber ligeras variaciones si trabaja en otras versiones.

Los pasos mencionados en esta sección son comunes independientemente de la máquina virtual alojada por el nodo informático.
Paso 1. Agregue el servidor Compute con un índice diferente
Cree un archivo add_node.json sólo con los detalles del nuevo servidor informático que se va a agregar. Asegúrese de que el número de índice del nuevo servidor informático no se haya utilizado anteriormente. Normalmente, se incrementa el siguiente valor informático más alto.
Ejemplo: La mayor cantidad anterior fue compute-17, por lo tanto, creó compute-18 en el caso de un sistema 2-vnf.
Nota: Tenga en cuenta el formato json.
[stack@director ~]$ cat add_node.json
{
"nodes":[
{
"mac":[
"<MAC_ADDRESS>"
],
"capabilities": "node:compute-18,boot_option:local",
"cpu":"24",
"memory":"256000",
"disk":"3000",
"arch":"x86_64",
"pm_type":"pxe_ipmitool",
"pm_user":"admin",
"pm_password":"<PASSWORD>",
"pm_addr":"192.100.0.5"
}
]
}
Paso 2. Importe el archivo json.
[stack@director ~]$ openstack baremetal import --json add_node.json Started Mistral Workflow. Execution ID: 78f3b22c-5c11-4d08-a00f-8553b09f497d Successfully registered node UUID 7eddfa87-6ae6-4308-b1d2-78c98689a56e Started Mistral Workflow. Execution ID: 33a68c16-c6fd-4f2a-9df9-926545f2127e Successfully set all nodes to available.
Paso 3. Ejecute la introspección de nodos con el uso del UUID anotado en el paso anterior.
[stack@director ~]$ openstack baremetal node manage 7eddfa87-6ae6-4308-b1d2-78c98689a56e [stack@director ~]$ ironic node-list |grep 7eddfa87 | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | manageable | False | [stack@director ~]$ openstack overcloud node introspect 7eddfa87-6ae6-4308-b1d2-78c98689a56e --provide Started Mistral Workflow. Execution ID: e320298a-6562-42e3-8ba6-5ce6d8524e5c Waiting for introspection to finish... Successfully introspected all nodes. Introspection completed. Started Mistral Workflow. Execution ID: c4a90d7b-ebf2-4fcb-96bf-e3168aa69dc9 Successfully set all nodes to available. [stack@director ~]$ ironic node-list |grep available | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | available | False |
Paso 4. Ejecute el script deploy.sh que se utilizó anteriormente para implementar la pila, a fin de agregar el nuevo nodo de equipo a la pila de nube superpuesta:
[stack@director ~]$ ./deploy.sh ++ openstack overcloud deploy --templates -r /home/stack/custom-templates/custom-roles.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml --stack ADN-ultram --debug --log-file overcloudDeploy_11_06_17__16_39_26.log --ntp-server 172.24.167.109 --neutron-flat-networks phys_pcie1_0,phys_pcie1_1,phys_pcie4_0,phys_pcie4_1 --neutron-network-vlan-ranges datacentre:1001:1050 --neutron-disable-tunneling --verbose --timeout 180 … Starting new HTTP connection (1): 192.200.0.1 "POST /v2/action_executions HTTP/1.1" 201 1695 HTTP POST http://192.200.0.1:8989/v2/action_executions 201 Overcloud Endpoint: http://10.1.2.5:5000/v2.0 Overcloud Deployed clean_up DeployOvercloud: END return value: 0 real 38m38.971s user 0m3.605s sys 0m0.466s
Paso 5. Espere a que el estado de la pila OpenStack sea Complete.
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | ADN-ultram | UPDATE_COMPLETE | 2017-11-02T21:30:06Z | 2017-11-06T21:40:58Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
Paso 6. Verifique que el nuevo nodo de computación esté en el estado Activo.
[root@director ~]# nova list | grep pod2-stack-compute-4 | 5dbac94d-19b9-493e-a366-1e2e2e5e34c5 | pod2-stack-compute-4 | ACTIVE | - | Running | ctlplane=192.200.0.116 |
Proceso de recuperación:
Es posible volver a desplegar la instancia anterior con la instantánea realizada en pasos anteriores.
Paso 1 [OPCIONAL]. Si no hay una VMsnapshot anterior disponible, conéctese al nodo OSPD donde se envió la copia de seguridad y vuelva a enviar la copia de seguridad a su nodo OSPD original. A través de sftp root@x.x.x.x donde x.x.x.x es la IP de la OSPD original. Guarde el archivo snapshot en el directorio /tmp.
Paso 2. Conéctese al nodo OSPD donde se vuelve a desplegar la instancia.

Dé origen a las variables de entorno con el siguiente comando:
# source /home/stack/pod1-stackrc-Core-CPAR
Paso 3. Para utilizar la instantánea como imagen es necesario cargarla en el horizonte como tal. Utilice el siguiente comando para hacerlo.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
El proceso se puede ver en el horizonte.

Paso 4. En el horizonte, navegue hasta Proyecto > Instancias y haga clic en Iniciar Instancia, como se muestra en la imagen.

Paso 5. Introduzca el nombre de la instancia y seleccione la zona de disponibilidad, como se muestra en la imagen.

Paso 6. En la pestaña Origen, elija la imagen para crear la instancia. En el menú Select Boot Source seleccione image, se muestra una lista de imágenes aquí, elija la que se cargó anteriormente mientras hace clic en el signo +.

Paso 7. En la pestaña Sabor, elija el sabor AAA mientras hace clic en el signo +, como se muestra en la imagen.
Paso 8. Ahora navegue a la pestaña Redes y elija las redes que necesita la instancia mientras hace clic en el signo +. En este caso, seleccione ameter-soutable1, radius-routable1 y tb1-mgmt, como se muestra en la imagen.

Paso 9. Haga clic en Iniciar instancia para crearla. El progreso se puede supervisar en Horizon:

Después de unos minutos, la instancia estará completamente implementada y lista para su uso.

Una dirección IP flotante es una dirección enrutable, lo que significa que es accesible desde el exterior de la arquitectura Ultra M/Openstack y que puede comunicarse con otros nodos de la red.
Paso 1. En el menú superior de Horizon, navegue hasta Admin > Floating IPs.
Paso 2. Haga clic en el botón Allocate IP to Project.
Paso 3. En la ventana Allocate Floating IP, seleccione el Pool del que pertenece la nueva IP flotante, el Project al que se va a asignar y la nueva Dirección IP flotante.
Por ejemplo:

Paso 4. Haga clic en el botón Asignar IP flotante.
Paso 5. En el menú superior de Horizonte, navegue hasta Proyecto > Instancias.
Paso 6. En la columna Acción, haga clic en la flecha que apunta hacia abajo en el botón Crear Instantánea, debería aparecer un menú. Seleccione la opción Associate Floating IP.
Paso 7. Seleccione la dirección IP flotante correspondiente que se va a utilizar en el campo IP Address y elija la interfaz de gestión correspondiente (eth0) de la nueva instancia en la que se va a asignar esta IP flotante en el puerto que se va a asociar. Consulte la siguiente imagen como ejemplo de este procedimiento.

Paso 8. Haga clic en Asociar.
Paso 1. En el menú superior de Horizonte, navegue hasta Proyecto > Instancias.
Paso 2. Haga clic en el nombre de la instancia/VM que se creó en la sección Iniciar una nueva instancia.
Paso 3. Haga clic en la pestaña Console. Muestra la CLI de la máquina virtual.
Paso 4. Una vez que se muestre la CLI, introduzca las credenciales de inicio de sesión adecuadas:
Nombre de usuario: raíz
Contraseña cisco123

Paso 5. En la CLI ingrese el comando vi /etc/ssh/sshd_config para editar la configuración ssh.
Paso 6. Una vez abierto el archivo de configuración ssh, presione I para editar el archivo. Luego busque la sección que se muestra a continuación y cambie la primera línea de PasswordAuthentication no a PasswordAuthentication yes.

Paso 7. Presione ESC y escriba :wq! para guardar los cambios del archivo sshd_config.
Paso 8. Ejecute el comando service sshd restart.

Paso 9. Para probar que los cambios de configuración de SSH se han aplicado correctamente, abra cualquier cliente SSH e intente establecer una conexión segura remota usando la IP flotante asignada a la instancia (es decir, 10.145.0.249) y la raíz del usuario.

Abra una sesión SSH con la dirección IP de la VM/servidor correspondiente donde está instalada la aplicación.

Siga los pasos que se indican a continuación, una vez que la actividad se haya completado y los servicios CPAR se puedan restablecer en el sitio que se cerró.

Paso 1. Ejecute el comando /opt/CSCOar/bin/arstatus en el nivel del sistema operativo.
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
Paso 2. Ejecute el comando /opt/CSCOar/bin/aregcmd en el nivel del sistema operativo e ingrese las credenciales de administrador. Compruebe que el estado de CPAR es 10 de 10 y salga de CPAR CLI.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd
Cisco Prime Access Registrar 7.3.0.1 Configuration Utility
Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved.
Cluster:
User: admin
Passphrase:
Logging in to localhost
[ //localhost ]
LicenseInfo = PAR-NG-TPS 7.2(100TPS:)
PAR-ADD-TPS 7.2(2000TPS:)
PAR-RDDR-TRX 7.2()
PAR-HSS 7.2()
Radius/
Administrators/
Server 'Radius' is Running, its health is 10 out of 10
--> exit
Paso 3.Ejecute el comando netstat | grep y verificar que todas las conexiones DRA estén establecidas.
El resultado que se menciona a continuación es para un entorno en el que se esperan enlaces de diámetro. Si se muestran menos enlaces, esto representa una desconexión del DRA que debe analizarse.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
Paso 4. Verifique que el registro TPS muestre las solicitudes procesadas por CPAR. Los valores resaltados representan el TPS y esos son los que tenemos que prestar atención.
El valor del TPS no debe exceder 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
Paso 5. Busque cualquier mensaje de "error" o "alarma" en name_radius_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
Paso 6.Verifique la cantidad de memoria que tiene el proceso CPAR, con este comando:
arriba | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
Este valor resaltado debe ser inferior a: 7 Gb, que es el máximo permitido en un nivel de aplicación.
Comentarios