De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
In dit document worden de stappen beschreven die nodig zijn om een defecte computerserver in een Ultra-M-configuratie te vervangen.
Deze procedure is van toepassing op een Openstack-omgeving met NEWTON-versie waarbij Elastic Services Controller (ESC) de Cisco Prime Access Registrar (CPAR) niet beheert en CPAR rechtstreeks op de VM wordt geïnstalleerd die op Openstack is geïmplementeerd.
Ultra-M is een voorverpakte en gevalideerde gevirtualiseerde mobiele packet core-oplossing die is ontworpen om de implementatie van VNF's te vereenvoudigen. OpenStack is de Virtualized Infrastructure Manager (VIM) voor Ultra-M en bestaat uit deze knooppunttypen:
De hoogstaande architectuur van Ultra-M en de betrokken componenten worden in deze afbeelding weergegeven:

Dit document is bedoeld voor Cisco-personeel dat bekend is met het Cisco Ultra-M-platform en het beschrijft de stappen die moeten worden uitgevoerd op OpenStack en Redhat OS.
Opmerking: Ultra M 5.1.x release wordt overwogen om de procedures in dit document te definiëren.
| DWEILEN | Methode van procedure |
| OSD | Object Storage-schijven |
| OSPD | OpenStack Platform Director |
| HARDE SCHIJF | harde schijf |
| SSD | Solid State-harde schijf |
| VIM | Virtual Infrastructure Manager |
| VM | virtuele machine |
| EM | Elementbeheer |
| UAS | Ultra Automation Services |
| UUID | Universally Unique IDentifier |

Voordat u een Compute node vervangt, is het belangrijk om de huidige status van uw Red Hat OpenStack Platform-omgeving te controleren. Het wordt aanbevolen om de huidige status te controleren om complicaties te voorkomen wanneer het vervangingsproces voor Compute is ingeschakeld. Dit kan worden bereikt door deze stroom van vervanging.
In het geval van herstel raadt Cisco aan om een back-up van de OSPD-database te maken met behulp van de volgende stappen:
[root@ al03-pod2-ospd ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql [root@ al03-pod2-ospd ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql /etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack tar: Removing leading `/' from member names
Dit proces zorgt ervoor dat een node kan worden vervangen zonder de beschikbaarheid van instanties te beïnvloeden.
Opmerking: zorg ervoor dat u de momentopname van de instantie hebt, zodat u de VM kunt herstellen wanneer dat nodig is. Volg de onderstaande procedure voor het maken van een momentopname van de VM.
Identificeer de VM's die op de computerserver worden gehost.
[stack@al03-pod2-ospd ~]$ nova list --field name,host +--------------------------------------+---------------------------+----------------------------------+ | ID | Name | Host | +--------------------------------------+---------------------------+----------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | pod2-stack-compute-3.localdomain | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | pod2-stack-compute-3.localdomain | +--------------------------------------+---------------------------+----------------------------------+
Opmerking: in de hier weergegeven uitvoer komt de eerste kolom overeen met de Universally Unique IDentifier (UUID), de tweede kolom is de VM-naam en de derde kolom is de hostnaam waar de VM aanwezig is. De parameters van deze uitvoer worden in de volgende secties gebruikt.
Stap 1. Open een SSH-client die is aangesloten op het netwerk en maak verbinding met de CPAR-instantie.
Het is belangrijk om niet alle 4 AAA-instanties binnen één site tegelijkertijd af te sluiten, doe het een voor een.
Stap 2. Sluit de CPAR-toepassing af met deze opdracht:
/opt/CSCOar/bin/arserver stop
In een bericht staat: "Cisco Prime Access Registrar Server Agent shutdown voltooid." moet worden weergegeven.
Opmerking: als een gebruiker een CLI-sessie heeft geopend, werkt de opdracht voor het stoppen van de server niet en wordt het volgende bericht weergegeven:
ERROR: You can not shut down Cisco Prime Access Registrar while the
CLI is being used. Current list of running
CLI with process id is:
2903 /opt/CSCOar/bin/aregcmd –s
In dit voorbeeld moet de gemarkeerde proces-id 2903 worden beëindigd voordat CPAR kan worden stopgezet. Als dit het geval is, beëindig dan het proces met deze opdracht:
kill -9 *process_id*
Herhaal dan stap 1.
Stap 3. Controleer of de CPAR-toepassing inderdaad is afgesloten met deze opdracht:
/opt/CSCOar/bin/arstatus
Deze berichten moeten verschijnen:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
Stap 1. Voer de Horizon GUI-website in die overeenkomt met de site (stad) waaraan momenteel wordt gewerkt. Wanneer de Horizon wordt geopend, wordt het scherm in de afbeelding waargenomen:

Stap 2. Zoals in de afbeelding wordt getoond, navigeert u naar Project > Instanties.

Als de gebruiker cpar heeft gebruikt, worden alleen de 4 AAA-instanties in dit menu weergegeven.
Stap 3. Sluit slechts één instantie tegelijk af en herhaal het hele proces in dit document. Om de VM af te sluiten, gaat u naar Acties > instantie uitschakelen en bevestigt u uw selectie.

Stap 4 Valideren dat de instantie inderdaad is afgesloten via Status = Afsluiten en energiestatus = Afsluiten.

Met deze stap wordt het afsluitproces van de CPAR beëindigd.
Zodra de CPAR-VM's zijn uitgeschakeld, kunnen de momentopnamen parallel worden gemaakt, omdat ze behoren tot onafhankelijke computers.
De vier QCOW2-bestanden worden parallel gemaakt.
Maak een momentopname van elke AAA-instantie (25 minuten -1 uur) (25 minuten voor instanties die een Qcow-afbeelding als bron hebben gebruikt en 1 uur voor instanties die een onbewerkte afbeelding als bron hebben gebruikt).
Stap 1. Meld u aan bij de Horizon GUI van POD's Openstack.
Stap 2. Nadat u bent ingelogd, gaat u naar het gedeelte Project > Berekenen > Instanties in het bovenste menu en zoekt u naar de AAA-instanties.

Stap 3. Klik op Momentopname maken om verder te gaan met het maken van momentopnamen (dit moet worden uitgevoerd op de corresponderende AAA-instantie).

Stap 4. Zodra de momentopname is uitgevoerd, navigeert u naar het menu Afbeeldingen en controleert u of deze is voltooid en geen problemen meldt.

Stap 5. De volgende stap is het downloaden van de momentopname in een QCOW2-indeling en het overbrengen naar een externe entiteit in het geval dat de OSPD tijdens dit proces verloren gaat. Om dit te bereiken, identificeer de momentopname met deze opdracht glance image-list op OSPD-niveau
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
Stap 6. Zodra de snapshot is geïdentificeerd die moet worden gedownload (in dit geval wordt deze hierboven in het groen gemarkeerd), wordt deze gedownload op een QCOW2-formaat via deze glance-imagedownload zoals hier wordt weergegeven.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
Stap 7. Zodra het downloadproces is voltooid, moet een compressieproces worden uitgevoerd, omdat die momentopname kan worden gevuld met ZEROES vanwege processen, taken en tijdelijke bestanden die door het besturingssysteem worden afgehandeld. De opdracht voor bestandscompressie is virt-sparsify.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
Dit proces duurt enige tijd (ongeveer 10-15 minuten). Als het bestand klaar is, moet het worden overgedragen naar een externe entiteit zoals gespecificeerd in de volgende stap.
Verificatie van de bestandsintegriteit is vereist, om dit te bereiken, voert u de volgende opdracht uit en zoekt u naar het corrupte attribuut aan het einde van de uitvoer.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
Om een probleem te voorkomen waarbij de OSPD verloren gaat, moet de onlangs gemaakte momentopname op QCOW2-formaat worden overgedragen aan een externe entiteit. Voordat we de bestandsoverdracht starten, moeten we controleren of de bestemming voldoende beschikbare schijfruimte heeft, gebruik de opdracht df –kh, om de geheugenruimte te verifiëren. Het wordt aanbevolen om het tijdelijk over te dragen naar de OSPD van een andere site via SFTP sftp root@x.x.x.x waar x.x.x.x het IP van een externe OSPD is. Om de overdracht te versnellen, kan de bestemming naar meerdere OSPD's worden verzonden. Op dezelfde manier kan deze opdracht worden gebruikt scp *name_of_the_file*.qcow2 root@ x.x.x.x:/tmp (waarbij x.x.x.x.x het IP van een externe OSPD is) om het bestand over te zetten naar een andere OSPD.
Power off Node
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
De stappen die in deze sectie worden genoemd, zijn gebruikelijk, ongeacht de VM's die in de compute node worden gehost.
Verwijder de compute service uit de servicelijst:
[stack@director ~]$ openstack compute service list |grep compute-3 | 138 | nova-compute | pod2-stack-compute-3.localdomain | AZ-aaa | enabled | up | 2018-06-21T15:05:37.000000 |
openstack compute service verwijderen <ID>
[stack@director ~]$ openstack compute service delete 138
Verwijder de oude gekoppelde neutronenagent en open vswitch-agent voor de compute server:
[stack@director ~]$ openstack network agent list | grep compute-3 | 3b37fa1d-01d4-404a-886f-ff68cec1ccb9 | Open vSwitch agent | pod2-stack-compute-3.localdomain | None | True | UP | neutron-openvswitch-agent |
openstack network agent delete <ID>
[stack@director ~]$ openstack network agent delete 3b37fa1d-01d4-404a-886f-ff68cec1ccb9
Verwijder een node uit de ironische database en controleer deze:
Nova Show <compute-node> | GREP-hypervisor
[root@director ~]# source stackrc [root@director ~]# nova show pod2-stack-compute-4 | grep hypervisor | OS-EXT-SRV-ATTR:hypervisor_hostname | 7439ea6c-3a88-47c2-9ff5-0a4f24647444
ironische node-delete <ID>
[stack@director ~]$ ironic node-delete 7439ea6c-3a88-47c2-9ff5-0a4f24647444 [stack@director ~]$ ironic node-list
De verwijderde node mag nu niet worden vermeld in de ironische node-lijst.
Stap 1. Maak een scriptbestand met de naam delete_node.sh met de inhoud zoals weergegeven. Zorg ervoor dat de genoemde sjablonen dezelfde zijn als de sjablonen die worden gebruikt in het script deploy.sh dat wordt gebruikt voor de stapelimplementatie:
delete_node.sh
openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack <stack-name> <UUID>
[stack@director ~]$ source stackrc [stack@director ~]$ /bin/sh delete_node.sh + openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack pod2-stack 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Deleting the following nodes from stack pod2-stack: - 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Started Mistral Workflow. Execution ID: 4ab4508a-c1d5-4e48-9b95-ad9a5baa20ae real 0m52.078s user 0m0.383s sys 0m0.086s
Stap 2. Wacht tot de OpenStack-stapelbewerking naar de status COMPLEET is verplaatst:
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | pod2-stack | UPDATE_COMPLETE | 2018-05-08T21:30:06Z | 2018-05-08T20:42:48Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
De stappen voor het installeren van een nieuwe UCS C240 M4-server en de eerste installatiestappen kunnen worden doorverwezen vanaf de installatie- en servicegids voor Cisco UCS C240 M4-servers
Stap 1. Plaats na de installatie van de server de harde schijven in de respectievelijke sleuven als de oude server.
Stap 2. Meld u aan bij de server met behulp van de CIMC IP.
Stap 3. Voer een BIOS-upgrade uit als de firmware niet overeenkomt met de aanbevolen versie die eerder is gebruikt. Stappen voor BIOS-upgrade worden hier gegeven: Cisco UCS C-Series Rack-Mount Server BIOS Upgrade Guide
Stap 4. Om de status van fysieke stations te controleren, die niet goed is geconfigureerd, gaat u naar Opslag > Cisco 12G SAS Modular Raid Controller (SLOT-HBA) > Informatie over fysieke stations.

Stap 5. Als u een virtueel station wilt maken van de fysieke stations met RAID-niveau 1, gaat u naar Opslag > Cisco 12G SAS Modular Raid Controller (SLOT-HBA) > Controllerinfo > Virtuele schijf maken van ongebruikte fysieke stations.

Stap 6. Selecteer de VD en configureer Set as Boot Drive, zoals in de afbeelding wordt weergegeven.

Stap 7. Als u IPMI via LAN wilt inschakelen, gaat u naar Beheer > Communicatieservices > Communicatieservices, zoals in de afbeelding wordt weergegeven.

Stap 8. Als u hyperthreading wilt uitschakelen, gaat u naar Berekenen > BIOS > BIOS configureren > Geavanceerd > Processorconfiguratie.
Opmerking: de afbeelding die hier wordt weergegeven en de configuratiestappen die in deze sectie worden vermeld, hebben betrekking op de firmwareversie 3.0 (3e) en er kunnen kleine variaties zijn als u aan andere versies werkt.

De stappen die in deze sectie worden genoemd, zijn gebruikelijk, ongeacht de VM die door de compute node wordt gehost.
Stap 1. Voeg een andere index toe aan de Compute-server
Maak een bestand add_node.json met alleen de details van de nieuwe compute server die moet worden toegevoegd. Controleer of het indexnummer voor de nieuwe computerserver niet eerder is gebruikt. Verhoog de volgende hoogste rekenwaarde.
Voorbeeld: Hoogste prior was compute-17, dus creëerde compute-18 in het geval van 2-vnf systeem.
Let op: let op het json-formaat.
[stack@director ~]$ cat add_node.json
{
"nodes":[
{
"mac":[
"<MAC_ADDRESS>"
],
"capabilities": "node:compute-18,boot_option:local",
"cpu":"24",
"memory":"256000",
"disk":"3000",
"arch":"x86_64",
"pm_type":"pxe_ipmitool",
"pm_user":"admin",
"pm_password":"<PASSWORD>",
"pm_addr":"192.100.0.5"
}
]
}
Stap 2. Importeer het json-bestand.
[stack@director ~]$ openstack baremetal import --json add_node.json Started Mistral Workflow. Execution ID: 78f3b22c-5c11-4d08-a00f-8553b09f497d Successfully registered node UUID 7eddfa87-6ae6-4308-b1d2-78c98689a56e Started Mistral Workflow. Execution ID: 33a68c16-c6fd-4f2a-9df9-926545f2127e Successfully set all nodes to available.
Stap 3. Voer knooppuntintrospectie uit met behulp van de UUID die in de vorige stap is vermeld.
[stack@director ~]$ openstack baremetal node manage 7eddfa87-6ae6-4308-b1d2-78c98689a56e [stack@director ~]$ ironic node-list |grep 7eddfa87 | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | manageable | False | [stack@director ~]$ openstack overcloud node introspect 7eddfa87-6ae6-4308-b1d2-78c98689a56e --provide Started Mistral Workflow. Execution ID: e320298a-6562-42e3-8ba6-5ce6d8524e5c Waiting for introspection to finish... Successfully introspected all nodes. Introspection completed. Started Mistral Workflow. Execution ID: c4a90d7b-ebf2-4fcb-96bf-e3168aa69dc9 Successfully set all nodes to available. [stack@director ~]$ ironic node-list |grep available | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | available | False |
Stap 4. Voer het script deploy.sh uit dat eerder werd gebruikt om de stack te implementeren, om de nieuwe computercode aan de overcloud-stack toe te voegen:
[stack@director ~]$ ./deploy.sh ++ openstack overcloud deploy --templates -r /home/stack/custom-templates/custom-roles.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml --stack ADN-ultram --debug --log-file overcloudDeploy_11_06_17__16_39_26.log --ntp-server 172.24.167.109 --neutron-flat-networks phys_pcie1_0,phys_pcie1_1,phys_pcie4_0,phys_pcie4_1 --neutron-network-vlan-ranges datacentre:1001:1050 --neutron-disable-tunneling --verbose --timeout 180 … Starting new HTTP connection (1): 192.200.0.1 "POST /v2/action_executions HTTP/1.1" 201 1695 HTTP POST http://192.200.0.1:8989/v2/action_executions 201 Overcloud Endpoint: http://10.1.2.5:5000/v2.0 Overcloud Deployed clean_up DeployOvercloud: END return value: 0 real 38m38.971s user 0m3.605s sys 0m0.466s
Stap 5. Wacht totdat de status van de openstack volledig is.
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | ADN-ultram | UPDATE_COMPLETE | 2017-11-02T21:30:06Z | 2017-11-06T21:40:58Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
Stap 6. Controleer of de nieuwe compute node actief is.
[root@director ~]# nova list | grep pod2-stack-compute-4 | 5dbac94d-19b9-493e-a366-1e2e2e5e34c5 | pod2-stack-compute-4 | ACTIVE | - | Running | ctlplane=192.200.0.116 |
Herstelproces:
Het is mogelijk om de vorige instantie opnieuw in te zetten met de momentopname die in eerdere stappen is gemaakt.
Stap 1 [OPTIONEEL]. Als er geen eerdere VMsnapshot beschikbaar is, maakt u verbinding met de OSPD-node waar de back-up is verzonden en voert u de back-up terug naar de oorspronkelijke OSPD-node. Via sftp root@x.x.x.x waarbij x.x.x.x.x het IP van het oorspronkelijke OSPD is. Sla het momentopnamebestand op in de map /tmp.
Stap 2. Verbinding maken met de OSPD-node waar de instantie opnieuw wordt geïmplementeerd.

Bronnen van de omgevingsvariabelen met de volgende opdracht:
# source /home/stack/pod1-stackrc-Core-CPAR
Stap 3. Om de momentopname als afbeelding te gebruiken, is het noodzakelijk om deze als zodanig naar de horizon te uploaden. Gebruik de volgende opdracht om dit te doen.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
Het proces is te zien aan de horizon.

Stap 4. Navigeer in de Horizon naar Project > Instanties en klik op Instantie starten, zoals weergegeven in de afbeelding.

Stap 5. Voer de instantienaam in en kies de beschikbaarheidszone, zoals weergegeven in de afbeelding.

Stap 6. Kies op het tabblad Bron de afbeelding om de instantie te maken. In het menu Select Boot Source select image, wordt hier een lijst met afbeeldingen weergegeven en kies degene die eerder is geüpload terwijl u op +sign klikt.

Stap 7. Kies op het tabblad Flavour de AAA-smaak terwijl u klikt op + teken, zoals weergegeven in de afbeelding.
Stap 8. Navigeer nu naar het tabblad Netwerken en kies de netwerken die de instantie nodig heeft als u op + teken klikt. Selecteer in dit geval Diameter-Soutable1, Radius-Routable1 en TB1-Mgmt, zoals in de afbeelding wordt weergegeven.

Stap 9. Klik op de instantie Launch om deze te maken. De voortgang kan worden gemonitord in Horizon:

Na een paar minuten wordt de installatie volledig geïmplementeerd en klaar voor gebruik.

Een zwevend IP-adres is een routeerbaar adres, wat betekent dat het bereikbaar is vanaf de buitenkant van de Ultra M / Openstack-architectuur en dat het in staat is om te communiceren met andere knooppunten van het netwerk.
Stap 1. Navigeer in het hoofdmenu van Horizon naar Beheer > Zwevende IP's.
Stap 2. Klik op de knop IP toewijzen aan project.
Stap 3. Selecteer in het venster Drijvende IP toewijzen de pool waaruit het nieuwe drijvende IP-adres behoort, het project waaraan het zal worden toegewezen en het nieuwe Drijvende IP-adres zelf.
Voorbeeld:

Stap 4. Klik op de knop Zwevend IP toewijzen.
Stap 5. Navigeer in het hoofdmenu van Horizon naar Project > Instanties.
Stap 6. Klik in de kolom Actie op de pijl die naar beneden wijst in de knop Momentopname maken, en er moet een menu worden weergegeven. Selecteer de optie Zwevend IP koppelen.
Stap 7. Selecteer het corresponderende drijvende IP-adres dat moet worden gebruikt in het veld IP-adres en kies de corresponderende beheerinterface (eth0) in de nieuwe instantie waaraan dit drijvende IP zal worden toegewezen in de poort die moet worden gekoppeld. Zie de volgende afbeelding als voorbeeld van deze procedure.

Stap 8. Klik op Associate.
Stap 1. Navigeer in het hoofdmenu van Horizon naar Project > Instanties.
Stap 2. Klik op de naam van de instantie/VM die is gemaakt in het gedeelte Een nieuwe instantie starten.
Stap 3. Klik op het tabblad Console. Hiermee wordt de CLI van de VM weergegeven.
Stap 4. Als de CLI eenmaal is weergegeven, voert u de juiste aanmeldingsreferenties in:
Gebruikersnaam: root
Wachtwoord: cisco123

Stap 5. Voer in de CLI de opdracht vi /etc/ssh/sshd_config in om de ssh-configuratie te bewerken.
Stap 6. Zodra het ssh-configuratiebestand is geopend, drukt u op I om het bestand te bewerken. Zoek vervolgens naar het onderstaande gedeelte en wijzig de eerste regel van Wachtwoordverificatie nee naar Wachtwoordverificatie ja.

Stap 7. Druk op ESC en voer :wq! in om wijzigingen in het bestand sshd_config op te slaan.
Stap 8. Voer de opdrachtservice sshd restart uit.

Stap 9. Om te testen of SSH-configuratiewijzigingen correct zijn toegepast, opent u een SSH-client en probeert u een externe beveiligde verbinding tot stand te brengen met behulp van het drijvende IP-adres dat aan de instantie is toegewezen (d.w.z. 10.145.0.249) en de hoofdmap van de gebruiker.

Open een SSH-sessie met het IP-adres van de corresponderende VM/server waarop de toepassing is geïnstalleerd.

Volg de onderstaande stappen zodra de activiteit is voltooid en de CPAR-services opnieuw kunnen worden ingesteld op de site die is afgesloten.

Stap 1. Voer de opdracht /opt/CSCOar/bin/arstatus uit op besturingssysteemniveau.
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
Stap 2. Voer de opdracht /opt/CSCOar/bin/aregcmd uit op besturingssysteemniveau en voer de beheerdersreferenties in. Controleer of CPAR Health 10 van de 10 is en verlaat de CPAR CLI.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd
Cisco Prime Access Registrar 7.3.0.1 Configuration Utility
Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved.
Cluster:
User: admin
Passphrase:
Logging in to localhost
[ //localhost ]
LicenseInfo = PAR-NG-TPS 7.2(100TPS:)
PAR-ADD-TPS 7.2(2000TPS:)
PAR-RDDR-TRX 7.2()
PAR-HSS 7.2()
Radius/
Administrators/
Server 'Radius' is Running, its health is 10 out of 10
--> exit
Stap 3.Voer de opdracht netstat | grep diameter uit en controleer of alle DRA-verbindingen tot stand zijn gebracht.
De hieronder genoemde output is voor een omgeving waar Diameter links worden verwacht. Als er minder koppelingen worden weergegeven, betekent dit dat de verbinding met de DRA wordt verbroken en moet worden geanalyseerd.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
Stap 4. Controleer of het TPS-log aangeeft welke verzoeken door CPAR worden verwerkt. De gemarkeerde waarden vertegenwoordigen de TPS en dat zijn de waarden waar we aandacht aan moeten besteden.
De waarde van TPS mag niet hoger zijn dan 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
Stap 5. Zoek naar "error" of "alarm" berichten in name_radius_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
Stap 6. Controleer de hoeveelheid geheugen die het CPAR-proces is, met deze opdracht:
Bovenkant | GREP radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
Deze gemarkeerde waarde moet lager zijn dan: 7Gb, wat het maximaal toegestane is op toepassingsniveau.
Feedback