Guide d’installation d’Adobe Connect 12.7 (configuration en mode audio/vidéo améliorés)

Présentation

Adobe Connect utilise la dernière infrastructure WebRTC pour offrir des fonctionnalités audio et vidéo améliorés. Cette configuration en mode audio et vidéo améliorés s’exécute généralement sur plusieurs nœuds Linux® disposant de rôles spécifiques : les nœuds de signalisation, les nœuds médias et les nœuds d’enregistrement et ASR (sous-titres). Cette configuration utilise également des bases de données PostgreSQL et Redis pouvant être installées sur un ou plusieurs ordinateurs selon l’utilisation.

Chaque nœud est configuré en copiant le fichier zip du programme d’installation sur celui-ci, en modifiant les fichiers de configuration, en exécutant le script d’installation de dépendance, puis le script d’installation principal. Ces sujets sont abordés dans les sections suivantes :

Ces étapes sont décrites dans la section Installation.

Conditions préalables et configuration requise 

Taille estimée pour les serveurs/nœuds du mode audio/vidéo améliorés 

Le fichier  session_participants_count.sql peut être exécuté afin d’évaluer la taille des serveurs du mode audio/vidéo améliorés. La sortie des requêtes SQL correspond à l’entrée vers le calculateur. Il s’agit d’un fichier Excel : Additional Enhanced A/V hardware estimator.xlsx.

Le calculateur permet d’estimer le nombre de machines virtuelles nécessaires en fonction de votre utilisation passée d’Adobe Connect. Le calculateur a besoin de l’ensemble d’entrées suivant. 

  • Nombre de cœurs de processeur et de RAM du serveur. 
  • Les requêtes SQL jointes sont utilisées pour déterminer le nombre maximal de sessions simultanées au cours des 12 derniers mois et le nombre moyen de participants. 

  • Nombre estimé d’éditeurs dans chaque session. Un éditeur est un participant à la réunion (hôte, présentateur ou participant) qui connecte son microphone (microphone activé ou désactivé) et sa webcam (webcam active ou en pause) dans la salle de réunion.

Remarque :

Les deux fichiers session_participants_count.sql et Additional Enhanced A/V hardware estimator.xlsx files sont compris dans le package d’installation. Ils ne sont pas disponibles ailleurs. 

Estimation des noms FQDN et des certificats SSL

Noms FQDN (noms de domaine complet) :

  • Un enregistrement DNS public d’équilibreur de charge d’application externe, par exemple webrtc.example.com

  • Un enregistrement DNS public pour chaque serveur multimédia, par exemple media-1.example.com

CERTIFICATS SSL :

  • Un certificat SSL pour le nom de domaine complet de l’équilibreur de charge 

  • La configuration TURNS est recommandée pour les serveurs multimédias, avec un certificat pour chaque serveur multimédia.

Comprendre l’architecture de réseau

Cluster sur site Adobe Connect 12.4
Cluster sur site Adobe Connect 12.7

Exigences d’ouverture des ports

Source Destination Port Protocole Utilisez
Nœud de signalisation Redis 6379 TCP  
Postgres 5432 TCP  
Nœud d’enregistrement 5000-5100 TCP  
Nœud ASR 6000-6100 TCP  
SIP ou nœud de
serveur multimédia
5060 UDP Signalisation SIP
Nœud de serveur multimédia ou SIP
5060 TCP
Serveur CPS 80 TCP Pour les configurations POC ou de démonstration s’exécutant sans SSL
Serveur CPS/équilibreur de charge 443 TCP
Nœud d’enregistrement Nœud de
serveur multimédia (*)
443 TCP TURNS
3478 UDP STUN/TURN
3478 TCP STUN/TURN
30000 - 65535 UDP SRTP (flux multimédia en temps réel)
Serveur CPS 80 TCP Pour les configurations POC ou de démonstration s’exécutant sans SSL
Serveur CPS/équilibreur de charge 443 TCP  
Redis 6379 TCP  
Nœud de signalisation 8090 TCP
 
Nœud de signalisation
18443 TCP Pour les configurations POC ou de démonstration exécutées sans équilibreur de charge
Équilibreur de charge WebRTC (**) 443 TCP
 
Nœud de serveur multimédia Redis 6379 TCP
 
Postgres 5432 TCP
 
stun.I.google.com 19302 UDP Découverte de l’adresse IP publique. Vérification du type NAT. 
stun1.I.google.com
19302 UDP Découverte de l’adresse IP publique. Vérification du type NAT. 
Nœud de signalisation 18443 TCP Pour les configurations POC ou de démonstration exécutées sans équilibreur de charge
Nœud de serveur multimédia 8445 TCP Pour effectuer la mise en cluster en cas de nœuds de serveur multimédia multiples
Équilibreur de charge WebRTC (**) 443 TCP
Inscription sur la passerelle WebRTC 
Serveur CPS Équilibreur de charge WebRTC 
443 TCP  
Nœud d’enregistrement 80 TCP
Téléchargement des fichiers d’enregistrement
Nœud de signalisation 18443 TCP Pour les configurations POC ou de démonstration exécutées sans équilibreur de charge
Utilisateurs/Client/Internet Nœud de serveur multimédia (*)
443 TCP

 

 

 

 

TURNS (audio/vidéo via TLS) 

3478 UDP STUN/TURN
3478 TCP STUN/TURN
30000 - 65535 UDP SRTP (flux multimédia en temps réel)
Serveur CPS 80 TCP
Pour les configurations POC ou de démonstration s’exécutant sans SSL
Serveur CPS/équilibreur de charge 443 TCP  
Nœud de signalisation 18443 TCP Pour les configurations POC ou de démonstration exécutées sans équilibreur de charge
Équilibreur de charge WebRTC 
443 TCP
 
Nœud SIP Redis 6379 TCP
Dans la plupart des cas, le service SIP s’exécute sur le nœud de serveur multimédia 
Postgres 5432 TCP
Équilibreur de charge WebRTC 
443 TCP
Nœud de signalisation 18443 TCP Pour les configurations POC ou de démonstration exécutées sans équilibreur de charge
Nœud de sous-titrage automatique/ASR Redis 6379 TCP  
Nœud de signalisation 8080 TCP Pour la connexion multimédia
Nœud de serveur multimédia (*) 3000-65535 UDP SRTP (flux multimédia en temps réel)
443 TCP
TURNS
3478 UDP STUN/TURN
3478   STUN/TURN
Nœud de signalisation 8090 TCP
 
Serveur CPS 80 TCP
Pour les configurations POC ou de démonstration s’exécutant sans SSL
Serveur CPS/équilibreur de charge 443 TCP
 

* Dans la plupart des cas, les serveurs multimédias ont une adresse IP publique. Toutefois, dans les environnements à accès restreint où l’accès à Adobe Connect via Internet n’est pas nécessaire, les ports doivent être ouverts pour l’adresse IP privée.

** Un équilibreur de charge WebRTC externe effectue l’acheminement du trafic vers plusieurs nœuds de signalisation et le déchargement SSL. L’équilibreur de charge sert d’interface entre les nouveaux serveurs WebRTC et CPS et les utilisateurs finaux.

L’équilibrage de charge s’effectue généralement via un équilibreur de charge d’application externe qui présente la configuration ci-dessous.

  • Port HTTPS 443 : port 18443 des nœuds de signalisation : CPS et les utilisateurs finaux se connectent à cet écouteur. Il s’agit du point d’entrée au nouveau cluster WebRTC.

  • Port HTTPS 443 : port HTTP 9090 des nœuds de signalisation : utilisé par l’administrateur pour se connecter au panneau d’administration web afin de configurer les protocoles TURNS et SIP, et la téléphonie.

Configuration requise pour les serveurs du mode audio/vidéo améliorés

  • OS – Red Hat Enterprise Linux 64 bits version 9.4
  • Bibliothèques tierces (open source) installées sur les serveurs :
    • Podman 4.2.0
    • Virtualenv 20.26.3
    • Python 3.9
    • Pip 21.3.1
    • Bibliothèques Python (pydantic, pyhocon, docker, redis, packaging, psycopg2-binary, python-json-logger, pystun3, coloredlogs, colorama)

Préparation de l’environnement

Une configuration en mode audio et vidéo améliorés nécessite généralement au moins trois serveurs Red Hat : un pour le nœud de signalisation, un pour le nœud médias et un pour le nœud d’enregistrement. En fonction de la charge de la réunion, l’estimateur peut suggérer plusieurs nœuds de serveurs multimédia, d’enregistrement et de signalisation. Un équilibreur de charge d’application est utilisé pour le déchargement SSL et pour la communication entre CPS et les clients d’utilisateurs finaux avec des nœuds de signalisation.

Certaines configurations basées sur la charge impliquent simplement deux serveurs avec des conteneurs de service d’enregistrement qui s’exécutent sur le nœud de signalisation.

Nous allons décrire en détail les quatre configurations du serveur les plus courantes.

  • Configurez quatre serveurs Red Hat. Veuillez vous reporter au fichier Hardware estimator pour la configuration.
  • L’installation nécessite un utilisateur non racine qui dispose d’un accès sudo.
    • Après une nouvelle installation de Red Hat, créez un nouvel identifiant utilisateur (user-id).
    • Pour activer le mode sudo pour le nouvel identifiant utilisateur sur RHEL, ajoutez l’ID au groupe wheel  :
      • Devenez root en exécutant su.
      • Exécutez usermod -aG wheel your_user_id.
      • Déconnectez-vous, puis reconnectez-vous à l’aide du nouvel identifiant.
  • Attribuez des adresses IP statiques aux nœuds de signalisation, d’enregistrement et ASR.
  • Configurer et attribuer une adresse IP publique pour le serveur multimédia. Si vous utilisez le NAT 1:1, l’adresse IP publique doit être mappée à l’adresse IP privée du serveur multimédia.
  • Créez un enregistrement DNS public pour le serveur multimédia. Il est fortement recommandé de configurer le protocole TURNS (connexion via TLS 443). Configurez donc également un certificat SSL pour ce nom de domaine complet. 
  • Ouvrez les ports réseau requis entre les trois nœuds. Reportez-vous à la section Architecture de réseau. 
  • Configurez un équilibreur de charge d’application externe comme décrit dans la section précédente. Configurez également un enregistrement DNS public pour l’équilibreur de charge et configurez un certificat SSL. 

Copier le fichier zip Installer

  1. Copiez le fichier NCC_Onprem_12_7_Installer.zip dans le répertoire de base de tous les nœuds.
    Par exemple : scp NCC_Onprem_12_7_Installer.zip -i ssh_key.pem my-user@webrtc.corp.example.com:/home/my-user/

  2. Vérifiez éventuellement le fichier zip signé téléchargé à l’aide de Jarsigner. Jarsigner est installé dans le cadre de Java.

    1. Vérifiez si Java est installé à l’aide de la commande [ java -version ]. Si Java est installé, la sortie indique la version de Java.
    2. Si Java n’est pas installé sur l’ordinateur, installez-le
      sudo yum install java-1.8.0-openjdk-devel 
    3. Copiez ensuite la commande ci-dessous dans la fenêtre de terminal et cliquez sur Entrée.
      jarsigner -verify -verbose NCC_Onprem_12_7_Installer.zip
    4. Voici les éléments contenus dans la sortie de la vérification :
      • liste des fichiers dans le zip
      • informations de certificat d’Adobe à des fins d’authentification
      • message de sortie réussie « jar vérifié » ou d’échec « jar non vérifié »
    5. Si les informations de certificat sont valides et si le message de sortie de vérification réussie est imprimé, l’utilisateur peut utiliser le contenu du zip, puis procéder à l’installation. Dans le cas contraire, l’utilisateur doit contacter le support technique d’Adobe
  3. Extrayez le fichier zip. Assurez-vous que les fichiers disposent des autorisations appropriées
    Utilisez les commandes suivantes : n’exécutez aucune commande avec un accès racine/sudo si cela n’est pas spécifié explicitement.

    dézipper NCC_Onprem_12_7_Installer.zip
    Accédez au répertoire parent du programme d’installation, par exemple :
    cd  ~/ncc-onprem-installer/
    sudo chmod +x ExternalDependencies/install.sh
    sudo chmod +x MainInstall.sh
    sudo chmod +x check-connectivity.sh
    sudo chmod +x uninstall.sh

    Remarque :

    Lors de l’exécution de l’installation dans un environnement sans accès à Internet ou verrouillé, exécutez la commande ci-dessous :

  4. Exécution du script d’installation de dépendance.

    1. Lorsque vous exécutez le programme d’installation dans un environnement sans accès à Internet ou verrouillé, exécutez la commande ci-dessous pour installer des dépendances externes. Si vous disposez d’un accès à Internet, procédez à l’étape 2
      Accédez au répertoire parent du programme d’installation. Par exemple, assurez-vous que vous vous trouvez dans le répertoire ~/ncc-onprem-installer/ .
      Exécutez bash ExternalDependencies/package-util.sh --install --rhel8 sur RHEL8.
      Exécutez bash ExternalDependencies/package-util.sh --install --rhel9 sur RHEL9.
      Cette opération installe toutes les dépendances externes requises dans la zone
      Elle est nécessaire une fois par nœud.
    2. Accédez au répertoire parent du programme d’installation. Par exemple, assurez-vous que vous vous trouvez dans le répertoire~/ncc-onprem-installer/ .
      Exécutez bash ExternalDependencies/install.sh.Cette opération installe toutes les dépendances externes requises dans la zone.

      Elle est nécessaire une fois par nœud.

Processus d’installation

Les étapes ci-dessous expliquent comment installer l’environnement WebRTC (à titre d’exemple) sur quatre instances Red Hat distinctes.  Nœud de signalisation, nœud d’enregistrement, nœud de serveur média et nœud ASR.  Soyez attentif aux services qui sont configurés dans le fichier containers.conf pour les instructions de chaque nœud. Vous devez configurer chaque nœud avec un ensemble spécifique de services/conteneurs dans les fichiers de configuration.

** Sur un système de labo, vous pouvez installer tous ces nœuds (signalisation, enregistrement, serveur multimédia et serveur ASR) sur une instance Linux.  Dans ce cas, dans le fichier containers.conf, vous devez définir « count=1 » pour tous les serveurs/conteneurs qui sont nécessaires dans votre environnement. 

Nœud de signalisation

Sur les nœuds de signalisation, vous exécutez généralement les services suivants. Chaque service s’exécute en tant que conteneur Docker.

  • config (service de configuration)
  • cas (nouveau service API Connect)
  • apigw (passerelle/routeur API)
  • liveswitch-gateway (service de passerelle WebRTC)

Le nœud ou les nœuds de signalisation se trouvent généralement dans le sous-réseau privé qui est accessible au client Connect via un équilibreur de charge externe. 

Procédure

  1. Modifier le fichier des hôtes 

    Sur le nœud de signalisation, le fichier des hôtes doit être mis à jour. Vous pouvez utiliser un éditeur de texte comme nano ou vi. 

    1. Ouvrez le fichier /etc/hosts à l’aide de l’éditeur nano ou vi, par exemple sudo vi /etc/hosts
    2. Ajoutez la ligne suivante à la fin. Remplacez le fichier <private-ip> avec l’adresse IP privée de l’hôte. Veuillez noter l’espace entre chaque mot ci-dessous. 

    <private-ip> cas.ncc.svc.cluster.local gw.1.fm.ncc.internal config.ncc.svc.cluster.local pi.ncc.svc.cluster.local auth.ncc.svc.cluster.local

    192.168.1.100 cas.ncc.svc.cluster.local gw.1.fm.ncc.internal config.ncc.svc.cluster.local pi.ncc.svc.cluster.local auth.ncc.svc.cluster.local

    Sur le nœud ASR, le fichier des hôtes doit être mis à jour. Vous pouvez utiliser un éditeur de texte comme nano ou vi.

    1. Ouvrez le fichier /etc/hosts à l’aide de l’éditeur nano ou vi, par exemple sudo vi /etc/hosts
    2. Ajoutez la ligne suivante à la fin. Remplacez le fichier <private-ip> avec l’adresse IP privée de l’hôte. Veuillez noter l’espace entre chaque mot ci-dessous.

    <private-ip> gw.1.fm.ncc.internal

    Remarque :
    Modifiez le fichier <private-ip> en indiquant l’adresse IP privée de l’hôte Signalisation 
  2. Modifier les fichiers de configuration 

    1. Modifiez le fichier de configuration présent dans ncc-onprem-installer/Config/config.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier de configuration. Ce fichier doit être modifié séparément pour chaque hôte.  
    2. Modifiez ensuite ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier. Ce fichier doit être modifié séparément pour chaque hôte. En fonction des services à installer et du nombre de conteneurs à déployer. 
    3. Sur un nœud de signalisation standard, vous devez installer :
      • casServer
      • configService
      • apiGateway
      • gatewayServer
      • redis
      • postgres
      • équilibreur de charge (facultatif. Consultez la section Équilibreur de charge ci-dessous pour connaître les étapes de configuration supplémentaires.)
    4. Définissez count=1 pour tous les services indiqués ci-dessus et 0 pour tous les autres. 
    5. Important : veuillez définir restart=1 pour configService après avoir modifié le fichier Config.conf. 
    6. Dans les configurations nécessitant plusieurs nœuds de signalisation, les bases de données Redis et Postgres sont installées uniquement sur le premier nœud. 
  3. Exécution du script du programme d’installation principal
    Basculer vers le répertoire du programme d’installation principal cd ~/ncc-onprem-installer/  
    Exécutez le script du programme d’installation principal bash MainInstall.sh. Patientez jusqu’à ce que le message de confirmation s’affiche
    Message de réussite :
    2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful. 
    Message d’échec :
                   2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations.  

    Consultez la section Dépannage.

  4. Vérification de l’installation

    • API de contrôle d’intégrité
      Pour le contrôle d’intégrité du nœud, vous pouvez accéder à l’URL : http://<private_ip>:18443/health. Une réponse d’intégrité doit être 200 OK {"apigw":"ok"}.  

      Pour effectuer la vérification à partir de l’ordinateur RedHat, vous pouvez utiliser la commande CURL 
      Par exemple curl -v http://172.31.56.203:18443/health 
    • Vérifier le statut du conteneur
      Dans la fenêtre de terminal, exécutez la commande docker ps
      La sortie ci-dessous et STATUS ne doivent pas être redémarrés pour les conteneurs.
    Statut du conteneur

  5. Utilisez l’équilibreur de charge fourni Nginx, c’est-à-dire le conteneur d’équilibreur de charge

    Le programme d’installation est désormais livré avec un conteneur Nginx open source pour le déchargement SSL. 

    Cette option doit être utilisée uniquement pour les labos ou les petites installations avec un seul nœud de signalisation. 

    Vous devez installer l’équilibreur de charge sur le nœud de signalisation.

    En cas d’utilisation de cet équilibreur de charge groupé, le nœud de signalisation doit se trouver dans les sous-réseaux publics (ou DMZ). Une adresse IP publique doit lui être attribuée ou il doit être mappé à une adresse IP publique via un NAT 1:1. Les clients se connectent au nœud directement via l’URL de l’équilibreur de charge sur le port 443.

    Dans les configurations où l’accès à Connect n’est pas requis à partir d’Internet, la signalisation doit se trouver dans le sous-réseau privé mais rester accessible à partir du réseau interne sur le port 443.

    Configuration requise:

    • Enregistrements DNS publics/privés selon le cas d’utilisation
    • Certificat SSL pour l’enregistrement DNS
    • Clé privée pour le certificat SSL

    Étapes pour utiliser l’équilibreur de charge : 

    1. mkdir -p ~/connect/loadbalancer/certs
    2. Copiez le certificat SSL (émis pour le nom FQDN du nœud de signalisation) et la clé privée dans le répertoire des certifications. Assurez-vous que les noms sont cert.crt et key.key.
    3. Dans le fichier config.conf, ajoutez le nom de domaine complet dans les sections hostnames>lb et hostnames>fqdn, car il s’agit désormais du point d’entrée du cluster WebRTC.
    4. Dans le fichier container.conf, mettez à jour le nombre d’équilibreur de charge sur 1.
    5. Exécutez ensuite bash MainInstall.sh.

    Si vous utilisez un certificat générique avec une instance AWS EC2 : 

    1. Créez un enregistrement A sur Route53. Par exemple, si le certificat générique est *.example.com, créez l’enregistrement A en tant que webrtc.example.com et mappez-le à l’adresse IP élastique de l’instance EC2.
    2. Copiez la clé et le certificat générique dans le répertoire ~/connect/loadbalancer/certs. Assurez-vous que les noms sont cert.crt et key.key.
    3. Ajoutez le nom de domaine complet (FQDN). Ajoutez par exemple webrtc.example.com dans les sections hostnames>lb et hostnames>fqdn.
    4. Dans le fichier container.conf, mettez à jour le nombre d’équilibreur de charge sur 1.
    5. Exécutez ensuite bash MainInstall.sh.
Nœud serveur de multimédia

Voici les services que vous devez exécuter sur le nœud ou les nœuds médias : 

  • liveswitch-media-server (serveur multimédia) : pour le mode audio/vidéo améliorés
  • liveswitch-sip-connector (service SIP) : pour l’utilisation du protocole SIP

Les nœuds médias doivent se trouver dans les sous-réseaux publics (ou DMZ). Une adresse IP publique doit leur être attribuée ou ils doivent être mappés à une adresse IP publique via un NAT 1:1. Les clients se connectent directement aux adresses IP publiques du nœud médias. 

Le client mode audio/vidéo améliorés (WebRTC) utilise la méthode ICE pour la connectivité et tente d’établir un flux audio/vidéo avec le serveur multimédia via les ports et le protocole ci-dessous : 

  • Les ports UDP dans la plage 30000 à 65535 gèrent le flux multimédia en temps réel.
  • Le port UDP et TCP 3478  traite le trafic STUN et TURN pour permettre aux clients de traverser les pare-feu.
  • Établissez une connexion TLS via le port 443 pour permettre au protocole TURNS d’assurer une haute disponibilité pour la diffusion en continu dans des réseaux restreints. 
  • Le client basé sur WebRTC C12 essaie toutes les options (TCP et UDP) avant de passer au protocole TLS via le port 443.
  • Le port UDP et TCP 5060 traite le trafic SIP pour l’enregistrement trunk/PBX et les appels entrants/sortants. (Obligatoire si vous utilisez le protocole SIP)

Procédure

  1. Exécution du script du programme d’installation principal
    Basculer vers le répertoire du programme d’installation principal cd ~/ncc-onprem-installer/
    Exécutez le script du programme d’installation principal bash MainInstall.sh. Patientez jusqu’à ce que le message de confirmation s’affiche
    Message de réussite
           2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful. 
    Message d’échec
                    2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations.      

    Consultez la section Dépannage.

  2. Vérification de l’installation 

    Dans la fenêtre de terminal, exécutez la commande docker ps et assurez-vous que le conteneur liveswitch-media-server est en cours d’exécution. 

Nœud d’enregistrement 

Les nœuds d’enregistrement doivent s’exécuter sur un réseau privé. Sur les nœuds d’enregistrement, vous pouvez exécuter une ou plusieurs instances des éléments suivants

  • hcr (conteneur d’enregistrement. Le nombre de conteneurs hcr déterminent les enregistrements simultanés qui peuvent s’exécuter) 
  • recordingserver (serveur Web pour envoyer les fichiers d’enregistrement au CPS. 1 par nœud d’enregistrement) 

Les nœuds d’enregistrement doivent être accessibles sur : 

  • TCP 80 à partir du réseau local, afin que CPS puisse télécharger les enregistrements.
  • TCP 5000-5100 à partir du réseau local, les conteneurs d’enregistrement individuels sont liés aux ports hôtes dans cette plage. 
  • TCP 8090 à partir du réseau local. 

Les nœuds d’enregistrement doivent être en mesure d’accéder aux nœuds médias sur les adresses IP publiques sur les ports répertoriés dans la section des nœuds médias et CPS sur le port 443 pour réussir un enregistrement.

Procédure

  1. Modifier les fichiers de configuration 

    1. Modifiez le fichier config.conf ou copiez-le à partir du nœud de signalisation ~/ ncc-onprem-installer /Config/config.conf
    2. Modifiez ensuite  ~/ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier.
    3. Sur un nœud de serveur d’enregistrement, vous devez installer :
      • recordingContainer  
      • recordingserver  
    4. Définissez le nombre >= 1 pour recordingContainer et 0 pour tous les autres. recordServer sera automatiquement installé.
    Remarque :

    Vous pouvez avoir un conteneur d’enregistrement pour 8 processeurs. Sur un ordinateur à 16 processeurs par exemple, vous devez avoir un maximum de 2 conteneurs d’enregistrement.

  2. Exécutez le script du programme d’installation principal
    Passez au répertoire du programme d’installation principal cd ~/ncc-onprem-installer/ncc-onprem-installer/.
    Exécutez le script du programme d’installation principal bash MainInstall.sh. Patientez jusqu’à ce que le message de confirmation s’affiche. 
    Message de réussite
                    2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful. 
    Message d’échec
                     2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations

    Consultez la section Dépannage.

  3. Vérification de l’installation 

    Dans la fenêtre de terminal, exécutez la commande B et assurez-vous que les conteneurs hcr et recordingrecordingserver sont en cours d’exécution. 

Nœud ASR 

Les nœuds ASR ou de sous-titrage doivent s’exécuter sur un réseau privé. Sur les nœuds ASR, vous pouvez exécuter une ou plusieurs instances du conteneur ASR (ASR Container. Le nombre de conteneurs ASR détermine le nombre de réunions dont le sous-titrage sera exécuté simultanément).

Les nœuds ASR doivent être accessibles sur TCP 6000-6100 à partir du réseau local, les conteneurs ASR individuels sont liés aux ports hôtes dans cette plage. 

Procédure

  1. Modifier les fichiers de configuration.

  2. Modifiez le fichier config.conf ou copiez-le à partir du nœud de signalisation ~/ ncc-onprem-installer /Config/config.conf

  3. Modifiez ensuite  ~/ncc-onprem-installer/Config/containers.conf

  4. Sur un nœud de serveur ASR, vous devez installer :

    asrContainer

                Ainsi, définissez le nombre >= 1 pour asrContainer 

    Remarque :

    Vous pouvez avoir un conteneur ASR pour 8 processeurs. Sur un ordinateur à 16 processeurs par exemple, vous devez avoir un maximum de 2 conteneurs ASR.

  5. Exécution du script du programme d’installation principal
    Passez au répertoire du programme d’installation principal cd ~/ncc-onprem-installer/ncc-onprem-installer/.
    Exécutez le script du programme d’installation principal bash MainInstall.sh.Patientez jusqu’à ce que le message de confirmation s’affiche.

    Message de réussite

             2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful.

    Message d’échec

            2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations.

Mise à niveau d’un système

Préparation de l’environnement 

Copier le fichier zip Installer.

  1. Copiez le fichier NCC_Onprem_12_7_Installer.zip dans le répertoire de base de tous les nœuds
    Par exemple : scp NCC_Onprem_12_7_Installer.zip -i ssh_key.pem my-user@webrtc.corp.example.com:/home/my-user/

  2. Vérifiez éventuellement le fichier zip signé téléchargé à l’aide de Jarsigner. Jarsigner est installé dans le cadre de Java.

    1. Vérifiez si Java est installé à l’aide de la commande [ java -version ]. Si Java est installé, la sortie indique la version de Java.
    2. Si Java n’est pas installé sur l’ordinateur, installez-le
      sudo yum install java-1.8.0-openjdk-devel 
    3. Copiez ensuite la commande ci-dessous dans la fenêtre de terminal et cliquez sur Entrée.
      jarsigner -verify -verbose NCC_Onprem_12_7_Installer.zip
    4. Voici les éléments contenus dans la sortie de la vérification :
      • liste des fichiers dans le zip
      • informations de certificat d’Adobe à des fins d’authentification
      • message de sortie réussie « jar vérifié » ou d’échec « jar non vérifié »
    5. Si les informations de certificat sont valides et si le message de sortie de vérification réussie est imprimé, l’utilisateur peut utiliser le contenu du zip, puis procéder à l’installation. Dans le cas contraire, l’utilisateur doit contacter le support technique d’Adobe
  3. Extrayez le fichier zip. Assurez-vous que les fichiers disposent des autorisations appropriées
    Utilisez les commandes suivantes : n’exécutez aucune commande avec un accès racine/sudo si cela n’est pas spécifié explicitement.

    dézipper NCC_Onprem_12_7_Installer.zip
    Accédez au répertoire parent du programme d’installation, par exemple :
    cd  ~/ncc-onprem-installer/
    sudo chmod +x ExternalDependencies/install.sh
    sudo chmod +x MainInstall.sh
    sudo chmod +x check-connectivity.sh
    sudo chmod +x uninstall.sh

  4. Exécution du script d’installation de dépendance.

    Accédez au répertoire parent du programme d’installation, par exemple,
    Assurez-vous que vous vous trouvez dans le répertoire  ~/ncc-onprem-installer/
    Exécutez bash ExternalDependencies/install.sh. Cette opération installe toutes les dépendances externes requises dans la zone. 

    Cette opération est nécessaire une fois par nœud.

Remarque :

Le processus de mise à niveau nécessite un temps d’arrêt.

Nœud de signalisation 

Sur les nœuds de signalisation, vous exécutez généralement les services suivants. Chaque service s’exécute en tant que conteneur Docker. 

  • config (service de configuration)
  • cas (nouveau service API Connect)
  • apigw (passerelle/routeur API)
  • liveswitch-gateway (service de passerelle WebRTC)

Procédure

  1. Modifier les fichiers de configuration 

    1. Modifiez le fichier de configuration présent dans ncc-onprem-installer/Config/config.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier de configuration. Ce fichier doit être modifié séparément pour chaque hôte. Vous pouvez utiliser le fichier config.conf de l’installation précédente comme référence. Veuillez ne pas remplacer le nouveau fichier par l’ancien. La nouvelle version comporte des mises à jour importantes. 
    2. Modifiez ensuite ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier. Ce fichier doit être modifié séparément pour chaque hôte.  
    3. Lors de la mise à niveau du nœud de signalisation, vous installez généralement : 
      • casServer
      • configService
      • apiGateway
      • gatewayServer
    4. Reportez-vous au fichier de l’installation précédente pour identifier les services à installer et le nombre de conteneurs à déployer. Définissez count=1 pour tous les services installés précédemment et 0 pour tous les autres. 
    5. Important : veuillez définir restart=1 pour configService après avoir modifié le fichier Config.conf ou lorsque vous effectuez une mise à niveau vers une version plus récente du programme d’installation. 
    6. Important : lorsque vous effectuez une mise à niveau, les bases de données Redis et Postgres fournies ne sont pas installées. Laissez donc le nombre défini sur 0 dans le fichier containers.conf. 
  2. Basculer vers le répertoire du programme d’installation principal cd ~/ncc-onprem-installer/ 
    Exécutez le script du programme d’installation principal, bash MainInstall.sh. Le programme d’installation effectue une mise à niveau automatique des services vers la dernière version. Patientez jusqu’à ce que le message de confirmation s’affiche. 
    Message de réussite : 
                   2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful. 
    Message d’échec :
                   2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations. 
  3. Vérification de l’installation 

    • API de contrôle d’intégrité
      Pour le contrôle d’intégrité du nœud, vous pouvez accéder à l’URL http://<private_ip>:18443/health. Une réponse d’intégrité doit être 200 OK {"apigw":"ok"}. Pour effectuer la vérification à partir de l’ordinateur RedHat, vous pouvez utiliser la commande CURL
      Par exemple curl -v http://172.31.56.203:18443/health
    • Vérifier le statut du conteneur
      Dans la fenêtre du terminal, exécutez la commande docker ps
      La sortie ci-dessous et STATUS ne doivent pas être redémarrés pour les conteneurs.

    Statut du conteneur

Nœud de serveur multimédia

Voici les services que vous devez exécuter sur le nœud ou les nœuds médias :

  • liveswitch-media-server (serveur multimédia) : pour le mode audio/vidéo améliorés
  • liveswitch-sip-connector (service SIP) : pour l’utilisation du protocole SIP

Procédure

  1. Modifier les fichiers de configuration

    1. Modifiez le fichier config.conf ou copiez-le à partir du nœud de signalisation ~/ncc-onprem-installer /Config/config.conf. Vous pouvez utiliser le fichier config.conf de l’installation précédente comme référence. Veuillez ne pas remplacer le nouveau fichier par l’ancien. La nouvelle version comporte des mises à jour importantes.

      Remarque :

      Si vous êtes dans un environnement restreint, laissez les entrées vides pour externalStunUrls0 et externalStunUrls1 dans la section gatewayServer. Par exemple externalStunUrls0="" , externalStunUrls1="". 

    2. Modifiez ensuite ~/ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier.
    3. Modifiez ensuite ~/ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier.

    4. Sur un nœud de serveur multimédia, vous devez effectuer une mise à niveau : 

      • mediaServer
      • sipServer (si SIP/téléphonie est nécessaire)
    5. Reportez-vous au fichier de l’installation précédente pour identifier les services à installer et le nombre de conteneurs à déployer. Définissez count=1 pour tous les services installés précédemment et 0 pour tous les autres. 

    6. Dans le bloc mediaServer, mettez à jour les valeurs pour mediaNodePublicIP et mediaNodePublicFQDN. Pour plus de détails, reportez-vous aux commentaires inline.

  2. Exécution du script du programme d’installation principal 
    Basculer vers le répertoire du programme d’installation principal cd ~/ncc-onprem-installer/
    Exécutez le script du programme d’installation principal, bash MainInstall.sh. Le programme d’installation effectue une mise à niveau automatique des services vers la dernière version. Patientez jusqu’à ce que le message de confirmation s’affiche
    Message de réussite :
    2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful. 
    Message d’échec 
                   2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed. Consultez le fichier installer.log pour plus d’informations. 

    Consultez la section Dépannage.

  3. Vérification de l’installation

    Dans la fenêtre de terminal, exécutez la commande docker ps et assurez-vous que les conteneurs liveswitch-media-server et liveswitch-sip-connector(optional install) sont en cours d’exécution.

Nœud d’enregistrement

Les nœuds d’enregistrement doivent s’exécuter sur un réseau privé. Sur les nœuds d’enregistrement, vous pouvez exécuter une ou plusieurs instances : 
hcr (conteneur d’enregistrement. Le nombre de conteneurs hcr est égal au nombre d’enregistrements simultanés pouvant être exécutés.)

Procédure

  1. Modifier les fichiers de configuration 

    1. Modifiez le fichier config.conf ou copiez-le à partir du nœud de signalisation ~/ ncc-onprem-installer /Config/config.conf. Vous pouvez utiliser le fichier config.conf de l’installation précédente comme référence. Veuillez ne pas remplacer le nouveau fichier par l’ancien. La nouvelle version comporte des mises à jour importantes. 
    2. À présent, modifiez ~/ncc-onprem-installer/Config/containers.conf. Les instructions permettant de modifier le fichier sont ajoutées sous forme de commentaires dans le fichier. 
    3. Sur un nœud de serveur d’enregistrement, vous devez effectuer une mise à niveau : 
      • recordingContainer
    4. Reportez-vous au fichier containers.conf du répertoire d’installation précédent et définissez la même valeur pour le nombre recordingContainer et 0 pour tous les autres services. 
  2. Exécution du script du programme d’installation principal
    Basculer vers le répertoire du programme d’installation principal cd ~/ncc-onprem-installer/ncc-onprem-installer/
    Exécutez le script du programme d’installation principal, bash MainInstall.sh.Le programme d’installation effectue une mise à niveau automatique des services vers la dernière version. Patientez jusqu’à ce que le message de confirmation s’affiche.
    Message de réussite :
    2023-01-31 18:21:34,033 : INFO : Main : 55 : Installation successful.
    Message d’échec :
    2023-01-31 20:04:44,849 : ERROR : Main : 59 : Installation failed.Consultez le fichier installer.log pour plus d’informations.

    Consultez la section Dépannage.

  3. Vérification de l’installation

    Dans la fenêtre de terminal, exécutez la commande docker ps et assurez-vous que les conteneurs hcr sont en cours d’exécution.

Configuration du mode audio/vidéo améliorés dans Adobe Connect Service (CPS)

Les étapes suivantes doivent être effectuées sur tous les serveurs Adobe Connect 12 (CPS) :

  1. Ajoutez les configurations ci-dessous dans le fichier custom.ini du ou des serveurs Connect à l’emplacement <Installation_Dir>/Connect/custom.ini
    # Liste séparée par des virgules des URL de découverte CAS
    # Valeurs possibles
    WEBRTC_CAS_DISCOVERY_URLS=http://<Signalling Node IP >:18443/api/cps/ingest
    WEBRTC_CAS_DISCOVERY_URLS=http://<Load Balancer URL>/api/cps/ingest
    # Secret partagé pour le CAS, utilisé pour signer les demandes au CAS. Entrez celui que vous définissez dans la section hmac dans le fichier config.conf sur le nœud de signalisation
    WEBRTC_CAS_SHARED_SECRET - # Shared secret for JWT. Entrez celui que vous définissez dans la section jwtZonalSecrets dans le fichier config.conf sur le nœud de signalisation. CAS_JWT_SHARED_SECRET=<CorrectHorseBatteryStaple>
  2. Enregistrez le fichier et redémarrez le service connectpro.

Processus après l’installation

  1. Vérification de la connectivité réseau

    Exécutez la procédure de test de la connectivité pour vérifier la connectivité réseau entre les différents nœuds 

    1. Connectez-vous au nœud de signalisation.
    2. Accédez au répertoire parent du programme d’installation, par exemple :
      cd ~/ncc-onprem-installer/ncc-onprem-installer/
    3. Exécutez la commande bash check-connectivity.sh.
    4. L’outil de connectivité utilise les valeurs fournies dans le fichier Config.conf pour exécuter des tests réseau de base comme : 
      • Requêtes HTTP entre différents services 
      • Tests de connectivité réseau sur les ports TCP et UDP requis
      • Résolution de noms
      • Connectivité de la base de données
    5. Ce test vérifie la connectivité requise entre les nœuds et les services. Il partage les résultats pour permettre de diagnostiquer les problèmes de connectivité réseau.
  2. Test des réunions Adobe Connect en mode audio/vidéo améliorés 

    1. Créez une nouvelle réunion et assurez-vous que l’option audio/vidéo améliorés est sélectionnée.
    2. Rejoignez la salle de réunion, puis activez le micro et la caméra.
    3. Si possible, entrez également dans la salle sur un autre PC ou sur un appareil mobile, et vérifiez le flux audio/vidéo.
    4. Testez le partage d’écran.    
    5. Démarrez l’enregistrement. Patientez pendant 30 s et arrêtez. Vérifiez ensuite si l’enregistrement est accessible.

Configuration de fonctions supplémentaires 

Configuration SIP 

Pour configurer SIP, vous devez accéder au panneau web d’administration FM. 

  1. Consultez http://<your-load-balancer-address>:9090/admin et connectez-vous avec le nom d’utilisateur et le mot de passe configurés dans config.conf.Si vous n’utilisez pas d’équilibreur de charge, accédez à http://<Signalling_Node-address>:9090/admin.
  2. Consultez APPLICATIONS, puis adobeconnect. Faites ensuite défiler vers le bas jusqu’à Canaux.
    Configurer la configuration d’ID d’appelant sortant SIP pour les deux groupes de canaux : default (*) etbroadcast-*.
    Configuration d’ID d’appelant sortant SIP

  3. Dans le menu principal, accédez à DÉPLOIEMENTS et modifiez le fichier Configuration SIP. 

    Configuration SIP

Charger le certificat TURNS vers l’administrateur FM 

Pour fournir une terminaison SSL pour les liaisons TURNS, vous pouvez charger un certificat dans le panneau d’administration FM.

Le certificat doit être au format PFX.

Procédez comme suit :

  1. Consultez  http://<your-load-balancer-address>:9090/admin et connectez-vous avec le nom d’utilisateur et le mot de passe configurés dans config.conf. Si vous n’utilisez pas d’équilibreur de charge, accédez à http://<Signalling_Node-address>:9090/admin.

  2. Accédez à CERTIFICATS

  3. Sous Certificats de fichier, sélectionnez un signe + et chargez le certificat pour le domaine que vous utilisez. 

Configuration de la liaison TURNS 

Cette action est nécessaire pour une communication TURN sécurisée.

Si vous avez déjà téléchargé le certificat comme décrit dans la section précédente, procédez comme suit :

  1. Accédez à DÉPLOIEMENTS, puis sélectionnez Par défaut

  2. Faites défiler jusqu’à la section Configuration avancée.

  3. Configurez les liaisons TURNS avec le certificat que vous avez chargé précédemment.

    Configuration de la liaison TURNS

Désinstallation

  1. Modifiez la valeur pour définir le répertoire racine du programme d’installation (le répertoire racine contient uninstall.sh)  cd ~/ncc_onprem_installer.

  2. Exécutez bash uninstall.sh.

  3. Pour supprimer le répertoire de données des bases de données Postgres et Redis sur le nœud de signalisation, exécutez la commande ci-dessous.

    sudo rm -rf ~/connect  

Remarque :

Cela supprime l’ensemble des composants et images NCC du système. Toutefois, les dépendances externes (Python, PIP, Virtualenv et packages Python) ne sont pas supprimées. 

Dépannage

docker.errors.DockerException: Error while fetching server API version: (’Connection aborted.’, FileNotFoundError(2, ’No such file or directory’))

Ce message d’erreur s’affiche lorsque la variable d’environnement DOCKER_HOST n’est pas définie correctement. Procédez comme suit :

  1. Accédez au répertoire parent du programme d’installation, par exemple :
    cd ~/ncc-onprem-installer/
  2. Exécutez la commande source ~/.bash_profile

Si les étapes ci-dessus ne permettent pas de résoudre le problème, procédez comme suit :

  1. Supprimez Podman sudo yum remove podman-remote 
  2. Déconnectez-vous du compte utilisateur actuel et connectez-vous à nouveau.
  3. Accédez au répertoire parent du programme d’installation, par exemple :
    cd  ~/ncc-onprem-installer/
  4. Exécutez bash ExternalDependencies/install.sh.
Remarque :

N’exécutez aucune commande avec un accès racine/sudo si cela n’est pas spécifié explicitement.

2023-03-22 03:27:12 : ERROR : Main : 48 : Failed to start Postgres.

Ce message d’erreur s’affiche lorsque le conteneur Docker Postgres ne peut pas monter le volume hôte en raison d’un problème d’autorisation. Suivez les étapes ci-dessous :·         

  1. Accédez au répertoire parent du programme d’installation, par exemple :
    cd ~/ncc-onprem-installer/
  2. Exécutez la commande docker load -i images/postgres.tar.gz
  3. Exécutez ensuite :
    docker run -d \
    --env POSTGRES_PASSWORD='PostPass1234' \
    --volume  ~/connect/postgres/data:/var/lib/postgresql/data \
    --publish 5432:5432 \
    --network host \
    --user 0 \
    --restart always \
    --name postgres \
    docker-connect-release.dr-uw2.adobeitc.com/ncc-onprem/postgres:12.7
  4. Cette opération corrigera les problèmes d’autorisation sur le répertoire hôte.
  5. Exécutez ensuite la commande ci-dessous pour supprimer le conteneur Docker Postgres
    docker rm -f postgres
  6. Enfin, exécutez à nouveau MainInstaller.
    bash MainInstall.sh 

pydantic.errors.PydanticImportError: « BaseSettings » a été déplacé vers le package « pydantic-settings ». Pour plus d’informations, voir https://docs.pydantic.dev/2.0/migration/#basesettings-has-moved-to-pydantic-settings.  

Suivez les étapes ci-dessous :·         

  1. Accédez au répertoire parent du programme d’installation, par exemple :
    cd ~/ncc-onprem-installer/
  2. Exécutez la commande  source bin/activate
  3. Exécutez ensuite cette commande pour désinstaller Pydantic :
    python3 -m pip uninstall pydantic
  4. Exécutez cette commande pour réinstaller Pydantic :
    python3 -m pip install "pydantic==1.*"
  5. Enfin, exécutez à nouveau MainInstaller.
    bash MainInstall.sh 

Le serveur multimédia a besoin d’un NAT 1:1, ce qui signifie que tout trafic sortant et entrant du serveur multimédia pour Internet doit utiliser l’IP publique. Le serveur multimédia découvre automatiquement son IP publique pour utiliser le protocole STUN, une fois que vous avez configuré le NAT  1:1 pour le serveur multimédia sur votre routeur ou votre pare-feu. Accédez à l’interface d’administration de la passerelle WebRTC et assurez-vous que le mediaver peut détecter son adresse IP publique. 

https://adminwebrtc.yourdomain.com/admin/#/servers

Media Server est inaccessible aux clients, même avec un NAT 1:1 fonctionnant correctement 

Le client WebRTC utilise ICE et tente d’établir un flux audio-vidéo avec le serveur multimédia dans l’ordre suivant :

  • UDP dans la plage de ports 35000 à 65535 

  • TCP sur le port 3478

  • TLS sur le port 443 

  • Le client basé sur WebRTC C12 essaiera toutes les options (TCP et UDP), avant de passer à TLS sur le port 443

Connect 12.7 est conçu par défaut en supposant que CPS, WebRTC et New Connect Cluster (ou NCC) se trouvent dans le même VLAN/VPC ou domaine de diffusion.S’ils se trouvent dans des réseaux différents, assurez-vous que vous avez un routage de couche trois approprié entre CPS et NCC/WebRTC pour avoir une connectivité réseau dans les deux sens. 

Pour vérifier la connectivité du réseau entre CPS et NCC, utilisez CURL et Telnet. 

La connectivité CPS et NCC fonctionne uniquement sur HTTPS.

L’erreur ci-dessous apparaît dans les journaux du conteneur FMGW. La deuxième instance Redis est configurée pour fonctionner comme une réplique. 

ERROR [FM.LiveSwitch.Signalling.Server.IdleThread][-] 2022-07-21T12:46:29.439Z Unexpected error in idle thread. 
StackExchange.Redis.RedisServerException: READONLY You can’t write against a read only replica. 

Solution:  

Ouvrez le fichier de configuration correspondant au service Redis et remplacez la valeur de l’attribut « slave-read-only » par « no ». 

Pour y remédier, suivez les étapes ci-dessous :

  1. cd ncc-onprem-installer.
  2. mv Images images.
  3. sed -i ’s/Images\//images\//’ Installer/utils/global_constants.py.
  4. Désinstallation : exécutez uninstall.sh.
  5. Réinstallation : exécutez MainInstall.sh.       

Les exceptions Influx DB dans les journaux peuvent être ignorées pour le moment.

Après avoir redémarré une instance et un conteneur Docker, des exceptions s’affichent si vous vérifiez les journaux pour le conteneur CAS.

Pour résoudre ce problème, redémarrez le conteneur CAS. Tapez docker restart cas.

Si une version de dépendance plus récente existe déjà sur le nœud, l’installation échoue avec une erreur (error: Failed dependencies:) comme indiqué ci-dessous.

Erreurs lors de l’installation de dépendances externes via la méthode hors ligne

Pour corriger l’erreur, supprimez la version la plus récente de la dépendance à l’aide de la commande sudo yum remove <<dependency name>>, par exemple
sudo yum remove iptables

Articles connexes

Recevez de l’aide plus rapidement et plus facilement

Nouvel utilisateur ?