Voici quelques conseils, astuces et solutions qui s’avéreront utiles lors de la diffusion de contenu en continu à l’aide d’Adobe Character Animator CC.

Vous trouverez ci-après un aperçu des problèmes qui peuvent survenir dans le cadre d’une animation en direct, ainsi que les solutions que vous pouvez y apporter. Pour plus d’informations sur les principes de base relatifs à la diffusion de scènes en continu avec Character Animator, voir Diffusion d’une scène en direct.

Microphone et casque

Un microphone de qualité équipé de la technologie d’élimination du bruit de fond vous garantit d’excellents résultats, tout comme un environnement sans bruit. Si un narrateur doit contrôler l’audio depuis un autre emplacement, il lui est conseillé de porter un casque pour éviter que d’autres sons soient audibles. Pour l’interprète, le port d’un casque constitue également une solution efficace pour ne pas entendre l’écho de sa voix (que l’on désigne également sous le nom de « voix retardée »).

Exemples

  • Microdu casque :
    SpeechWare FlexyMike Dual Ear Cardioid
  • Microphone de bureau (si le suivi de tête est effectué par une autre personne) :
    EV RE20
    Shure SM7
  • Fabricants d’interface audio :
    RME
    MOTU

Remarque : Si la technologie USB se révèle pratique, elle rend le mixage et la gestion du contenu audio plus complexes qu’avec un équipement filaire classique.

  • Pour les diffusions à un seul personnage, la plupart des interfaces audio et microphones USB conviennent parfaitement.
  • Dans le cas d’une composition de plusieurs personnages avec la technologie NDI, il est conseillé d’utiliser un microphone filaire et une interface audio professionnelle pour chaque ordinateur.
  • Pour faciliter le routage, un petit mélangeur peut également être utile.

Répétition de bout en bout

Avant de procéder à l’enregistrement en direct, veillez à réaliser un test complet de bout en bout avec le narrateur. Une fois que tout vous semble parfait, ne changez plus rien. Testez votre contenu sur Facebook, YouTube, Twitch, etc.

Fréquence d’images de la scène

Dans la plupart des cas, vous allez définir la fréquence d’images de la scène sur 24 i/s (il s’agit de la fréquence la plus courante pour les dessins animés).

Utilisation de plusieurs processeurs connectés à un commutateur réseau

Connectez chaque ordinateur au commutateur à l’aide d’un câble Ethernet (Cat 5e ou Cat 6).

Moniteurs pour l’affichage des personnages combinés

Si vous souhaitez que chaque personne ou personnage puisse se voir avec les personnages combinés, faites en sorte qu’un flux de moniteur en provenance de l’ordinateur de composition soit disponible au niveau du poste de travail de l’interprète.

Éternuement

Supposons que vous utilisiez le suivi de visage. Si, pendant l’enregistrement en direct, vous devez éternuer, boire ou détourner votre regard pour une quelconque raison, maintenez la touche « ; » (point-virgule) enfoncée afin de figer le suivi des yeux et du visage, et éviter ainsi que votre personnage ne suive vos mouvements. Le paramètre Lissage du comportement Visage détermine la vitesse à laquelle l’application revient au suivi de votre pose actuelle lorsque vous relâchez la touche « ; ».

Synchronisation labiale

  • Vérifiez si la désactivation de l’option Amplifier l’audio silencieux du panneau Caméra et microphone permet d’améliorer la précision de la synchronisation labiale. Cela limite l’introduction indésirable d’autres voix dans le microphone, mais requiert la définition de bons niveaux d’entrée.
  • Au besoin, tenez-vous prêt à régler le gain d’entrée audio à la volée (par exemple, si le narrateur s’éloigne soudain dumicrophoneou s’emporte et se met à hurler).
  • Le son doit être retardédansle mélangeur logiciel (OBS/Wirecast), généralement d’une image ou deux (environ 60 millisecondes). Pour effectuer le réglage, frappez dans les mains face au microphone et alignez visuellement le son avec les mouvements de la bouche (tels que les voit l’autre personne ; sur Facebook Live, par exemple).

Dans les scènes en direct, la plupart des problèmes courants avec la synchronisation labiale sont dus au fait que les lèvres bougent alors qu’elles devraient être immobiles, et inversement, et à une mauvaise synchronisation entre l’audio et les mouvements de la bouche.

Les lèvres bougent alors qu’elles devraient être immobiles

Ce problème se produit généralement dans un environnement bruyant ; sur scène, par exemple. Il est moins courant dans le cadre de ladiffusion en continu,mais il peut survenir si du contenu audio indésirable est diffusé dans le microphone.

  • Isolez votre narrateur dans une cabine d’enregistrement.
  • Réduisez le niveau audio entrant dans l’ordinateur sur lequel est exécuté Character Animator.
  • Demandez au narrateur d’utiliser un microphone ou un casque disposant d’un excellent rejet hors axe. Le microphone servant à la synchronisation labiale ne doit pas nécessairement être le même que celui utilisé pour la diffusion audio.
  • Appliquez une porte de bruit et un filtre passe-haut au signal du microphone avant qu’il n’atteigne Character Animator. N’envoyez pas ce même contenu audio à la diffusion finale.
  • Faites en sorte que la ou les bouches neutres puissent être déclenchées afin qu’un utilisateur puisse mettre en silence la bouche d’une marionnette lorsqu’elle ne doit pas parler.

Les lèvres ne bougent pas alors qu’elles le devraient ou levisème formé est incorrect

Ce problème est certes moins perceptible/dérangeant, mais il convient d’en tenir compte. L’algorithme de synchronisation labiale donne de meilleurs résultats lorsque le signal à analyser estsainet dépourvu de données audio indésirables. Si le signal est trop faible, les mouvements de la bouche ne sont pas très variés et les « sons » produits sont surtout des consonnes. S’il est trop fort, les variations sont toujours aussi peuperceptibles,mais la bouche produit principalement des voyelles.

  • Augmentez ou diminuez le niveau du contenu audio entrant dans l’ordinateur sur lequel est exécuté Character Animator. L’utilisation d’un audiomètre peut s’avérer utile.
  • Appliquez un compresseur/limiteur au signal du microphone avant qu’il n’atteigne Character Animator. Cela vous permettra d’obtenir un niveau de signal plus uniforme, de sorte que vous puissiez l’augmenter sans saturation. Si vous le souhaitez, vous pouvez envoyer ce contenu audio à la diffusion finale. Il s’agit d’un processus courant pour diffuser du son (c’est la raison pour laquelle le niveau sonore des publicités est aussi élevé).

Mauvaise synchronisation entre l’audio et le mouvement des lèvres

Les lèvres et la voix du personnage doivent être synchrones. Idéalement, le public ne doit même pas remarquer la synchronisation labiale ; une mauvaise synchronisation temporelle se remarque très facilement. Le calcul desvisèmesajoute un léger retard à la sortie vidéo, au même titre que Mercury Transmit, NDI et les équipements vidéo professionnels. Cela signifie que vous devez retarder le son diffusé au public dans la même mesure dans le pipeline vidéo.

  • Si le retard est supérieur à environ 20 ms, il est important que le narrateur n’entende pas sa voix retardée pendant l’enregistrement. Avez-vous déjà entendu votre propre voix renvoyée avec un retard d’une demi-seconde au cours d’une téléconférence ? Il est impossible de se concentrer ou de parler dans de telles conditions.L’ajout d’une faible quantité de contenu audio non retardé avec des casques antibruit permet d’éviter le phénomène de retour, particulièrement gênant pour le narrateur. Des écouteurs sont également utiles pour entendre les signaux de départ des producteurs ou les questions des membres du public.
  • Il existe un nombre pratiquement illimité de méthodes pour retarder l’audio. Un facteur important par rapport au retard est qu’il concerne uniquement le public. Le son ne doit pas être retardé sur l’ordinateur sur lequel s’exécute Character Animator. Voici quelques méthodes permettant de retarder l’audio ;
  • Matériel audio non intégré
  • Exécution du contenu audio via une station audionumérique logicielle avant sa diffusion.
  • Wirecast et OBS Studio peuvent également retarder le son NDI et le son envoyé à l’interface audio de l’ordinateur.

Utilisation de NDI pour envoyer votre personnage versd’autres applications

Si vous utilisez NDI pour envoyer votre personnage vers une autre application, vous devez également, d’une manière ou d’une autre, acheminer l’audio vers cette application :

  • Character Animator (à partir de la version 1.1) n’envoie pas de données audio sur NDI. Vous devez gérer manuellement vos données audio à l’aide d’un mélangeur et de l’interface audio de l’ordinateur. Sous macOS, l’utilitaire NDI Scan Converter peut utiliser l’entrée de votre interface audio et l’envoyer comme sortie NDI. Cette solution ne s’applique pas à Windows.

Les applications en arrière-plan s’exécutent lentement

App Nap est une fonctionnalité d’économie d’énergie de macOS qui met en pause les applications inactives, ce qui contribue à réduire la consommation d’énergie. Cette fonction permet d’allonger l’autonomie de la batterie des ordinateurs portables Mac. Elle a également un impact sur l’énergie totale consommée par l’ordinateur.

  • Si vous exécutez des applications en arrière-plan pendant la diffusion, il est essentiel de désactiver App Nap sur l’ordinateur pour éviter tout ralentissement des performances.

Pour désactiver App Nap pour toutes les applications du système, collez cette commande dans le Terminal et appuyez ensuite sur Entrée :

defaults write NSGlobalDomain NSAppSleepDisabled -bool YES

Animation de marionnette

Un bon marionnettiste parvient à donner vie à son personnage. Cependant, avant toute chose, il doit disposer d’une bonne marionnette et d’une méthode pour interagir avec elle.

Webcams (facultatif)

  • Un petit moniteur vidéo est très utile si le marionnettiste ne travaille pas sur l’ordinateur sur lequel est exécuté Character Animator.
  • Pour garantir un fonctionnement correct avec une webcam, le visage doit être correctement éclairé. L’éclairage LED peut également offrir de bons résultats.
  • Vous obtiendrez un résultat optimal lorsque la personne regarde droit devant elle. Cela signifie que si l’interprète lit un script ou boit un verre d’eau, le personnage peut réagir de manière imprévisible.
  • Le comportement Head Turner peut être idéal pour contrôler la tête d’un personnage. En revanche, il vous oblige à détourner le regard de l’écran de l’ordinateur. Cela ne pose pas de problème si vous êtes le narrateur, mais si vous déclenchez également des animations ou des illustrations, vous êtes invité à utiliser les déclencheurs clavier pour obtenir de meilleurs résultats.

Déclencheurs

  • Sur scène, un personnage peut déployer un large éventail de gestes pour intéresser son auditoire. Par exemple :
    ▪ Mouvements expressifs du visage
    ▪ Gestes de la main ou du bras
    ▪ Air pensif (regard dirigé vers le haut)
    ▪ Apathie/agitation (mouvement des doigts, tics, tout ce qui peut combler les temps morts)
  • Actuellement, nous utilisons le clavier pour les déclencheurs, ainsi que des périphériques MIDI. Vous pouvez placer des autocollants sur votre clavier. Les dispositifs suivants peuvent également se révéler utiles :
    ▪ Elgato Stream Deck (petits boutons LCD)
    ▪ X-Keys (grande souplesse de programmation et bonne prise en charge des macros)

Ce produit est distribué sous licence Creative Commons Attribution - Pas d’utilisation commerciale - Partage à l’identique 3.0 non transposé  Les publications Twitter™ et Facebook ne sont pas couvertes par les dispositions Creative Commons.

Mentions légales   |   Politique de confidentialité en ligne