Di seguito sono riportati alcuni suggerimenti, trucchi e soluzioni per lo streaming con Adobe Character Animator CC.

Di seguito sono riportati alcuni problemi che potrebbero verificarsi con le animazione dal vivo e alcune possibili soluzioni. Per informazioni di base sullo streaming delle scene con Character Animator, consulta Trasmissione di una scena in streaming dal vivo.

Microfono e cuffie

Un microfono di alta qualità con riduzione del rumore di fondo fa una grande differenza, così come un ambiente audio privo di rumori. Se il voice talent deve prestare attenzione all’audio proveniente da un’altra sorgente, consigliamo di indossare delle cuffie per evitare di sentire altri rumori. Le cuffie possono anche essere utili per evitare che chi sta registrando possa sentire la propria voce in ritardo.

Esempi

  • Microfonoad archetto:
    SpeechWare FlexyMike Dual Ear Cardioid
  • Microfono desktop (se l’head-tracking è effettuato da un’altra persona):
    EV RE20
    Shure SM7
  • Produttori di interfaccia audio:
    RME
    MOTU

Nota: l’USB è comodo, ma rende il mixaggio e la gestione dell’audio più complessi rispetto ai tradizionali dispositivi cablati.

  • Per trasmissioni con un singolo personaggio, la maggior parte dei microfoni USB e delle interfacce audio funzionano bene.
  • Per trasmissioni con più personaggi composti con NDI, si consiglia di usare un microfono cablato e un’interfaccia audio professionale per ogni computer.
  • Per facilitare l’indirizzamento, può essere utile anche un piccolo mixer.

Prova completa

Prima dell’interpretazione in diretta, assicurati di eseguire una prova completa con il voice talent stesso. Una volta regolato tutto correttamente, non modificare nulla. Provalo su Facebook, YouTube, Twitch, ecc.

Frequenza fotogrammi della scena

Nella maggior parte dei casi, è consigliabile impostare la frequenza dei fotogrammi della scena su 24 fps (la frequenza fotogrammi più comune per i cartoni animati).

Utilizzo di più CPU collegate a un commutatore di rete

Collega il cavo Ethernet gigabit (Cat 5e o Cat 6) da ogni computer al commutatore.

Monitor per visualizzare i personaggi collegati

Se desideri che ogni persona o personaggio possa vedersi con i personaggi collegati, imposta un collegamento dal monitor del computer utilizzato per la composizione al luogo in cui si trova la persona.

Stranutire

Durante l’interpretazione dal vivo, se utilizzi il tracciamento del volto e hai bisogno di starnutire, bere o distogliere lo sguardo per qualsiasi motivo, tieni premuto il tasto punto e virgola (;) per bloccare il tracciamento del volto e degli occhi ed evitare così che il personaggio segua i tuoi movimenti. L’impostazione Uniformità per il comportamento Volto regola la velocità di ritorno al tracciamento della posizione corrente, quando rilasci il tasto del punto e virgola.

Sincronizzazione labiale

  • Verifica se, disattivando l’opzione Incrementa audio basso del pannello Videocamera e microfono, migliora la precisione della sincronizzazione labiale. Questo consente di ridurre l’infiltrazione di altre voci nel microfono, ma richiede l’impostazione di buoni livelli di input.
  • Stai pronto a regolare il guadagno dell’input audio al volo, se necessario (ad es., se il voice talent si allontanadal microfono, oppure se inizia a urlare).
  • L’audio deve essere ritardatonelcommutatore software (OBS/Wirecast), in genere di un fotogramma o due (circa 60 millisecondi). Per regolarlo, batti le mani al microfono e allinea il suono visivamente con i movimenti della bocca (visualizzati dall’utente all’altra estremità, ad esempio su Facebook Live).

Il problema più comune della sincronizzazione labiale in scenari dal vivo, sono le labbra che si muovono quando dovrebbero essere ferme o viceversa, e una scarsa sincronizzazione tra l’audio e il movimento delle labbra.

Labbra che si muovono quando dovrebbero essere ferme

Questo problema si verifica in genere in ambienti rumorosi, ad esempio su un palco. È meno comune negli scenariin streaming,ma può verificarsi se dell’audio indesiderato viene acquisito dal microfono.

  • Isola il voice talent con una cabina insonorizzata.
  • Riduci il livello dell’audio in entrata nel computer su cui è in esecuzione Character Animator.
  • Fai utilizzare al voice talent un microfono o una cuffia con ottima attenuazione dei segnali fuori asse. Il microfono che determina la sincronizzazione labiale non deve essere necessariamente lo stesso microfono utilizzato per la trasmissione audio.
  • Applica un gate audio e un filtro passa-alte al segnale del microfono prima che raggiunga Character Animator. Non inviare questo stesso audio alla trasmissione finale.
  • Applica dei trigger alle bocche neutre in modo che un altro utente possa disattivare la bocca del pupazzo quando non deve parlare.

Labbra che rimangono ferme quando dovrebbero muoversi o che mostrano i visemierrati

Questo problema si nota di meno, ma vale la pena prenderlo in considerazione. L’algoritmo di sincronizzazione labiale funziona meglio quando riceveun segnaleaudio pulito, senza audio indesiderato da analizzare. Se il segnale è troppo basso, la bocca non si muove molto e mostra principalmente consonanti. Anche se è troppo alto non si muovemolto,ma in questo caso mostra principalmente vocali.

  • Aumenta o riduci il livello dell’audio in entrata nel computer su cui è in esecuzione Character Animator. L’audiometro può risultare utile.
  • Applica un compressore/limitatore al segnale del microfono prima che raggiunga Character Animator. In tal modo, il livello del segnale diventa più uniforme e puoi aumentarlo senza sovraccarico. Puoi inviare o meno questo audio alla trasmissione finale. Si tratta di una procedura comune utilizzata per trasmettere l’audio (il motivo per cui gli annunci pubblicitari hanno un audio così alto).

Scarsa sincronizzazione tra l’audio e il movimento delle labbra

Le labbra del personaggio devono essere sincronizzate con la voce del personaggio. In una situazione ideale, il pubblico non dovrebbe nemmeno notare la sincronizzazione labiale; una scarsa sincronizzazione è invece molto evidente. Il calcolo deivisemiaggiunge un piccolo ritardo all’output video, ma anche Mercury Transmit, NDI e gli strumenti video professionali aggiungono un ritardo. Questo significa che è applicare all’audio percepito dal pubblico un ritardo corrispondente a quello della pipeline video.

  • Se il ritardo supera i 20 ms circa, è importante che chi registra non senta l’audio ritardato della propria voce durante l’interpretazione. Hai mai sentito il ritorno della tua voce con mezzo secondo di ritardo in un’audioconferenza? È impossibile pensare o parlare in uno scenario simile. Le cuffie con riduzione del rumore con l’aggiunta di una piccola quantità di audio non ritardato possono evitare che si senta la propria voce in ritardo. Inoltre, un set di cuffie è utile per sentire i suggerimenti del produttore o le domande del pubblico.
  • Esistono infiniti metodi per ritardare l’audio. La parte importante è che il ritardo è solo per il pubblico. Il computer su cui è in esecuzione Character Animator deve ricevere l’audio senza ritardo. Alcuni metodi per ritardare l’audio sono:
  • Unità di effetti audio esterne (outboard)
  • Passa l’audio a un software DAW prima che venga trasmesso.
  • Wirecast e Studio OBS possono anche ritardare l’audio NDI e l’audio inviato all’interfaccia audio del computer.

Utilizzo di NDI per inviare il personaggioad altre applicazioni

Quando utilizzi NDI per inviare il personaggio a un’altra applicazione, anche l’audio dovrà in qualche modo essere inviato all’applicazione:

  • A partire dalla versione 1.1, Character Animator non invia l’audio tramite NDI. È necessario gestire manualmente l’audio con un mixer e con l’interfaccia audio del computer. NDI Scan Converter su Mac può ricevere l’input dell’interfaccia audio e inviarlo come output NDI. Questa soluzione non è applicabile per Windows.

Applicazioni in background rallentate

App Nap è una funzione per il risparmio energetico di macOS che imposta le applicazioni inattive in stato di pausa, riducendo così il consumo di energia. La funzione consente di estendere la durata della batteria per i portatili Mac e può anche avere un impatto sul consumo complessivo del computer.

  • Se durante la trasmissione esegui delle applicazioni in background, è molto importante disattivare App Nap sul computer in modo che le applicazioni non vengano rallentate.

Per disattivare App Nap per tutte le applicazioni sul sistema, incolla questo comando nel Terminale e premi Invio:

defaults write NSGlobalDomain NSAppSleepDisabled -bool YES

Manovrare i pupazzi

Un buon burattinaio può animare un personaggio, ma prima ha bisogno di un buon burattino (o pupazzo) e di un modo per interagire con esso.

Webcam (facoltativo)

  • Un piccolo monitor è molto utile se il burattinaio non è al computer su cui viene eseguito Character Animator.
  • Per funzionare bene, le webcam hanno bisogno di un volto correttamente illuminato. Possono andare bene anche le luci al LED.
  • Per risultati ottimali si consiglia di guardare direttamente nella webcam. Questo significa che azioni come bere o leggere da un copione possono far reagire il personaggio in modi imprevedibili.
  • Il comportamento Ruota la testa può essere un valido metodo per controllare la testa di un personaggio, ma ti obbliga a distogliere lo sguardo dallo schermo del computer. Questo va bene se sei il voice talent, ma se stai anche gestendo animazioni o grafica, usa i trigger da tastiera.

Trigger

  • In un ambiente dal vivo, è bene avere a disposizione diversi movimenti per il personaggio, in modo da rendere le cose più interessanti, ad esempio:
    ▪ Mimica facciale
    ▪ Movimenti delle mani e delle braccia
    ▪ Pensiero (alzare lo sguardo)
    ▪ Movimenti di noia/impazienza (tamburellare con le dita, tic, altri movimenti con cui riempire i tempi morti)
  • Attualmente, per i trigger usiamo sia la tastiera che i dispositivi MIDI. Puoi mettere degli adesivi sulla tastiera, oppure ti possono essere utili anche questi dispositivi:
    ▪ Elgato Stream Deck (piccoli tasti LCD)
    ▪ X-Keys (altamente programmabile e con un buon supporto delle macro)

Questo prodotto è concesso in licenza in base alla licenza di Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported di Creative Commons.  I post su Twitter™ e Facebook non sono coperti dai termini di Creative Commons.

Note legali   |   Informativa sulla privacy online