Aquí tiene algunas sugerencias, trucos y soluciones alternativas para ayudarle mientras transmite con Adobe Character Animator.

Los siguientes son algunos problemas que podría encontrarse con la animación en directo y algunas posibles soluciones. Para obtener más información acerca de los conceptos básicos de transmisión de escenas con Character Animator, consulte Transmisión de una escena en directo.

Micrófono y auriculares

Un micrófono de alta calidad con rechazo del ruido de fondo supone una gran diferencia, así como un entorno de audio libre de ruidos. Si el locutor necesita monitorizar audio de cualquier fuente, lo mejor es que utilice auriculares para evitar que se oigan otros sonidos. Los auriculares también son un modo eficaz de evitar que el intérprete oiga su voz con retardo.

Ejemplos

  • Auricularescon micrófono:
    SpeechWare FlexyMike Dual Ear Cardioid
  • Micrófono de escritorio (si la grabación de la cabeza la está realizando otra persona):
    EV RE20
    Shure SM7
  • Fabricantes de interfaces de audio:
    RME
    MOTU

Nota: Aunque USB resulta útil, la mezcla y la gestión de audio resultan más complicadas que con equipo con cableado clásico.

  • Para las emisiones con un solo personaje, la mayoría de los micrófonos e interfaces USB bastan.
  • Si hay varios personajes compuestos con NDI, recomendamos un micrófono con cable y una interfaz de audio profesional para cada equipo.
  • Para facilitar el enrutamiento, un pequeño mezclador también puede resultar útil.

Ensayo de extremo a extremo

Antes de una actuación en directo, asegúrese de probarlo todo de extremo a extremo con auténticos intérpretes. Una vez que todo funcione bien, no cambie nada. Realice pruebas en Facebook, YouTube, Twitch, etc.

Velocidad de fotogramas de la escena

En la mayoría de los casos, puede establecer la velocidad de una escena en 24 fps (la velocidad más común para dibujos animados).

Trabajo con varias CPU conectadas a un interruptor de red

Conecte un cable Gigabit Ethernet (Cat 5e o Cat 6) desde cada equipo al interruptor.

Monitores para ver personajes combinados

Si desea que cada persona o personaje pueda verse con los personajes combinados, proporcione una señal de monitor desde el equipo de composición hasta la ubicación del intérprete.

Estornudos

Durante la actuación en directo, si está usando el seguimiento de cara y debe estornudar, tomar un sorbo de agua o apartar la mirada por cualquier motivo, mantenga pulsada la tecla de punto y coma (;) para congelar el seguimiento de la cara y los ojos, y así evitar que el personaje siga sus movimientos. La configuración Suavizado del comportamiento Cara controla la velocidad con la que se retoma el seguimiento cuando suelta la tecla de punto y coma.

Sincronización de labios

  • Compruebe si desactivar la opción Mejorar automáticamente la entrada de audio del panel Cámara y micrófono mejora la precisión de la sincronización de labios. De este modo se reduce el filtrado de otras voces en el micrófono, aunque será necesario que establezca un buen nivel de entrada.
  • Esté preparado para ajustar la ganancia de entrada de audio sobre la marcha si es necesario (p. ej., si un intérprete se aleja delmicrófonoo se emociona y comienza a gritar).
  • Es preciso retrasar el audioenel interruptor software (OBS/Wirecast), por lo general un fotograma o dos (aproximadamente 60 milisegundos). Afine dando una palmada junto al micrófono y alineando visualmente el sonido con el cambio de la boca (desde el punto de vista de la persona que observa al otro lado, p. ej., a través de Facebook Live).

Los problemas más habituales con la sincronización de labios en directo es que los labios se muevan cuando deberían estar quietos, que estén quietos cuando deberían moverse, y una mala sincronización entre el audio y el movimiento de la boca.

Los labios se mueven cuando deberían estar quietos

Este problema suele suceder en un entorno ruidoso, como es cualquier escenario. Es menos común durante unatransmisión, aunque puede suceder si se cuela en el micrófono audio no deseado.

  • Aísle a su intérprete con una cabina de sonido.
  • Reduzca el nivel del audio procedente del equipo que ejecuta Character Animator.
  • Haga que el intérprete utilice un micrófono (o auriculares con micrófono) con un excelente rechazo fuera del eje principal. El micrófono con que se modela la sincronización de labios no tiene por qué ser el mismo con el que se emite el audio.
  • Pase la señal del micrófono por una puerta de ruido y un filtro de pasa alto antes de que llegue a Character Animator. No envíe este mismo audio a la emisión final.
  • Haga las bocas neutrales activables, de forma que alguien pueda silenciar la boca de la marioneta cuando no deba estar hablando.

Los labios no se mueven cuando deberían, o muestran visemasincorrectos

Este problema es menos apreciable/llamativo, pero sigue siendo importante tenerlo en consideración. El algoritmo de sincronización de labios funciona mejor cuando recibe una señalde calidad,sin sonidos indeseados que analizar. Si la señal es demasiado floja, la boca no cambiará mucho y mostrará sobre todo consonantes. Si es demasiado fuerte, tampoco cambiarámucho,pero mostrará sobre todo vocales.

  • Aumente o reduzca el nivel del audio procedente del equipo que ejecuta Character Animator. El audiómetro puede resultarle útil.
  • Aplique un compresor/limitador a la señal antes de que llegue a Character Animator. De este modo, la señal se nivelará y podrá elevarla sin sobrecargar. Si lo desea, puede enviar este audio a la emisión final. Se trata de un proceso común en el audio de emisiones (por eso los anuncios suenan tan altos).

Mala sincronización entre el audio y el movimiento de la boca

Los labios del personaje deben estar sincronizados con su voz. Lo ideal es que el espectador no note siquiera la sincronización de labios; una mala sincronización es muy fácil de percibir. El cálculo devisemasañade un pequeño retardo en la salida de vídeo, pero también lo hacen Mercury Transmit, NDI y otros equipos de vídeo profesional. Esto significa que debe retrasar el audio para el público en la misma cantidad que se retrasa el audio.

  • Si el retraso supera los 20 ms, es importante que el intérprete no oiga el audio retrasado mientras actúa. ¿Ha oído alguna vez su voz reflejada medio segundo tarde durante una llamada de conferencia? En esa situación, resulta imposible pensar o hablar. Empleando unos auriculares que cancelen el ruido y una pequeña cantidad del audio no retrasado se puede evitar que el intérprete escuche su propia voz con retardo. Los auriculares también son útiles para recibir indicaciones de los productores o preguntas del público.
  • Hay maneras casi ilimitadas de retrasar el audio. Lo importante es que el retraso sea solo para el público. El equipo que ejecuta Character Animator debería recibir audio sin retrasar. Algunos métodos para retrasar el audio son:
  • Usar un equipo de audio externo.
  • Pasar el audio por un DAW (estación de trabajo de audio digital) de software antes de que llegue a la emisión.
  • Confiar en Wirecast y OBS Studio, que también pueden retrasar tanto el audio de NDI como el enviado a la interfaz de audio del equipo.

Uso de NDI para enviar su personaje aotras aplicaciones

Cuando utilice NDI para enviar su personaje a otra aplicación, deberá buscar el modo de hacerle llegar también el audio:

  • En su versión 1.1, Character Animator no envía audio a través de NDI. Deberá gestionar manualmente el audio utilizando un mezclador y la interfaz de audio del equipo. En un Mac, NDI Scan Converter pueden tomar la entrada de la interfaz de audio y enviarla como una salida NDI. Esta solución alternativa no es aplicable para Windows.

Las aplicaciones en segundo plano se ejecutan con lentitud

App Nap es una función de ahorro de energía de macOS que hace que aplicaciones inactivas entren en estado de pausa, lo que ayuda a reducir el consumo. Puede ayudar a prolongar la vida de la batería en portátiles Mac y tiene un efecto importante en el consumo energético general del equipo.

  • Si está ejecutando cualquier aplicación en segundo plano durante la emisión, es muy importante que desactive App Nap en el equipo para que dichas aplicaciones no se ralenticen.

Para desactivar App Nap para todas las aplicaciones del sistema, pegue este comando en Terminal y presione Intro:

defaults write NSGlobalDomain NSAppSleepDisabled -bool YES

Manejo de marionetas

Un buen titiritero puede insuflar vida a un personaje, pero primero necesita una buena marioneta y un modo de interactuar con ella.

Cámaras web (opcional)

  • Un pequeño monitor de vídeo es muy útil si el titiritero no está en el mismo equipo que Character Animator.
  • Para funcionar bien, las cámaras web necesitan que la cara esté adecuadamente iluminada. Las luces LED también pueden funcionar bien.
  • El mejor resultado se obtiene cuando se mira hacia delante. Esto significa que acciones como leer de un guion o beber agua pueden provocar que el personaje reaccione de forma imprevisible.
  • El comportamiento Rotador de cabeza puede ser un modo excelente de controlar la cabeza de un personaje, pero también obliga a apartar la mirada de la pantalla del equipo. No hay problema en el caso del actor de voz, pero si la misma persona está activando las animaciones o ilustraciones, utilice activadores de teclado para lograr mejores resultados.

Activadores

  • En un entorno en directo, es estupendo disponer de una variedad de gestos para que el personaje sea más interesante. Por ejemplo:
    ▪ Emociones faciales
    ▪ Gestos de los brazos y las manos
    ▪ Pensar (mirar hacia arriba)
    ▪ Inactivo/inquieto (tamborilear con los dedos, tics corporales, cualquier movimiento para rellenar tiempos muertos)
  • En este momento, para los activadores se utiliza el teclado del equipo o también dispositivos MIDI. Puede poner pegatinas en el teclado, o también pueden resultar útiles los siguientes dispositivos:
    ▪ Elgato Stream Deck (pequeños botones LCD)
    ▪ X‐Keys (muy programables y buena compatibilidad con macros)

Esta obra está autorizada con arreglo a la licencia de Reconocimiento-NoComercial-CompartirIgual 3.0 Unported de Creative Commons.  Los términos de Creative Commons no cubren las publicaciones en Twitter™ y Facebook.

Avisos legales   |   Política de privacidad en línea