Im Folgenden finden Sie einige Tipps, Tricks und Problemlösungen, die Sie beim Streaming mit Adobe Character Animator CC unterstützen.

Es folgen einige Probleme, die unter Umständen bei der Live-Animation auftreten, sowie einige mögliche Lösungen und Umgehungsmöglichkeiten dafür. Information zu den Streaming-Grundlagen für Character Animator finden Sie unter Livestreaming einer Szene.

Mikrofon und Kopfhörer

Ein qualitativ hochwertiges Mikrofon mit Unterdrückung von Hintergrundgeräuschen sowie eine geräuschfreie Audioumgebung machen einen großen Unterschied aus. Müssen Sprecher auf Audio aus anderen Quellen achten, verwenden sie am besten Kopfhörer, um keine anderen Geräusche zu hören. Außerdem verhindern Kopfhörer auf effektive Weise, dass sie ihre eigene Stimme verzögert hören.

Beispiele

  • HeadsetMikro:
    SpeechWare FlexyMike Dual Ear Cardioid
  • Tischmikro (wenn Head‐Tracking von Dritten durchgeführt wird):
    EV RE20
    Shure SM7
  • Hersteller von Audioschnittstellen:
    RME
    MOTU

Hinweis: USB mag praktisch sein, doch wird so die Audiomischung und -verwaltung komplizierter als mit herkömmlicher kabelgebundener Ausrüstung.

  • Für Sendungen mit Einzelfiguren funktionieren die meisten USB-Mikrofone und -Audioschnittstellen problemlos.
  • Bei mehreren Figuren, die mit NDI kombiniert werden, empfehlen wir kabelgebundene Mikrofone und professionelle Audioschnittstellen für jeden Rechner.
  • Zur Vereinfachung des Routings kann ein kleiner Mixer von Vorteil sein.

End‐to‐End-Durchläufe

Führen Sie vor dem Livestreaming einen End‐to‐End-Test mit dem Sprecher durch. Nehmen Sie nach der endgültigen Abstimmung keine Änderungen mehr vor. Testen Sie alles auf Facebook, YouTube, Twitch usw.

Szenen-Framerate

In den meisten Fällen sollten Sie die Szenen-Framerate auf 24 fps einstellen (dies ist die häufigste Framerate für Cartoons).

Arbeiten mit mehreren CPUs beim Netzwerkschalter

Verbinden Sie jeden Rechner mithilfe eines Gigabit-Ethernetkabels (Cat.5e oder Cat.6) mit dem Schalter.

Monitore zum Anzeigen kombinierter Figuren

Wenn Sie möchten, dass sich die Beteiligten oder Figuren mit den kombinierten Figuren sehen können, stellen Sie einen Monitor-Feed vom Kompositionsrechner zum Standort der Sprecher zur Verfügung.

Niesen

Wenn Sie während des Live-Auftritts Gesichts-Tracking verwenden und niesen, trinken oder sich aus einem beliebigen Grund abwenden müssen, halten Sie die Ö-Taste gedrückt, um das Gesichts- und Augen-Tracking anzuhalten, damit die Figur Ihre Bewegungen nicht nachahmt. Die Einstellung für die Ausgleichung des Gesichts-Trackings bestimmt, wie schnell zur Nachahmung Ihrer aktuellen Pose zurückgekehrt wird, wenn Sie die Ö-Taste wieder loslassen.

Lippensynchronisation

  • Testen Sie, ob durch Ausschalten der Option „Leises Audio verstärken“ im Bedienfeld „Kamera und Mikrofon“ die Genauigkeit der Lippensynchronisation verbessert wird. So dringen andere Stimmen weniger in das Mikrofon. Voraussetzung hierfür ist jedoch, dass Sie gute Eingangsebenen eingestellt haben.
  • Unter Umständen müssen Sie die Audioeingangsverstärkung nach Bedarf spontan anpassen (z. B. wenn sich Sprecher vomMikrofonwegbewegen oder zu schreien beginnen).
  • Audio mussbeimSoftwareschalter (OBS/Wirecast) verzögert werden – normalerweise um einen oder zwei Frames (ca. 60 Millisekunden). Klatschen Sie zur Abstimmung in das Mikrofon und richten Sie das Klatschen visuell an den Mundbewegungen aus (wie von den Zuschauern am anderen Ende gesehen, z. B. über Facebook Live).

Die meisten Probleme bei der Lippensynchronisation in Liveszenarien sind, dass sich die Lippen bewegen, wenn sie stillstehen sollten, dass die Lippen stillstehen, wenn sie sich bewegen sollen, und dass schlechte Synchronisation zwischen Audio und den Mundbewegungen auftritt.

Lippen bewegen sich, wenn sie stillstehen sollten

Dieses Problem tritt normalerweise in lauten Umgebungen auf, z. B. auf Bühnen. Dies tritt beiStreamingszenarienweniger häufig auf, kann jedoch vorkommen, wenn unerwünschtes Audio in das Mikrofon dringt.

  • Platzieren Sie Sprecher in einer isolierten Tonkabine.
  • Verringern Sie den eingehenden Audiopegel am Rechner, auf dem Character Animator ausgeführt wird.
  • Lassen Sie Sprecher ein Mikrofon bzw. Headset mit exzellenter Feedback-Unterdrückung verwenden. Bei dem Mikrofon, das als „Treiber“ für die Lippensynchronisation dient, muss es sich nicht um dasselbe Mikrofon handeln, das für Sendungsaudio verwendet wird.
  • Wenden Sie vor der Übertragung an Character Animator ein Audio-Gate und einen Hochpassfilter auf das Mikrofonsignal an. Übertragen Sie nicht dasselbe Audio bei der endgültigen Sendung.
  • Sorgen Sie dafür, dass die neutralen Mundbewegungen nachvollziehbar sind, sodass die Mundbewegungen von Marionetten ausgesetzt werden können, wenn sie nicht sprechen sollen.

Lippen stehen still, wenn sie sich bewegen sollen, oder Anzeige eines falschenMundbilds

Dieses Problem ist weniger auffällig bzw. ablenkend, aber dennoch nicht ganz zu vernachlässigen. Der Lippensynchronisationsalgorithmus funktioniert am besten, wenn er über einintaktesSignal ohne unerwünschtes Audio zur Analyse verfügt. Wenn das Signal zu schwach ist, bewegt sich der Mund nicht viel und formt vorwiegend Konsonanten. Ist das Signal zu stark, bewegt sich der Mund ebenfalls nichtviel,aber formt vorwiegend Vokale.

  • Verringern oder erhöhen Sie den eingehenden Audiopegel am Rechner, auf dem Character Animator ausgeführt wird. Ein Audiometer kann von Vorteil sein.
  • Wenden Sie einen Kompressor/Limiter auf das Mikrofonsignal an, bevor es an Character Animator übertragen wird. Dadurch wird der Signalpegel ausgeglichen, sodass er ohne Übersteuerung erhöht werden kann. Sie können dieses Audio bei der endgültigen Sendung übertragen oder nicht. Dies wird häufig bei Sendungsaudio eingesetzt (daher ist Werbung oft lauter).

Schlechte Synchronisation zwischen Audio und den Mundbewegungen

Die Lippen der Figur sollten mit der Stimme des Sprechers synchronisiert sein. Im Idealfall bemerken Zuschauer die Lippensynchronisation nicht. Eine schlechte zeitliche Abstimmung ist sehr auffällig. Durch die Berechnung desMundbildskommt eine kurze Verzögerung der Videoausgabe hinzu, doch auch Mercury Transmit, NDI und professionelle Videoaufnahmen sorgen zusätzlich für Verzögerungen. Daher müssen Sie Audio für Zuschauer um dieselbe Zeit verzögern wie die Video-Pipeline.

  • Wenn die Verzögerung größer als etwa 20 ms ist, ist es wichtig, dass Sprecher beim Auftritt nicht die eigene Audioverzögerung hören. Haben Sie schon einmal Ihre eigene Stimme gehört, die bei einer Telefonkonferenz eine halbe Sekunde später an Sie zurückgegeben wurde? Dabei ist es unmöglich, nachzudenken oder zu sprechen. Kopfhörer mit Rauschunterdrückung, bei denen ein kleiner Teil des nicht verzögerten Audios hinzugefügt wird, können verhindern, dass sich Sprecher selbst verzögert hören. Kopfhörer sind auch nützlich, um Stichwörter von Produzenten oder Fragen von Zuschauern zu erhalten.
  • Für die Audioverzögerung stehen fast unbegrenzte Möglichkeiten zur Verfügung. Wichtig dabei ist, dass die Verzögerung nur für Zuschauer erfolgt. Der Rechner, auf dem Character Animator ausgeführt wird, sollte Audio ohne Verzögerung erhalten. Einige Methoden zur Audioverzögerung sind:
  • Externe Audiogeräte
  • Leiten Sie Audio durch eine Software-DAW, bevor es gesendet wird.
  • Wirecast und OBS Studio können auch NDI-Audio und Audio, das an die Audioschnittstelle des Rechners gesendet wird, verzögern.

Ihre Figur mit NDI anandere Applikationen senden

Wenn Sie NDI verwenden, um Ihre Figur an eine andere Applikation zu senden, müssen Sie auch Audioinhalte an diese Applikation senden:

  • Character Animator sendet (ab Version 1.1) kein Audio über NDI. Sie müssen Audio mithilfe des Mixers und der Audioschnittstelle des Rechners manuell verwalten. Unter Mac kann NDI Scan Converter die Eingabe Ihrer Audioschnittstelle als NDI-Ausgabe senden. Diese Lösung gilt nicht für Windows.

Hintergrund-Applikationen werden langsam ausgeführt

App Nap ist eine Energiesparfunktion von macOS, durch die inaktive Applikationen angehalten werden, um den Energieverbrauch zu reduzieren. Durch die Funktion kann die Akkulaufzeit von Mac-Laptops verlängert werden und sie kann Auswirkungen auf den Gesamtenergieverbrauch des Computers haben.

  • Wenn Sie während der Sendung Applikationen im Hintergrund ausführen, ist es äußerst wichtig, App Nap auf dem Rechner zu deaktivieren, damit diese Applikationen nicht beeinträchtigt werden.

Wenn Sie App Nap für alle Applikationen auf dem System deaktivieren möchten, fügen Sie folgenden Befehl im Terminal ein und drücken Sie den Zeilenschalter:

defaults write NSGlobalDomain NSAppSleepDisabled -bool YES

Marionettenspiel

Gute Marionettenspieler können eine Figur zum Leben erwecken, doch dazu benötigen sie eine gute Marionette und eine Möglichkeit zur Interaktion.

Webcams (optional)

  • Ein kleiner Videomonitor ist äußerst praktisch, wenn der Marionettenspieler sich nicht am Character Animator-Rechner befindet.
  • Damit Webcams richtig funktionieren, muss das Gesicht gut beleuchtet sein. Auch LEDs können gut geeignet sein.
  • Beste Ergebnisse werden erzielt, wenn die Person direkt in die Kamera sieht. Das Ablesen von einem Drehbuch oder Trinken können daher dazu führen, dass die Figur auf unvorhergesehene Weise reagiert.
  • Das Verhalten „Kopfdrehung“ eignet sich unter Umständen gut dazu, den Kopf einer Figur zu steuern, dazu muss die Person aber auch vom Computerbildschirm wegsehen. Wenn Sie der Sprecher sind, ist das in Ordnung, aber wenn Sie auch die Animationen bzw. Grafiken steuern, sollten Sie für bessere Ergebnisse Tastaturauslöser verwenden.

Auslöser

  • In einer Liveeinstellung ist es toll, über eine Vielzahl von Gesten zu verfügen, die eine Figur ausführen kann, um interessant zu bleiben, z. B.:
    ▪ Mimik
    ▪ Arm-/Handgesten
    ▪ Denken (Blick nach oben)
    ▪ Untätigkeit/Zappeln (trommelnde Finger, Körperbewegungen etc.)
  • Aktuell können Auslöser über die Tastatur oder über MIDI-Geräte gesteuert werden. Sie können die Tastatur mit Stickern versehen oder eines der folgenden praktischen Geräte verwenden:
    ▪ Elgato Stream Deck (kleine LCD-Tasten)
    ▪ X‐Keys (vielfältig programmierbar und guter Makro-Support)

Dieses Werk unterliegt den Bedingungen der Creative Commons Attribution-Noncommercial-Share Alike 3.0 Unported License.  Twitter™- und Facebook-Beiträge fallen nicht unter die Bedingungen der Creative Commons-Lizenz.

Rechtliche Hinweise   |   Online-Datenschutzrichtlinie