Needs more content!
Die Untertitel werden von mehreren gleichzeitig leicht versetzt tippenden Menschen erstellt. Meist 3-4 Menschen. Das Gehörte muss getippt und abgeschickt werden, zusätzlich muss koordiniert werden, wer wann am Zug ist und welche Zeile abschickt. Das alles erfordert eine sehr hohe Konzentration.
Diese Prozesse verursachen naturgemäß eine Verzögerung die sich nicht vermeiden lässt, weder menschlich noch technisch. Fehlende oder doppelte Zeilen sowie Tippfehler können in diesem Prozess schnell entstehen und sind derzeit nicht vermeidbar. Für Korrekturen sind bei diesen Arbeitsgeschwindigkeiten keine Zeit. Diese oft ins Auge stechenden Fehler sind aber nicht relevant, da sie der Möglichkeit dem Inhalt zu folgen keinen Abbruch tun.
100% Perfektion sind in einem Live-Umfeld nicht möglich. Selbst professionelle Maschinenstenographen aus dem US-amerikanischen Raum machen live Fehler.
Unser Verständnis von Zugänglichkeit und Barrierefreiheit besagt, dass eine Teilnahme ohne „Vorkehrmaßnahmen“ möglich sein soll. Jeder Kongressteilnehmer sollte in einen Vortrag gehen können und daran teilhaben können wie alle andere auch. Trotz aller Bemühungen des NOCs hat das WLAN auf dem Kongress physikalische Grenzen und kann deshalb leider nicht immer zuverlässig funktionieren. Die Teilhabe sollte nicht davon abhängig sein ob das WLAN funktioniert, ob man noch Datenvolumen auf dem Handy hat oder ob der Akku noch Strom hat ober überhaupt ein passendes Gerät welches man mitschleppen muss.
Zunächst einmal, weil das Übersetzen in DGS voraussetzt, Leute zu haben, die in DGS dolmetschen können. Davon gibt es sehr wenige und noch weniger die auf dem Kongress unterwegs sind und mit dem Vokabular dort klar kommen. Menschen die schnell tippen können gibt es auf dem Kongress bedeutend mehr.
DGS wird nur von einem sehr kleinen Kreis an Menschen verstanden. Von Untertiteln hingegen profitiert ein sehr viel größerer Personenkreis, u.a. auch Menschen welche von DGS profitieren würden. Dazu gehören schwerhörige Menschen, nicht-Muttersprachler und eben auch taube nicht deutschsprachige Kongressbesucher. Zudem ist „die“ Gebärdensprache keineswegs international. Jedes Land hat seine eigene und es gibt genau wie in der gesprochenen Sprache regionale Dialekte. Eine Übersetzung eines englischen Vortrags in deutsche Gebärdensprache ist eine zusätzliche Herausforderung.
Nichts desto trotz: Wer gerne außerdem in die DGS dolmetschen möchte, bitte meldet euch bei uns! Wir haben auch bereits Angebote, für das nächste Mal, auf Abruf einzelne Talks in DGS übersetzt zu bekommen und freuen uns über weitere Angebote, dabei zu helfen! Ansonsten kümmern wir uns weiter um die Untertitel.
Weil das nicht funktioniert. Noch nicht. Ja, wir haben das ausprobiert. Ja, das wird sich auch irgendwann ändern, aber nicht morgen und auch nicht übermorgen. Wenn es soweit ist, sind wir alles andere als unglücklich, nicht mehr von Hand tippen zu müssen. Aber an diesem Punkt sind wir einfach noch nicht. Wenn du daran arbeiten möchtest, sehr gerne, aber bedenke, dass das – bei allen Erfolgen von neuronalen Netzen, Siri, Google Now und Cortana – in dieser schwierigen Situation alles andere als trivial ist. Für unsere Ohren banales wie Applaus oder Gelächter zu erkennen, ist maschinell noch kaum möglich.
Der Kongress ist nicht dafür geeignet solche Systeme zu testen.
Haben wir ausprobiert. Funktioniert teilweise. Funktioniert aber vor allem in den Situationen (gut gehaltene, deutschsprachige Talks), bei denen wir beim Tippen von Hand ebenfalls exzellente Ergebnisse erzielen. Hat aber auch Probleme (Fehlerkennungen, Wortschatz) und leider sind wir dabei auch eher von den wenigen Menschen, die das können, (und Einrichtungen wie Dolmetscherkabinen) viel abhängiger, als mit der derzeitigen Methode.
Es ist außerdem alles andere als weniger anstrengend, als zu tippen.Warum wird das professionell dann so gemacht? Weil dort nicht die Option besteht, mit größeren Teams gleichzeitig zu tippen, so wie wir das tun. Wer aber in dem Bereich weiter mit uns experimentieren möchte: gerne! Aber erwartet auch da keine Wunder oder das es sofort live produktiv eingesetzt wird.
Ähnlich wie bei den DGS-Dolmetschern müsste man auch hier genug Schriftdolmetscher verfügbar haben. Auf dem 32c3 und 31c3 hatten wir beide Male eine im Team. Deren Arbeitsweise, wenn sie in ihrem normalen Alltagsberuf unterwegs sind, unterscheidet sich von unserer. Sie können allein die Geschwindigkeit mit nahezu 1:1 was wir machen nicht leisten. Das gibt die Technik für die deutsche Sprache einfach nicht her. Sie arbeiten meist mit Kürzeln beim tippen und mit Satzverkürzungen sowie umformulieren. Das tun wir in aller Regel nicht oder kaum und möchten wir auch nicht. Die verwendeten Kürzel müssen auch an den jeweiligen Vortrag angepasst werden (vorher!) und derjenige müsste sich auch mit Englisch auseinander setzen, was nicht jeder kann und möchte.
Wir freuen uns ausgebildete Schriftdolmetscher im Team zu haben, finden aber, dass unsere Methode möglichst nah an dem zu bleiben was der Vortragende sagt vorzuziehen ist.
Anders sieht es aus bei Maschinenstenographen aus dem vor allem us-amerkanischen Raum. Diese können alleine durch die völlig andere verwendete Technik und Art der Eingabe nahezu 1:1 Live-Transkripten erstellen. Wir würden uns sehr freuen so jemanden im Team zu haben. Eine elektrische Stenomaschine ist vorhanden (Stentura 400 SRT) und kann dafür verwendet werden.
Wir sind der Auffassung, dass wir mit den verfügbaren Kräften (gut qualifizierte Engel!) ein sehr gutes Ergebnis abliefern können. Praktischerweise sind die Engel die den Kongress besuchen meist auch schon mit dem Wortschatz ziemlich vertraut, ein klarer Vorteil. Wir erzielen aus unserer Sicht Ergebnisse, die in dieser speziellen Situation ähnlich gut – teilweise vielleicht auch besser – sein dürften, wie die der Profis und profitieren vom Zugriff auf hochqualifizierte, aber doch sehr günstige Engelkräfte.
Vertraut uns einfach, dass wir uns ausreichend intensiv mit der Materie beschäftigt haben, um gut genug zu wissen, warum wir das so machen, wie wir das machen. Wenn ihr noch weitere Fragen habt, wendet euch gerne an uns und quatscht uns im IRC an.
Ach ja und übrigens ist nicht das Timing die aufwändigste Aufgabe, sondern die Transkription des Inhalts.
Needs more content!
Freischaltung erfolgt nach dem Besuch einer Einführung. Dort wird auch der Umgang mit dem Live-Subtitles-System erklärt.
Regelmäßig. Mindestens einmal täglich, bei Bedarf und Möglichkeiten auch öfter. An Tag eins findet die erste Einführung um 10:00 statt in Raum C1. Ansonsten siehe Kongress-Wiki.
Bring your own device! Wir haben leider keine Ressourcen, um Laptops zur Verfügung zu stellen. Bitte bring deinen eigenen Rechner mit. Ein LAN-Kabel kann auch nicht schaden. Außerdem empfiehlt sich ein DECT-Telefon oder zumindest anderweitig eine Eventphone-Anbindung!
Einen aktuellen Browser. Vorzugsweise Chromium/Chrome, Firefox sollte aber auch funktionieren. IE ist bääh. Und deine Hardware sollte eine Ethernet-funktionsfähige Schnittstelle besitzen (WLAN ist uns nicht zuverlässig genug).
Leider nein, die Verzögerung der Streams ist für diesen Zweck zu hoch. Unser Live-Subtitles-System erfordert funktionierendes Team-Work und Koordination. Das ist von außerhalb nicht möglich.
Prima! Sprich uns im IRC an und gehe auf L2S2s Github-Repo und erstelle dort ein Issue!
Gut! Bitte ließ die Einführung dazu: https://wiki.c3subtitles.de/de:postprocessing:contribute