Ich glaube, ich übertreibe nicht, wenn ich schreibe, dass die letzten Tage wohl die Besten in Deutschland waren seit ich nicht mehr in Deutschland lebe.
Seit Dienstag abend bin ich in Berlin, um die re:publica zu besuchen. Ich wusste ja, dass meine Twitter-Timeline großartig ist, aber ich weiss nun auch, dass es auch im richtigen Leben richtig nette Menschen sind. Ich habe so viele nette Menschen getroffen, denen ich folge oder die mir folgen und / oder dieses Blog lesen. Außerdem habe ich Menschen wieder getroffen, die ich nicht mehr gesehen hatte, seit ich aus Deutschland weg bin. Und ich habe mich so gefreut, dass sie sich gefreut haben, mich zu sehen. Es war wie ein Klassentreffen nach langer langer Zeit.
Als allererstes traf ich Julia Probst, die für mich den besten und bewegendsten Auftritt auf der Re:publica hatte. Sie ist gehörlos und wurde bekannt, weil sie darüber twittert, was sie Fußballspielern und Trainern während des Spiels von den Lippen abliest und zudem die Körpersprache von Politikern analysiert. Außerdem bloggt sie zum Thema Barrierefreiheit und Gehörlosigkeit.
Philip Banse interviewte Julia (und andere Blogger) über ihre Erfahrungen und fragte sie über die Gebärdensprache aus. Eine Dolmetscherin übersetzte das, was Julia gebärdete und das, was der Moderator fragte. Und das Publikum im gut gefüllten Friedrichstadtpalast hörte aufmerksam zu und war fasziniert. Auch dann als Julia anprangerte, dass in Deutschland nur 10 Prozent des Fernsehprogramms untertitelt wird, während in den USA und Großbritannien bereits 100% Untertitel angeboten werden. Und sie prangerte die fehlende schulische Integration behinderter Kinder an. Kurzum: Julia hat in den 20 Minuten wahrscheinlich mehr für das Bewusstsein bei der Gesellschaft, für Inklusion, Gebärdensprache und Barrierefreiheit getan als so mancher Almosenverein in den letzten 10 Jahren. Und sie hat eines gezeigt: Man kann die Leute wirklich für das Thema begeistern, wenn man nur will und es richtig macht. Gebärdensprache kann so ein tolles Instrument dafür sein.
Als das Gespräch zu Ende war, applaudierte der ganze Friedrichstadtpalast in Gebärdensprache. Die Leute hielten ihre Hände in die Luft und schüttelten sie, eben so wie man das in Gebärdensprache macht. Und ich muss ehrlich sagen, in dem Moment war ich wirklich gerührt, weil ich es als riesiges Zeichen der Akzeptanz empfand. Die Gebärdensprache ist sozusagen bei den Nerds angekommen, dann kann das mit den Normalbürgern doch auch klappen, denke ich mir.
Und weil es mich so viele Leute gefragt haben: Ja, die Barrierefreiheit der Re:publica hat sich verbessert seit ich das letzte Mal dort war. Am barrierefreien Eingang steht dauerhaft Personal, das den Eingang umgehend öffnet und der Mitarbeiter in der Kalkscheune hat mir sofort seine Handynummer gegeben, damit ich ihn jederzeit erreichen kann und rein und raus komme.
Was ich mir für das nächste Mal wünsche: Schriftdolmetscher, die das Gesagte mitschreiben, was dann auf die Leinwand geworfen wird, und Gebärdensprachdolmetscher. Dann könnten auch gehörlose und schwerhörige Menschen die Sessions ohne Einschränkungen besuchen. Ich zahle auch 10 Euro mehr an Eintritt, wenn das möglich wäre. Und ich bin sicher, nach dem tollen Auftritt von Julia bin ich nicht die Einzige. Oder es findet sich ein Sponsor. Ich träume schon vom Banner am Eingangsbereich: „Die Barrierefreiheit auf der re:publica 2012 wird Ihnen präsentiert von [hier eine Aufzugs-, Hörgeräte-, Treppenliftfirma einsetzen oder eine Firma, die einfach verstanden hat, dass behinderte Kunden auch Kunden sind und dass das Thema eh gerade ziemlich cool ist]“.
Julia war in dem Panel großartig und ich bin sicher, dass sie noch einiges bewegen wird. Ihre Energie ist ansteckend.
Das klingt tatsächlich nach einem eindrucksvollen und bewegenden Moment.
Vor Jahren wurde mal in Hamburg eine Gebärdensprachen-Avatar entwickelt, der in der Lage ist, elektronische Dokumente zu gebärden. Abgesehen davon, dass ein menschlicher Gebärdendolmetscher sicher viel flexibler wäre – gerade wenn es um die Übersetzung von Vorträgen geht -, könnte so etwas eine Hilfe sein (auf dem Umweg über Sprachanalyse)?
Beste Grüße
MB
[…] Hände schüttelte. Wer mehr und detailierter über den Vortrag lesen möchte, dem sei das Blog „Behindertenparkplatz“ von Christiane Link empfohlen, die das sehr schön aufgearbeitet […]
MB: Schöne Idee, aber ich denke nicht, dass die jetzt schon umsetzbar ist. Es ist für aktuelle Hard- und Software immer noch schwierig genug, aus gesprochener Sprache Text zu machen — in halbwegs ruhiger Büro-Umgebung. Leg da Hintergrundgeplapper von 100 Leuten und etwas Lärm drauf und die Software kapituliert. Dazu kommt dann noch, dass Gebärdensprache (wenigstens die deutsche, soweit ich die Wikipedia verstehe) eine vollkommen eigene Sprache ist, mit eigener Syntax, eigenen Begriffen, und vor allem nicht zwingend sequenziell wie gesprochene Sprache ist. Also muß extrem viel Know-How zum Sprachverständnis in der Software her. Der Computer muß verstehen, was er „hört“, sonst kann er nicht sinnvoll übersetzen. Und ich denke, dass man beim Sprachverständnis in Software noch sehr weit am Anfang steht.
Was vielleicht möglich wäre, wäre Wort für Wort in Gebärden zu übersetzen, aber ich denke, das wäre für Gebärdensprachler ziemlich holprig. Ungefähr so, als ob man Französisch Wort für Wort ins Deutsche übersetzt.
Tux2000
Ich habe mir auf den Aufgabenzettel für die kommende Woche die Aufgabe „Anmeldung für einen Gebärdesprachkurs“ aufgeschrieben.*
Ich hatte einen solchen Kurs in den frühen 90ern schon mal besucht, aber aus Gründen früh wieder abgebrochen und seitdem fast alles vergessen, bis auf diese Geste, mit der „ich mag“ ausgedrückt wird, die hat etwas sehr Zartes…
Wenn und falls (und so) ich diesen Kurs und weitere notwendige Übungen (Gebärdenstammtisch – ich suchmaschiniere das zur rechten Zeit) dann erfolgreich abschließen sollte, dann werde ich meinem Unternehmen (Telekommunikationsanbieter) vorschlagen, dass wir in unserer lokalen Niederlassung per Schild auf dem Tresen (und auf der Webseite?!) anbieten, dass – nach Anmeldung oder spontan – ein „Gebärder“ (sagt man so? Ich frag einfach mal) zur Verfügung steht, um Kundenanliegen direkt vor Ort zu klären.
Keine Ahnung, ob das gebraucht wird – aber ich bin sicher, die Gebärde für „DSL-Modem“ würde ich nach kurzer Zeit aus dem Effeff beherrschen ;)
*Disclaimer: Ich mache das vor allem und auch aus Eigeninteresse – ich finde die Sprache interessant.
@Bloggerin: Vielen Dank für Ihr Blog – ich lerne viel daraus.
Cool, dann brauche ich meine Eindrücke vor allem zu Julias Panel nicht mehr selber schreiben und kann auf Deinen Artikel verlinken. Finde es nur schade, dass ich Dich nicht getroffen habe.
[…] „Ich glaube, ich übertreibe nicht, wenn ich schreibe, dass die letzten Tage wohl die Besten in Deutschland waren seit ich nicht mehr in Deutschland lebe. Seit Dienstag abend bin ich in Berlin, um die re:publica zu besuchen.“ Behindertenparkplatz: Re:publica 2011: Der Friedrichstadtpalast applaudierte lautlos […]
[…] In Deutschland werden lediglich 10% der Sendungen im Fernsehn mit Untertiteln angeboten, während es… […]
@Tux2000: „Was vielleicht möglich wäre, wäre Wort für Wort in Gebärden zu übersetzen, aber ich denke, das wäre für Gebärdensprachler ziemlich holprig.“
Es gibt zwei Systeme für Gebärden. Auf der einen Seite steht die Gebärdensprache, die eine komplette eigene Grammatik und daraus resultierend auch eine eigene Kultur hat. Die Gebärdensprache richtet sich an Personen die von Geburt an gehörlos (oder stark schwerhörig) sind und ist dann die Muttersprache dieser Menschen. Das andere System sind die lautsprachbegleitenden Gebärden, die, wie der Name schon sagt, genau das wiedergibt, was in der Lautsprache gesagt wurde. Hier wird also auf der deutschen Sprache aufgesetzt und die Grammatik ist somit die gleiche wie im Deutschen. Diese „Sprache“ richtet sich an Personen, die die deutsche Sprache bereits beherrschen, aber keine Lautsprache mehr hören können. Dieses sind dann in der Regel spätertaubte Menschen, die hörend zur Welt gekommen sind und dann irgendwann nach dem Spracherwerb das Gehör verloren haben.
Letzteres könnte man, bei funktionierender Spracherkennung, sicher halbwegs mit dem Rechner visualisieren (wenn man das Problem von Worten mit mehreren Bedeutungen mal ausklammert – hier wüsste aber die Zielgruppe um das Problem und hat das Fundament in der deutschen Sprache um semantische Unstimmigkeiten zu erkennen), während ersteres eine komplett automatische Übersetzung wäre.
Wenn man aber eh eine Spracherkennung hätte, die robust genug wäre um unter Livebedingungen eine Erkennung durchzuführen, würde es aus meiner Sicht viel eher Sinn machen, die Ergebnisse als „Untertitel“ auf einer Leinwand einzublenden anstatt diese zu Gebärden, da nicht jeder Hörgeschädigte Gebärden kann (da schließe ich mich selber schon mit ein).
@Kommentator: Unterschätze den Lernaufwand nicht. Die Gebärdensprache ist eine komplett eigenständige Fremdsprache und du wirst einiges an Übung brauchen, um dort ein Level zu erreichen, dass ausreichend für Kundensupport ist, den man so offensiv bewerben könnte.
Ansonsten hoffe ich, dass es eventuell nächstes Jahr eine verstärkte Barrierefreiheit für hörgeschädigte Menschen gibt (Julia und andere haben sicher auf dieses Problem in diesem Jahr Aufmerksamkeit gelenkt), so dass es sich dann auch für mich lohnen würde, dort hinzufahren. Reizen würde es mich ja schon…
> Die Gebärdensprache ist sozusagen bei den Nerds angekommen, dann kann das mit den Normalbürgern doch auch klappen, denke ich mir.
Ähm, so wie die Themen Datenschutz, digitale Gesellschaft, maschinenlesbare Regierung etc.? Zugegeben, diese Themen sind spezieller, was ich aber sagen will ist – die Nerds sind doch immer die early adopter. Das sagt doch kaum was über die Gesamtgesellschaft aus. Träumen darf man allerdings.
> nur 10 Prozent des Fernsehprogramms untertitelt wird
Die Zahl erscheint mir unglaublich hoch. Und bevor man diesen Missstand angeht, sollte man vielleicht das Programm an sich ausmisten. Dann bleiben vermutlich ohnehin nur 10% oder weniger übrig.
Wow, ein solcher Beitrag bereichert das Internet und ich habe liebend gerne den gesamten Artikel gelesen. Wer eine körperliche Behinderung hat und nicht in der Lage ist, im vollen Umfang sehen oder hören zu können, der ist in unserer Gesellschaft noch immer stark benachteiligt und ich sehe es ebenso wie du/ihr, dass sich daran unbedingt etwas ändern sollte. Ansonsten fand ich es auch interessant, dass die Gestik von Politikern bewertet wird. Niemand kann wohl exakter sagen, welche Assoziationen diese Gesten wecken als jemand, der aufgrund seiner Gehörlosigkeit verstärkt auf solche Dinge achtet. Mein größtes Lob und meine größte Anerkennung dafür!
@AUROnline: Das zweite System (lautsprachbegleitend) war mir nicht bekannt. Wird es auch von (vielen) GL verstanden?
Ich stimme Dir zu, dass zweite System für Computer leichter ist. Ob die Spracherkennungs-Software nun Tastatureingaben für eine Textverarbeitung simuliert oder für ein Frontend, dass einen Avatar zum Gestikulieren bringt, dürfte ziemlich egal sein. Das Riesenproblem Textverständnis entfällt damit fast vollständig (Reste helfen der Spracherkennung).
Für einen schnellen Prototypen mit einem Minimal-Wortschatz könnte man vielleicht sogar stumpf Wort für Wort Videoclips abspielen. Bleiben noch Umgebungsgeräusche und falsch erkannte Worte.
Umgebungsgeräusche wird man mit guter Tontechnik los, z.B. passend ausgerichtetes Mikrofon, ggf. Zusatzmikrofone, mit denen man Umgebungsgeräusche analog oder digital wegrechnen kann. Vielleicht müßte man sich da mal Technik aus Flugzeugen oder Hubschraubern abschauen.
Falsch erkannte Worte haben mehrere Ursachen: Umgebungsgeräusche, darum kümmert sich die Tontechnik. Qualität der Software, da hilft nur testen. Mangelhaftes Training der Software auf den Sprecher. Und natürlich den Sprecher selbst. Ein nuschelnder, hecktischer und nervöser Dialekt-Sprecher, auf den die SW nicht trainiert ist, wird wahrscheinlich eine wesentlich höhere Fehlerrate haben als ein ruhiger, professioneller (Nachrichten-)Sprecher, auf den die SW trainiert ist.
Bis man sich in einer lauten Halle irgendjemand aus dem Publikum greifen und ihm/ihr ein Mikrofon ins Gesicht drücken kann, und das Gesagte dabei automatisch nahezu simultan und fehlerfrei in Gesten übersetzt wird, dürfte noch einige Zeit ins Land gehen. Hauptpunkt ist da definitiv die Spracherkennung, der Rest ist „nur“ eine textgesteuerte elektronische Marionette.
Tux2000
Ich glaube das Hauptproblem derzeit ist einfach noch die Spracherkennung, die, insbesondere bei unbekannten Textarten noch nicht so fehlerfrei arbeitet, wie es wünschenswert wäre. Was du beschreibst, ist der „Respeaker“-Ansatz, den z.B. die BBC und die Öffentlich Rechtlichen für die Live-Untertitelung benutzen. Dieses bedeutet, dass es einen Sprecher gibt, den das Spracherkennungsprogramm kennt und der dann im Tonsignal gesagte noch einmal nachspricht, so dass es die Spracherkennung in Untertitel konvertiert. Das funktioniert derzeit (zumindest bei unseren ÖR) eher schlecht als recht und benötigt auch eine gewisse Vorbereitung, damit das Spracherkennungsprogramm auch unbekannte Namen und Fachterminologie erkennen kann. Bei einer Sportübertragung geht das noch, da man das Vokabular ja noch relativ genau abschätzen kann, allerdings wird dies bei „allgemeinen“ Vorträgen oder Podiumsdiskussionen schon komplizierter, da diese ja durchaus Wendungen haben können, die man vorher nicht vorhergesehen hat.
Noch kurz zu den lautsprachbegleitenden Gebärden: Meines Wissens sind viele Gebärden in beiden Systemen gleich, so dass Gebärdensprachler sicherlich den Sinn erkennen können (insbesondere da sie ja auch die Lautsprache zumindest als Schriftsprache kennen). Wie kompliziert das im Endeffekt ist, kann ich aber nicht beurteilen. Ich weiß auch nicht, wie es bei Gebärden mit Begriffen aussieht, die zwar den gleichen Namen aber mehrere Bedeutungen haben können. Ich könnte mir vorstellen, dass das (Tür-)Schloss eine andere Gebärde als das (Burg-)Schloss hat.
Ich persönlich glaube, dass es für den Anfang am saubersten und einfachsten wäre, Untertitel zu verwenden, da diese von allen gehörlosen, schwerhörigen und „normalen“ Teilnehmern verstanden wird, es keine Probleme mit der Textbedeutung gibt und die Technik hier auch schon am weitesten ist.
[…] Link schreibt in Re:publica 2011: Der Friedrichstadtpalast applaudierte lautlos über einen der bewegendsten Auftritte auf der diesjährigen re:publica: Kurzum: Julia hat in den […]
Re:publica – die Sache des Volkes. Das war es. Großartig.
Grandioser Artikel,sehr schön zu lesen. Ich würde auch gern Gebärdensprache erlernen, hat man sicher einige Vorteile und kann anderen besser helfen.
Mein bester Freund hat auch eine Behinderung. Wenn man sowas einmal mit erlebt hat, dann wird es jeder mit anderen Augen sehen können. Guter Artikel und sehr schön geschrieben.
Julia war in dem Panel großartig und ich bin sicher, dass sie noch einiges bewegen wird. Ihre Energie ist ansteckend.
Super Artikel und angenehm geschrieben. Leider gibt es immer noch zu viele Vorurteile gegenüber Menschen mit Behinderung. Alleine schon der Ausdruck „Behinerte“ stellt für mich schon eine Abwertung dar.
Hallo da ein Freund von mir auch eine Behinderung hat habe ich deinen Artikel sehr gerne gelesen und fand ich echt toll geschrieben. Oft sind die Menschen gegenüber Behinderten uneinsichtig oder stellen sich einfach alles zu einfach vor. Wenn man damit selbst mal kontakt hatte sieht man das alles in neuen Farben.
Das Thema „Umgang mit Behinderten“ ist immer so eine zweischneidige Sache. Ich gehe ganz normal um mit Ihnen. Einfach weil es genau so Menschen sind wie alle anderen auch. Ich verstehe so viele Leute nicht, die sich regelrecht vor Ihnen ekeln, Behindertenparkplätze klauen und dann sagen: Es gibt so wenige, die überhaupt fahren dürfen, da macht der eine Platz weniger nichts aus.
Ich habe für sowas kein Verständnis…