eJournals lendemains 39/154-155

lendemains
0170-3803
2941-0843
Narr Verlag Tübingen
Es handelt sich um einen Open-Access-Artikel der unter den Bedingungen der Lizenz CC by 4.0 veröffentlicht wurde.http://creativecommons.org/licenses/by/4.0/
2014
39154-155

„Ziemlich cool und nicht behindert“

2014
Beate Ochsner
ldm39154-1550101
101 DDossier Beate Ochsner „Ziemlich cool und nicht behindert“ 1 Gebärdensprache-Apps als Technologien des Selbst? For some people, sign language [is] a must. But most people don’t understand sign language, which means a lot of interesting conversations never take place. How can we help Google bridge the gap between those who use sign language and those who don’t? ! (Google 2014) 2 Diese Frage stellten sich David Svedenström, August Östberg und Ludwig Hallstensson, drei Studierende der Berghs School of Communication, im Rahmen eines Wettbewerbes der Future Lions in Cannes. Ergebnis ihrer Bemühungen ist der „completely fictional“ (ibid.) Film über einen ebenso imaginären Übersetzungsservice namens Google Gesture, der auf Basis von Analysen der Muskelaktivitäten und der Handbzw. Unterarmposition in Echtzeit Gebärdenin Lautsprache übersetzen soll. Der Begleitfilm setzt nicht nur mit einer typischen Vermischung von Gesten und Gebärden ein, sondern visualisiert die Echtzeitübersetzung mittels des in Google-Farben neben der gebärdenden Sprecherin erscheinenden und sich verändernden Lautstärkesymbols, wenngleich - zusätzlich der Untertitelung - die lautliche Wiedergabe ausschließlich über die Voice-Over funktioniert. Abb. 1-2: Google Gesture, http: / / vimeo.com/ 98134714 (publiziert am 13.6.2014, letzter Aufruf 1.7.2014) Während Google Gesture in dieser Form (noch) reine Fiktion ist, 3 ist die Überzeugung, dass die moderne assistive Computer- und Kommunikationstechnologie Menschen mit Behinderungen neue und erweiterte Möglichkeiten zur Teilhabe bietet, schon längere Zeit Realität. 4 Wie die im Auftrag des Bundesministeriums für Wirtschaft und Technologie (BMWi) im Jahr 2001 durchgeführte Umfrage „Internet ohne Barrieren“ 5 belegt, nutzen Menschen mit Behinderungen das Internet weit häufiger als Nichtbehinderte, wenngleich ein Usability-Text der Nielsen / Norman Gruppe aus dem gleichen Jahr beweist, dass Zugänglichkeit, Design und Bedienerfreundlichkeit der getesteten 19 amerikanischen und japanischen Websites 102 DDossier für NutzerInnen mit unterschiedlichen Behinderungen deutlich schlechtere Ergebnisse liefern (Nielsen 2001). Mittlerweile jedoch steht nicht mehr nur die accessability des Internets oder des Webs zur Debatte, vor allem die in den letzten Jahren zunehmende Anzahl mobiler Devices wie Smartphones oder Tablets, die mit ubiquitärer und allzeitiger Nutzbarkeit verschiedener Services und Dienstleistungen werben, scheinen das Versprechen auf mediale „All-Inklusion“ (Schneider 2008) und Selbstbestimmtheit einzulösen, wie die Aktion Mensch auf der Website „Einfach für Alle. Das Angebot der Aktion Mensch für ein barrierefreies Internet“ bestätigt: „Für viele Menschen sind mobile Endgeräte einfach nur praktische Kommunikations- und Informationsmittel, für Menschen mit Behinderung sind sie oft viel mehr: sie erleichtern das Leben an vielen Stellen und ermöglichen eine selbstbestimmte Teilhabe“ (Aktion Mensch 2013). In einer Studie aus dem Jahr 2003 gehen Gerard Goggin und Christopher Newell davon aus, dass Menschen mit Behinderungen vor allem im Bereich kommunikationstechnologischer Neuerungen vergleichsweise häufig als „extremely proactive“ in der Vertretung ihrer Interessen und Bedürfnisse bezeichnet werden, „and thus educating telecommunication companies“ (Goggin / Newell 2003: 57). Behinderung - so argumentieren Goggin und Newell weiter - könne auf diese Weise dem allgemeinen Trend zu aktivem Bürgertum und den damit verbundenen gouvernementalen Regimen eingeschrieben werden, die Michel Foucault zufolge das Verhalten von Individuen und Kollektiven steuern (Foucault 2005: 171sq.). Unterschiedliche Entwicklungen und technologische Neuerungen im Bereich von Soft- und Hardware erhöhen dabei nicht nur die allgemeine access-ability, sondern sorgen gerade im Rahmen einer zunehmenden Personalisierbarkeit und Adaptation an individuelle Formen von Behinderung für erweiterte Techniken der Normierung, die im Kontext einer lebenslangen (Selbst-)Verbesserung und Disziplinierung von Fähigkeiten zu begreifen sind. So nimmt zwar die Autonomie des Subjekts zu, doch, wie Christoph Menke konstatiert, gerät Selbstbestimmung in diesen Prozessen zur Selbstunterwerfung, die nicht nur mit einem zwangsweisen Erwerb von Fähigkeiten und Handlungsoptionen verbunden ist, die die Subjekte erst ‚normal‘ funktionieren lassen, sondern mit der Delegation der Sorge um den Bürger an diesen selbst den Staat von seinen Verpflichtungen entlastet (cf. Menke 2004). Dies betrifft nun nicht nur Menschen mit Behinderungen, gleichwohl wird deren gesetzlich verbürgter Anspruch auf vollständige Teilhabe am sozialen Leben in seinen Schattenseiten und Inanspruchnahmen deutlich sichtbar, wie im Folgenden am Beispiel von Gebärdensprache-Apps aufgezeigt werden soll. 1. Apps für gehörlose und schwerhörige Menschen Unter der Voraussetzung, dass akustische Informationen visuell, d. h. auf Textebene (z. B. Untertitel bei Videos, 6 Transkripte für Audio-Streams) angeboten werden, scheinen nun gehörlose oder schwerhörige Menschen in ihren Gebräuchen 103 DDossier des Internets auf den ersten Blick nur wenig Barrieren anzutreffen (cf. Bergermann 1997). Gleichzeitig aber entstehen in den letzten Jahren auch im Zuge zunehmender Medienkonvergenz zahlreiche, für unterschiedliche mobile Devices konzipierte Apps zur Übersetzung von Gebärdenin Lautsprache oder Text und umgekehrt, die die Kommunikationsbarriere zwischen gehörlosen und hörenden Menschen aufheben sollen, diese aber gleichzeitig erst herstellen bzw. markieren. In der Betonung ermöglichter Interaktion über die Grenzen von Gehörlosigkeit hinaus erscheint die Gebärden- und mithin Muttersprache zahlreicher gehörloser oder schwerhöriger Menschen dabei häufig als (nicht nur) quantitativ defizitär, wenngleich sie in Deutschland rechtlich seit 2002 mit dem Behindertengleichstellungsgesetz (§ 6 BGG) anerkannt ist. In der Mehrzahl fokussieren mobile Lösungsansätze für gehörlose oder schwerhörige Menschen den Bereich barrierefreier Kommunikation, wobei neben schrift- oder bildbasierten Mitteilungsprogrammen und -applikationen, vielfältige Softwarelösungen das Telefonieren ermöglichen und generell kommunikative Situationen erleichtern sollen. Auf diese Weise geraten auch Gesten oder Gebärden zunehmend in ein „mobiles Fahrwasser“ (Thielmann 2014: 357) und finden Eingang in spezifische Gebärdensprache-Apps, d. h. kleine, dezidierte Anwendungen, die die Kommunikation der Lautsprache nicht mächtiger gehörloser oder schwerhöriger Menschen mit ihrerseits gebärdenunfähigen Hörenden realisieren sollen, eine Aufgabe, die bislang vornehmlich menschlichen Gebärdensprachdolmetschern vorbehalten war. Mobile webbasierte Applikationen oder Apps gelten vielen Menschen in der Hauptsache als spielerische und/ oder nützliche Kleinprogramme, die unsere längst bestehende mobile ‚App-Kultur‘ beinahe täglich erweitern (Gardner / Davies 2014; Binczek / Jäger / Linz 2013). 7 Die vielgepriesene Offenheit und Vielseitigkeit der Anwendungen basiert vor allem darauf, dass sie in Form unterschiedlicher Mediationsprozesse - wie z. B. Visualisierungs- oder Sonorisierungsformen, Abstimmungsmodi, Varianten des Up- und Downloadens, Kontaktaufnahme mit App-Herstellern oder mit anderen NutzerInnen - vollzogen werden, das Medium selbst jedoch vorwiegend unsichtbar bleibt bzw. erst im Vollzug und der Produktion eigener Daten vom reinen Instrument zum Medium wird (Vogl 2001). Dies zeitigt erhebliche Konsequenzen in Bezug auf die sinnliche Wahrnehmung im Allgemeinen sowie im Besonderen auf die mediale Transformation und Synchronisierung lautsprachlicher, textbasierter und/ oder gebärdensprachlicher Kommunikation sowie deren multimodale Repräsentierbarkeit. Gleichzeitig - und dies impliziert Josef Vogls These vom Medium-Werden - entsteht in einem soziotechnischen Gefüge von gehörlosen und hörenden Menschen, den Kenntnissen um laut- und gebärdensprachliche Praktiken und ihrer experimentellen Anordnung sowie kommunikationstechnologischen Soft- und Hardwareentwicklungen im Bereich der App-Produktion und -Vermarktung, ein neues Wissen über Gebärden- und Lautsprache, das von dem selbst - außer in Störfällen - nicht sichtbaren Medium hervorgebracht wird. Aus diesem Grund wird die soziale Relevanz der speziell auf eine Software oder ein Betriebssystem bezogenen, häufig auf mobilen 104 DDossier Devices verfügbaren, stark personalisierten, d. h. den Gebräuchen der NutzerInnen angepassten (oder umgekehrt! ), zumeist kostenlosen oder günstig zu erwerbenden Anwendungen häufig unterschätzt, wenngleich Bergermann in der zunehmenden Verschränkung von Wissenschaft, Technologie und Gesellschaft in ihren strukturellen wie auch Machtrelationen bereits 1997 einen wesentlichen „Kreuzungspunkt von Sozialleben und Techniken“ (Bergermann 1997: 377) erkennt. Apps, so unsere These, liefern dabei nicht nur Antworten auf drängende gesellschaftliche und technische Fragen, vielmehr sind sie gleichermaßen als Lösungen derjenigen Probleme zu verstehen, die durch sie hervorgebracht werden (Turnbull 1991). Nun ist im Bereich von Medien wie auch von Behinderung stets von All-Inklusion die Rede, gleichwohl oder gerade aus diesem Grund werden im Zuge einer stärkeren Kundenorientierung zunehmend spezifizierte Apps entwickelt, die erleichternd in das Leben oder, wie eine französische Website verspricht, in die jeweilige Behinderung eingreifen: 8 „Les 11 applications mobiles qui facilitent le handicap: Localiser un endroit accessible, saisir un texto en Braille, jouer avec un enfant autiste“. 9 Tatsächlich handelt es sich um einen stetig wachsenden Markt, in dem auch auf gehörlose und schwerhörige Menschen zugeschnittene mobile Anwendungen angeboten und beständig erweitert werden, 10 wie z. B. die App-basierte Steuerung von Smart-Home-Geräten oder Life-Style Cochlea Implantate von Firmen wie Advanced Bionics oder Nucleus, die direkt und wireless an die Unterhaltungselektronik angeschlossen werden können. Die Angebotspalette umfasst z. B. SpreadTheSign, eine 2006 in Schweden entstandende Plattform mit dazugehöriger App, die ein Wörterbuch mit mehr als 100.000 Zeichen in verschiedenen nationalen Gebärdensprachen (http: / / www. spreadthesign.com) bereithält und ist für Android und iPhone verfügbar ist. 11 Zur Kommunikation mit gebärdenden Menschen hat der Entwickler 21TORR Interactive GmbH ein interaktives Deutsches Gebärdenwörterbuch (GuK) programmiert, das auf „www.schau-doch-meine-haende-an.de“ des Bundesverbandes evangelische Behindertenhilfe e. V. basiert. 12 Marlee Signs fordert zum interaktiven Erlernen von American Sign Language (ASL) auf dem IPhone auf, während Signes Angehörigen oder Freunden gehörloser Menschen ein Arsenal von Gebärden zur Verfügung stellt, das die Kommunikation erleichtern soll. Communica übersetzt einzelne Wörter in Gebärdensprachenzeichen, die von der Gallaudet-Universität entwickelte App Baobab setzt auf eine Verbesserung der bilingualen Fähigkeiten gehörloser (und hörender) Kinder und Bay Sign and Learn kümmern sich in spielerischer Art und Weise um gebärdende Kleinkinder. Des Weiteren werden unterschiedliche Visiophoniekonzepte für Smartphones angekündigt, die die Ankunft einer SMS, eines Anrufs oder einer Mail ankündigen, Audiokanäle können mit dem Ziel gekoppelt werden, die akustische Information auf nur ein Ohr auszurichten, und bis zu fünf auswählbare Vibrationsalarme ermöglichen die zusätzliche Personalisierung des Gerätes. Wer möchte, kann mit Hilfe von SoundAMP nicht nur den Ton verstärken, sondern gleichzeitig in Echtzeit Hintergrundgeräusche 105 DDossier herausfiltern, oder sich durch TapTap auf ein nahendes lautliches Ereignis hinweisen lassen. Gehörlose und Schwerhörige können mobil Videoanrufe in Gebärdensprache tätigen und bei Bedarf über eine Plattform Übersetzungsdienste zuschalten, um die Konversationen für Gebärdenunkundige übersetzen zu lassen. Der Relaisdienst für barrierefreies Telefonieren Tess-Relay bietet hierfür zwei verschiedene Dienste an, die mittlerweile, unter der Voraussetzung, der Suchende verfügt über einen Mobilfunkvertrag mit VoiP-Option, auch über die App Bria erreichbar sind. 13 Die Firmen ClearCaptions und CapTel Hamilton bieten mobile Apps an, die in Echtzeit schriftliche Transkriptionen von Telefongesprächen erzeugen, was den zunehmenden Schriftgebrauch der aktuellen Vernetzungsgesellschaft bestätigt. Dieser kostenlose Service wurde vom FCC (Federal Communication Commission) für die Regulierung von Telekommunikation akkreditiert. 14 Unter dem mehrdeutigen Titel „Surdité: une application pour lancer un SOS aux autorités par SMS“ 15 beschreibt Philippe Steiner im Handimobility-Blog die Notfall- App SMS IRAUDA, die mit Hilfe interaktiver Piktogramme einen Hilferuf vom Smartphone direkt an die entsprechenden Instanzen schickt und die Koordinaten mittels GPS bekannt gibt. Dieser Service ist bislang Frankreich vorbehalten und nur mit dem Betriebssystem IOS kompatibel, d. h. bestimmt für IPhone, IPod oder IPad. Erneut vollmundig gibt der gleiche Nutzer Steiner das Versprechen der App- Produzenten weiter, dem zufolge die „application uHear [ ] votre perte d’audition en 6 minutes“ 16 testen kann. Auf der Basis dreier einfacher und effizienter Evaluationen kann ein möglicher Hörverlust festgestellt werden, wobei die App sogleich einen Audiologen in der Nähe empfiehlt. Der Erfolg scheint messbar, so haben 1781 NutzerInnen die Applikation mit 3 von 3 Sternen bewertet. 17 Forscher der Universität Hong Kong und die Softwarehersteller Ximplar entwickelten mit ACEHearing eine ähnliche Software, die zur Ermittlung individueller Hörschäden herangezogen werden soll, um das Smartphone den Testergebnissen entsprechend zu kalibrieren. In Deutschland arbeitet das Fraunhofer Institut an der Entwicklung einer vergleichbaren Technologie, die mit Hilfe von Frequenzmodulation den Hörverlust kompensieren soll. Eine Integration in das Smartphone ist geplant. 18 Die Mehrzahl französischer wie auch deutscher Studien oder Untersuchungen beleuchtet den Zusammenhang zwischen mobilen Medien und Gehörlosigkeit oder Behinderung also vorrangig unter dem Aspekt der Erleichterung der Kommunikation sowie eines barrierefreien Zugangs zu sozialen Räumen und Techniken (cf. u. a. Goggin / Newell 2003; Accessibilité et TICE 2009; Web 2.0 / Barrierefrei 2010; Drezet 2011; u. v. a.). Dazu gehören auch individuelle, z. B. im Kino einsetzbare Tonverstärker-Apps wie Twavox, 19 oder die Apps Greta und Starks, zwei Applikationen für barrierefreien Kinogenuss mit Untertiteln bzw. Audiodeskriptionen übers Smartphone. 20 Während Greta den Kinofilm automatisch erkennt und über Smartphone und In-Ear-Kopfhörer die passende Audiodeskription zum Film für Menschen mit Sehbehinderungen abspielt, zeigt Starks synchron zum Film im Smartphone-Display verschiedenfarbige Untertitel für die verschiedenen Sprecher 106 DDossier an. 21 Auch die App Vibetunes bietet sich als Übersetzer an; wie Greta und Starks vermittelt sie jedoch nicht die Kommunikation zwischen Hörenden und Nicht- Hörenden, sondern verwandelt Musik in für Gehörlose und Schwerhörige wahrnehmbare Vibrationen: „Le rythme et les fréquences musicales sont ainsi utilisés par le vibreur du smartphone de façon à créer une véritable sensation chez ‚l’auditeur‘, aussi sourd qu’il puisse être.“ 22 In einem wesentlich instrumentell bestimmten Mediendenken wird leider allzu selten reflektiert, dass und in welcher Weise in den weiter oben beschriebenen Handlungsfelder von Menschen, Behinderungen und Softsowie Hardwarelösungen sogleich die soziotechnische „Passung“ (Harrasser 2009) von Menschen mit Behinderungen an eine weitestgehend ‚normale‘, d. h. nicht-behinderte Umwelt mit verfertigt wird. Nun besteht in der Medienwissenschaft Konsens darüber, dass mobile Apps gerade nicht nur als bloße Zusatzanwendungen zu begreifen sind, die abhängig von der Intentionalität der Handelnden bzw. der NutzerIn die Kommunikation bzw. das Leben erleichtern: „Human relations will be technologised to the extent that such artifacts are able to participate as agents in social interaction rather then merely to mediate it” (Pickering 1997: 59). Technologie, so konstatiert Judy Wacjman bereits Anfang der 1990er Jahre, steht stets in enger und wechselseitiger Beziehung zu kulturellem Wissen und sozialen Praktiken (Wacjman 1991: 162). So orientiert sich das App-Handeln der NutzerIn am Verhalten anderer, d. h. die Technologien simulieren das Verhalten eines Alter Ego, das an die Stelle der NutzerIn tritt. Apps, so wäre dieser Ansatz zu erweitern, werden dabei in gleichem Maße in Bezug auf andere Menschen wie auch soziale Praktiken und Techniken verfertigt, wie sie diese im Gebrauch herstellen. Dies zeigt sich u. a. in den zunehmenden Möglichkeiten der Individualisierung und Personalisierung (customization), die die (Gebräuche der) NutzerInnen in gleichem Maße an die App anpassen, wie jene von den NutzerInnen bzw. durch den Gebrauch formatiert wird. So ermöglicht die in Zusammenarbeit mit dem Fraunhofer Institut entwickelte iPhone- App AuditoryVoIP, „the first VoIP app with an integrated hearing support“, nicht nur die individuelle Anpassung des Telefonsignals durch die NutzerIn, sondern macht deren Hörleistung gleichermaßen mess- und kontrollierbar. 23 Mit der App BioAid, die das iPhone zum sozial verträglichen Hörgerät macht, eröffnen die Produzenten neue Absatzmärkte. „Ziemlich cool und nicht behindert“ 24 sehen die neuen schwerhörigen NutzerInnen aus, denen „die sich aus diversen Gründen noch kein klassisches Hörgerät antun wollen.“ 25 Die Integration in ein Life-Style-Produkt vermag die Hemmschwelle besonders für jene Personen zu senken, die ‚klassische Hörhilfen‘ mit ‚behindert‘, iPhone-Ohrsteckern jedoch mit Coolness verbinden. Auf diese Weise wird zum einen Markt erweitert, zum anderen aber propagiert diese Marketingaktion implizit die selbsttechnologische Prävention, d. h. die Vorbereitung auf ein mögliches Behindert-Werden, dem mit aktiven und partzipatorischen Lösungsansätzen zu begegnen ist. Das Smartphone spielt in diesem Rahmen eine wesentliche Rolle, denn besonders „[d]as Handy ist eine tolle Plattform, um Hörhilfe-Technologie aus dem Labor in die Hände der Öffentlichkeit zu bringen“, so 107 DDossier der Entwickler der BioAid-App Nick Clark. 26 Mit Hilfe neuer Audioprozessierungstechniken soll auch diese Anwendung Geräusche nicht nur verstärken, sondern auch filtern. Interessant ist darüber hinaus, dass es sich um Tests mit einem quelloffenen Kernalgorithmus handelt, d. h. potentiell können NutzerInnen ihre eigenen Wünsche und Erwartungen selbst umsetzen. Letztlich aber verweist auch dieses Beispiel darauf, dass diese Art neuer Technologien Gesellschaft und Wirtschaft in gleichem Maße als helfende Institutionen formatiert, wie sie in diesen Fällen Menschen mit Hörbehinderungen als Hilfesuchende verfertigt, die - bestimmte Fähigkeiten oder Lernwilligkeit vorausgesetzt - selbstbestimmt zu entsprechenden Erfolgen in der ‚normalen‘ Welt gelangen können. Diese als selbsttechnologische Rückseiten oder Zumutungen zu bezeichnenden Norm(alis)ierungsprozesse sind der Relation zwischen Gebärdensprache-App und NutzerIn eingeschrieben bzw. werden ihr zugeschrieben und fördern den Subjektivierungsprozess bzw. seine Neuverhandlung auf technologischer Basis (Hörl 2011). So markieren z. B. Marketingkonzepte eine Grenze zwischen behindert und nicht-behindert, zwischen Gebärden- und Lautsprachlern, die die Apps dann - „there’s an app for that! “ - ‚helfend‘ überbrückt. Als Inklusionsprogramm gerät die App dabei zum Remedium für Gehörlosigkeit, eine pharmakologische Technologie, die in einer vermeintlich ‚spielerischen‘ Handlung die medikalisierenden Be-Handlung ganzer NutzerInnen- Gemeinschaften impliziert. So ermöglicht die von Samuel White an der Universität Rochester entwickelte App AudioWiz (cf. White 2010) zum einen Audioaufnahmen, filtert Umweltgeräusche heraus, fokussiert das gesprochene Wort und sorgt zum anderen für seine Übersetzung mittels einer kollaborativen Plattform. Zunächst jedoch wird der Audiostream auf dem Display visualisiert, „giving the Nutzer a means to detect important audio events visually before deciding if they are worthy of transcription“ (White 2010: 308). Erst nach positiver Entscheidung der Community werden „web-workers [ ] in nearly real-time as required“ (ibid.) für die Transkription rekrutiert. Auch die im Folgenden näher zu beschreibenden Übersetzungs-Apps können in diesem Sinne nicht als reine Tools oder Werkzeuge betrachtet werden, derer man sich mehr oder weniger intentional sowie besser oder schlechter bedient, vielmehr verweisen sie auf ein neues Regime, das Handlungsmacht in einer vor der Differenz von Subjekt und Objekt operierenden Selbstsorgeagentur verteilt und Schattenseiten wie die Markierung von Gebärdensprache als Kommunikationshindernis, das Risiko des Nicht-Verstanden-Werdens sowie die Befreiung staatlicher oder anderer sozialer Institutionen von der verpflichtenden Bereitstellung von Dolmetschern und Übersetzungsassistenzen mit verfertigt. 2. Übersetzungs-Apps Gebärdensprache ist die ‚natürliche‘ Sprache gehörloser Menschen. Gleichwohl wurde Gehörlose und Schwerhörige jahrzehntelang in Lippenlesen und Sprechen unterrichtet. In Deutschland wurde die Deutsche Gebärdensprache (DGS), wie 108 DDossier bereits erwähnt, im Jahr 2002 rechtlich anerkannt und im Sozialgesetz und im Gleichstellungsgesetz verankert, in Frankreich wurde die Langue des Signes (LSF) als eigenständige Sprache im Jahr 2005 anerkannt. Plattformen wie Signes de Sens, Websourd oder das vornehmlich im Textmodus operierende deutsche Portal Taubenschlag versuchen, der Gehörlosengemeinschaft einen gebärdensprachlichen Zugang zu Wissen, Kunst und Kultur zu eröffnen. 27 So werden Video- Wörterbücher für französische und deutsche Gebärdensprache angeboten. 28 Analog zu den „11 applications qui facilitent le handicap“ (s. Anm. 9) listet der Espace Francosourd, eine kanadische Internetplattform, unter der Überschrift „10 applications mobiles pour apprendre la langue des signes“ 29 verschiedene, auf die Bedürfnisse von Gehörlosen bzw. Hörenden, die mit Gehörlosen ins Gespräch kommen wollen oder müssen, zugeschnittene Apps. So können auf Kelsigne, einer Erweiterung des sozialen Netzwerkes culinan.net, Lehr- und Demonstrationsvideos in LSF gepostet und geteilt und - zumindest für iPhone- und iPad- NutzerInnen - kostenlos downgeloaded werden. Spezifische Übersetzungs-Apps für Gebärdensprache, wie sie in der letzten Zeit vermehrt angeboten werden, operieren jedoch auf einer anderen Voraussetzung. Im Unterschied zu den meisten der bereits erwähnten Applikationen für gehörlose oder schwerhörige Menschen versuchen Übersetzungs-Apps nicht nur, auditive in visuelle Signale zu übersetzen oder ein vorgefertigtes Repertoire an zumeist einzelnen Gebärden aus bestimmten Themengebieten in Videound/ oder textueller Form anzubieten, aus dem der Nutzer auswählen und es seinem Gesprächspartner übermitteln kann. Vielmehr versuchen Übersetzungs-Apps Ferngespräche zu ermöglichen, ohne auf dazwischen zu schaltende menschliche Dolmetscher zurückgreifen zu müssen. Dies bedeutet, dass die App mittels spezifischer Erkennungssoftware gleichermaßen komplexe Gebärden wie Lautsprache bzw. in der Regel Text erkennen und in die jeweilige Zielsprache übersetzen soll. Auf diese Weise - so ein Artikel zur weiter unten beschriebenen Software Personal Sign Language Translator-App (PSLT) - erhalten vor allem gehörlose oder schwerhörige Menschen, die der Lautsprache nicht mächtig sind, die Möglichkeit, trotz ihres Defizits in alltäglichen, beruflichen oder auch privaten Kontaktsituationen Gehör zu finden und mitsprechen zu können: „Gehörlose und schwerhörige Menschen nutzen oft Gebärden, um mit ihrer Umwelt in Kontakt zu treten. Das Problem: Viele Hörende verstehen die visuelle Sprache schlicht nicht“ (Zax 2012). Mit diesem Einstieg in den Artikel gibt der Autor nicht nur die Anpassungsrichtung vor, gleichzeitig werden gebärdensprachunkundige Menschen von der ‚Last‘ befreit, sich aus beruflichen oder privaten Gründen gebärdensprachlich weiterzubilden. So geht dem Download häufig nicht die vielgerühmte freie Entscheidung voraus, sondern vielmehr eine zwangsweise berufliche oder auch private Notwendigkeit zur Kommunikation zwischen Gebärden- und Lautmuttersprachlern. Dies verspricht z. B. die App iSignIT, entwickelt von Peter Reicherts vom Institut für Medizinische Informatik (PLRI) für den Einsatz im Krankenhaus oder in der Arztpraxis (http: / / isignit.weebly.com). Bestimmte, häufig vorkommende Themenberei- 109 DDossier che bzw. Phrasen werden bereitgestellt, vom Anwender ausgewählt und in die Sprache des Gegenübers, d. h. Text oder Gebärdensprache, übersetzt. Aus Versicherungsgründen weisen die Hersteller darauf hin, dass diese App als reine Übersetzungshilfe, nicht aber Ersatz für einen Dolmetscher zu betrachten ist. Eine Anzeige in der Ärztezeitung wirbt damit, dass in der Arztpraxis Eindeutigkeit unerlässlich, eine „‚normale‘ Kommunikation“ jedoch mit gehörlosen Menschen nicht möglich sei! Abhilfe schaffe hier die iSignIT-App, die „medizinische Dialoge in Gebärdensprache übersetzt“ und auf diese Weise „eine Basiskommunikation“ 30 ermögliche: „Die App fördert - gerade bei Gehörlosen - die Patientensouveränität und unterstützt ihre medizinische Selbstbestimmung“, erklärt Dr. Sabine Voermans, Leiterin der TK in Niedersachsen. 31 Das Ziel besteht auch hier im Abbau von Kommunikationsbarrieren, und natürlich wird davon ausgegangen, dass es die den lautsprachlich sozialisierten Hörenden zumeist unbekannte Gebärdensprache ist, die das zu überwindende Hindernis darstellt. Träumt der Nutzer Bruno Baguette am 28. Oktober 2003 noch von zukünftigen Vorteilen der Nouvelles technologies de l’information et de la communication (NTIC) für Menschen mit Hörbehinderungen (cf. Baguette 2003), so scheint der weiter oben bereits erwähnte Personal Sign Language Translator Baguettes Wunsch zu erfüllen, nicht nur Zugang zu Nachrichten und Medien aller Art zu erhalten, sondern via Instant Messenger-System Dialoge zu führen oder Termine zu planen: „[D]ans le futur on pourrait même imaginer des systèmes de dialogue en Langue des Signes via Internet“ (Baguette 2003). Die technische Übersetzungs-App PSLT läuft auf Laptops, Netbooks, Smartphones sowie Tablets und übersetzt Gebärden in Text, um bestehende Kommunikationsbarrieren zwischen gebärden- und lautsprachlichen Menschen zu überwinden. Grundlage bildet die Kamera eines Mobilgerätes, mit deren Hilfe die Gebärden erkannt und in Text umgesetzt werden können: „Die Gebärden werden sofort in Texte umgesetzt, die dann von der Person gelesen werden können, mit der man gerade kommuniziert“ (Zax 2012), so einer der beteiligten Forscher, der - ohne Erläuterung der notwendigen Formalisierungspraxis - nahezu natürlicherweise davon ausgeht, dass es primär die Gebärden sind, die der Übersetzung in das allgemeinverständliche Medium Text bedürfen. Zur Gemeinschaftsbildung und der damit verbundenen Teilhabe an einer stetigen Verfertigung der Anwendung wie auch ihrer NutzerInnen fordert das korrespondierende Webportal auf: „We hope that www.pslt.org will become the social network of the PSLT Nutzer community“. 32 Neben einem grundlegenden Optimierungsbedarf der Erkennungssoftware wird derzeit noch an der Nutzerschnittstelle gearbeitet, um das Smartphone als direkte Übersetzungshilfe einsetzen zu können. Kommerzialisiert durch die schottische Firma Technabling, soll das System zunächst für die British Sign Language (BSL) und Makaton (makaton-deutschland.de) bereitgestellt werden, die Zukunft aber sieht Möglichkeiten einer individuellen customization vor: 33 Eine der spannendsten Möglichkeiten unserer Forschung ist es, dass Nutzer ihr eigenes Vokabular festlegen können. Das gilt auch für Wörter, die sich in der BSL schwer aus- 110 DDossier drücken lassen [ ]. Jede Art von Jargon ist möglich, egal ob im Bildungs- Arbeits- oder Heimbereich (Zax 2012). Erneut wird damit auch die Frage aufgeworfen, inwieweit die häufig von Hörenden produzierten Techniken oder Technologien für Behinderungen als (Selbst-)Regulierung von (Menschen mit) Behinderungen zu begreifen sind, „effectively controlling their aspirations, movements, and access to various parts of the social world“ (Goggin / Newell 2002: 11). Die trotz oder gerade durch Personalisierung zunehmende Standardisierung und Norm(alis)ierungstechnologie sorgt dabei für die Anpassung von Gehörlosen an die Welt und Sprache der Hörenden, während die Gebärdensprache zur erklärungswürdigen Besonderheit und Barriere gerät (Länger 2002). Wie PSLT setzt ein Großteil von Gebärdensprache-Apps implizit voraus, dass Gehörlose und Schwerhörige mit Hörenden kommunizieren wollen. Dies zeigt sich u. a. daran, dass die Apps zumeist auf spezifischen Gehörlosenplattformen beworben werden. Damit wird den Anwendungen von Beginn an eine Richtung eingeschrieben, die zum einen die Abweichung markiert und zugleich die Möglichkeit in Aussicht stellt, an ‚normaler‘, d. h. lautsprachlicher Kommunikation teilzunehmen. Dabei werden sowohl die Grenzen zwischen hörenden Laut- und nicht-hörenden Gebärdensprachlern wie auch die sie überschreitende Teilhabe in der Praxis der App hergestellt bzw. in ihren Relationen zueinander wie auch zur App stets aufs Neue aktualisiert. So steht auf Google play z. B. eine Applikation namens Komplex für Gehörlose. Device-H zum Download, die zwei Android-Devices, Device-D (Deaf Person) und Device H (Hearing Person), via Bluetooth verbindet und die lautsprachlichen Botschaften vertextet. 34 Es ist als fest installiertes wie auch als mobiles Gerät verfügbar und wird besonders Spätertaubten empfohlen, die weder über Lippenlesetechnik noch über Gebärdensprachfähigkeiten verfügen. Der Red Dot Design Award ging 2013 an den Sign Language Ring, ein Tool, das als automatischer Simultanübersetzer zwischen Laut- und Gebärdensprache fungiert. Ringe, die an den Fingern der Gehörlosen getragen werden, zeichnen die Bewegungen der Hände auf und werden an ein in einem Armband angebrachtes Mikro übermittelt, das die Sprache in Text übersetzt, der auf einem Bildschirm sichtbar gemacht wird. Ein weiteres erfolgversprechendes Element stellen die Gebärdensprachavatare dar, die dynamische Texte von Internetseiten automatisch in Gebärdensprache übersetzen sollen. Von 2010-2011 wurde im Auftrag des Bundesministeriums für Arbeit und Soziales eine Machbarkeitsstudie durchgeführt, die die Möglichkeiten und Grenzen des Einsatzes von Gebärdenavataren einschätzen sollte. 35 Mit dem Ziel, Programme mit Gebärdensprache auszustrahlen, arbeiten japanische Forscher an den Science & Technology Research Laboratories (STRL) des japanischen Fernsehsenders NHK in Zusammenarbeit mit Kollegen der Kogakuin-Universität in Tokio an einem System zur automatischen Übersetzung von Text in japanische Gebärden, die von einem Avatar dargestellt werden. Leider kann nur mit vorgegebenen Texten gearbeitet werden und derzeit ist der Wortschatz des 111 DDossier Avatars noch beschränkt. Allerdings können die NutzerInnen selbst das System verbessern und über eine Schnittstelle falsche oder ungenaue Übersetzungen korrigieren. So wird nicht nur die Lernfähigkeit des Programmes garantiert, sondern gleichzeitig werden die NutzerInnen und ihre Kenntnisse auf die neue Technologie eingestellt. 36 Eine Weiterentwicklung, in der nicht nur gesprochene Texte in Gebärdensprache übersetzt werden können, sondern diese auch in Form einer App auf mobilen Geräten verfügbar gemacht werden sollen, wurde 2011 in Aussicht gestellt. Bis heute allerdings liegen keine Nachrichten über neue Entwicklungen vor. Kinect von Microsoft scheint in diesem Kontext weiter fortgeschritten: In der bislang aktuellsten Meldung vom 30. Oktober 2013 stellt Microsoft ein System vor, das Gebärdensprache in Echtzeit in gesprochene Sprache und umgekehrt übersetzen soll. Derzeit wird ein Prototyp der Software Kinect Sign Language Translator von Studierenden der Universität Peking getestet. Der Avatar repräsentiert den nicht-gebärdenden Sprecher: We knew that information technology, especially computer technology, has grown up very fast. So from my point of view, I thought this is the right time to develop some technology to help [the deaf community, B. O.]. That’s the motivation [ ]. With the segmentation from one posture to another and combining also the trajectory, we can use machine learning technology and pattern recognition technology to make the final decision of what's the meaning of the gesture“. 37 Ob der Begriff der „gesture“ für „sign“ bzw. Gebärde an dieser Stelle bewusst oder nicht eingesetzt wurde, er verweist auf die Problematik, dass Gebärdensprache lange Zeit als Sammlung loser Gesten begriffen wurde, die die Lautsprache ‚nur‘ rudimentär zu ersetzen vermögen, was ihre Anerkennung als gleichwertige autonome Sprache verhinderte. Das System Kinect basiert auf einem Sensor, der die Bewegungen der Hände einfängt, um sie vom Programm übersetzt zu werden. Um die App ‚kundenfreundlicher‘ zu gestalten, folgt der Entwickler dem gegenwärtigen gamification-Trend und bringt Spielmechaniken und -designs in nicht-spielaffinen Kontexten zum Einsatz. 38 Während im sogenannten Translator Mode jeweils einzelne Wörtern in die entsprechende Gebärde übersetzt werden, versucht man mit der Communication Mode komplette Gespräche in Echtzeit gerecht zu werden. Das Projekt basiert dabei - wie viele andere auch - auf dem Kollaborationsprinzip, d. h. das Wissen und die Möglichkeiten von Gebärdensprachexperten, Softwaretechnikern, Integrationsspezialisten, Heilpädagogen und Microsoft Schlüsseltechnologien werden zusammengeführt, um das „one thing“ zu kreieren, „that is going to transform lives“. 39 Yin, selbst gehörloser Softwarespezialist spricht von einem Kindheitstraum, „to create a machine for people with hearing impairments“, das vor allem als Empowerment der Gebärdenden verstanden werden soll, unabhängig von Dolmetschern mit nicht-gebärdenden Menschen kommunizieren zu können und dementsprechend ihre Chancen in der Arbeitswelt qua Selbstmanagement zu steigern. 40 112 DDossier Obgleich als „Mitnahmeprodukte“ (Mayer 2012: 10) konzipiert, erzeugen die oberhalb der Kernsoftware aufsitzenden Apps nicht nur ein neues Technologieverständnis, sie stellen auch ein letztes Bindeglied zwischen Technik und Nutzer dar. Die besondere Form der (Kunden-)Bindung artikuliert sich dabei vor allem im partizipatorischen Moment, das die NutzerInnen zur aktiven Teilhabe und Vervollständigung des Gebärdensprachrepertoires z. B. auf einer kollaborativen Website auffordert: „Whereas traditional surplus value [ ] imbued the commodity with the traces of labour that had been paid for, the new economy made a commodity fetish of the work the customer had donated“ (Taylor 2012: 43). Auf diese Weise entsteht eine wechselseitige Beziehung, im Rahmen derer kaum beurteilt werden kann, ob es die NutzerInnen sind, die an etwas festhalten oder ob sie von etwas festgehalten werden. Antoine Hennion bezeichnet diese Art von Relation unter Bezugnahme auf Michel Callon als „attachement“ (Hennion 2011: 99) und meint damit eine quer zur aktiv-passivwie auch zur Subjekt-Objekt-Unterscheidung verlaufende Anhänglichkeit-Abhängigkeit, im Rahmen derer Handlungsmacht nicht mehr auf die Einheit eines Akteurs zurechenbar, sondern als Ausdruck einer zerstreuten, verteilten oder „ökotechnologischen Subjektivität“ (Hörl 2011: 21) zu verstehen ist. Diese verteilte Handlungsmacht zeigt sich auch im EU-Projekt SignSpeak: 41 „Bridging the Gap between Signers and Speakers“ (Dreuw et al. 2010), so der Titel eines Papers, das sich mit diesem Lösungsversuch automatischer Erkennung und Übersetzung kontinuierlicher Gebärdensprache beschäftigt. Die Zusammenarbeit zwischen drei Forschungsinstituten (Radboud Universität Nijmegen, Centre de recerca i investigació de Catalunya und der RHTW Aachen), einem industriellen Partner und einem Verband, der die gehörlose Kulturgemeinschaft als Endnutzer repräsentiert, dauerte von 2009-2011. Tatsächlich konnten in diesem Projekt zahlreiche linguistische Aspekte wie Segmentierung, Satzgrenzen oder Übergangsbewegungen sowie die Unterschiede zwischen gebärdensprachlicher und lautsprachlicher Syntax Eingang in die Analyse finden. Auch Körperbewegung, Mundbild oder Mimik wurden berücksichtigt. Gesichtsposition, Handform oder Handbewegung wurden via Tracking (Active Appearing Model) über den Verlauf des zu untersuchenden Videokorpus verfolgt, wobei die physikalischen Beschränkungen des menschlichen Körpers sowie Kontextwissen über das Szenario in Betracht gezogen werden. Da die Hand je nach Handform und Winkel zur Kamera ein unterschiedliches Erscheinungsbild hat, bleibt z. B. das Handtracking im Video ein schwieriges Problem, und die Verwendung zusätzlicher Informationsquellen über die reinen Bildfarbwerte hinaus ist unerlässlich. Darüber hinaus besitzt die gebärdensprachliche Orientierung von Gesicht, Oberkörper und Hände vor allem grammatische Funktion, wobei Teile einer Äußerung gleichzeitig über die Hände und das Gesicht produziert werden, was das Tracking zusätzlich erschwert. Bis die Gebärdenspracherkennung aber tatsächlich funktioniert und darüber hinaus in Smartphones integrierbar ist, werden wohl noch Jahre vergehen. Den bereits heute bestehenden „Hype“ um die Gebärdensprache-Apps kann die gehörlose Julia Probst nicht nachvollziehen. So warnt sie davor, darin einen ad- 113 DDossier äquaten Ersatz für Gebärdensprachdolmetscher zu sehen. 42 Ähnlich wie andere kostenintensive, gleichwohl versandete Projekte wie z. B. eSIGN 43 sei eine virtuelle und automatisierte Übersetzung von Gebärdensprache aufgrund des komplexen Zusammenspiels von Handbewegung, Mundbild, Räumlichkeit, Mimik, Körpersprache, ihrer von der Lautsprache abweichenden Syntax sowie aufgrund des notwendigen, im Rahmen der App jedoch nicht zu restituierenden Augenkontakts, über den Gehörlose das Feedback erhalten, kaum in zufriedenstellender Weise möglich. Probst empfiehlt stattdessen menschliche Schriftdolmetscher zu konsultieren, die über Dienste wie den mobilen Text-Dolmetscherdienst VerbaVoice vermittelt werden, der im Übrigen auch für mobile Geräte konfiguriert ist. 44 * * * ‚There’s an app for that‘, doch was bedeutet dies im Falle der Gebärdensprache- Apps? Den sogenannten Anwendungshilfen sind bestimmte Formen von Abhängigkeit bzw. Zumutungen eingeschrieben, implizieren sie doch in der Mehrzahl eine Anpassung Gehörloser an Hörende bzw. an Normen vor, die die asymmetrischen Handlungszusammenhänge und Machtverhältnisse zwischen Menschen mit und ohne Behinderungen sowie nicht-menschlichen Dingen ordnen. Forschungs- und Entwicklungsabteilungen App-produzierender Unternehmen setzen sich zu diesem Zweck notwendigerweise mit abstrakten Formatierungen und einfachen bzw. vereinfachenden Modellen auseinander. Auf diese Weise wird die Umwelt, d. h. in diesem Fall die konkrete Situation gebärdensprachlicher Kommunikation, an eine formalisierte ‚Laborsituation‘ angepasst, wie dies auch im Falle des oben geschilderten Projektes SignSpeak erkennbar ist, das auf der Basis videographierter Wetternachrichten entwickelt wurde. Die ähnlichen Inhalte sorgen für sich wiederholende Strukturen in der Körper- oder Handposition, außerdem wendet sich stets nur eine Person an imaginäre Zuschauer / Zuhörer, mit denen jedoch kein Austausch stattfindet. Lautwie auch Gebärdensprache aber sind stets relational und mithin in einem geteilten Zwischenraum zu situieren, der über die kommunikative Situation hergestellt wird. Außerdem können Programme, welche die sich durch Handform, Handstellung, Ausführungsstelle, Mimik und Körperhaltung unterscheidenden Gebärden berechenbar machen sollen, die bedeutungsproduzierende Prozesse innerhalb des als Gebärdenraum bezeichneten Bereichs vor dem Oberkörper der Gebärdenden auch mittels 3D-Abbildungen wie z. B. in Sign4Me 45 kaum kalkulieren. Die im Vorfeld des Experiments bzw. auf Basis des im Experiment getesteten Materials berechneten Mediationsprozesse form(at)ieren demzufolge spezifische Akteure und legen gleichzeitig die Kriterien von Ein- und Ausschluss, Anforderungen und Bedingungen der Kommunikation fest. So erzeugen Gebärdensprachübersetzungs-Apps immer neue Formen kommunikativer Praxen, die in wechselseitigen Anpassungsprozessen Produkt, NutzerInnen wie auch Praxis zu standardisieren versuchen, letztlich jedoch als instabile bzw. temporäre Kompromisslösungen auf der Basis von Interaktionen und Vermittlungen zu begreifen sind (Hennion 2011: 100). Letztere werden immer komplexer, wie die 114 DDossier Entwicklung von einfachen Video-Wörterbüchern in Gebärdensprache über ein bestimmtes Repertoire von im Vorfeld festgelegten Phrasen oder Themen wie im Falle der medizinischen App IsignIT bis zu den komplexen Vorarbeiten zur Berechenbarkeit und Abstraktion von Gebärdensprache und ihrer Echtzeitübersetzung in SignSpeak oder zum - noch imaginären - Konzept virtueller Kommunikation zwischen Gebärden- und Lautsprache im Rahmen von Google Gesture zeigt. Die Komplexität jedoch darf in den Gebräuchen der Apps nicht sichtbar werden, was u. a. auch daran liegt, dass in der Regel diejenigen Apps Erfolge, d. h. zählbare Downloads und positive Bewertungen, verzeichnen, die sich auf ein Minimum an Vorwissen oder technischer Voraussetzung und gleichzeitig auf individuellen Zuschnitt zielen. Doch trifft die Vorstellung eines passgenauen, vorstrukturierten und „instant need fulfillment“ (Mayer 2012: 9) letztlich eben deshalb zu, weil das Bedürfnis nicht nur sofort befriedigt wird, sondern im gleichen Prozess verfertigt wird wie NutzerInnen, der Gebrauch der Anwendung und letztlich die Applikation selbst. Die immer wieder in Aussicht gestellten kommunikativen Vergemeinschaftungen zwischen laut- und gebärdensprachlichen Menschen entstehen somit nicht im Vorfeld der Begegnung, vielmehr macht der Gebrauch Zusammengehörigkeiten erst sichtbar bzw. wird Konnektivität über die Visualisierung der eigenen Beiträge oder eines Avatars als imaginären Kommunikationspartner sowie Stellvertreter hergestellt. So werden Begegnungen und Vergemeinschaftungsprozesse zwischen laut- und gebärdensprachlichen Menschen weniger verhandelt, denn medial gerahmt und als soziotechnisches Gefüge gesichert. Die Operationen der App erzeugen dabei eine bestimmte kommunikative Praxis und stabilisieren diese zumindest temporär. Gleichzeitig setzt diese Vorgehensweise eine Behinderung voraus, die dann mit der bzw. durch die App be-handelbar wird, gleichwohl bestimmte Anthropotechniken der Selbstsorge einfordert (cf. Harasser 2013). Die auf diese Weise in Aussicht gestellte Leistungsfähigkeit, die steigenden Chancen auf dem Arbeitsmarkt oder die auch Möglichkeit mitsprechen zu können, müssen in diesem Rahmen nicht von Staatsseite ermöglicht werden, sondern sind an Appproduzierende Unternehmen bzw. Apps delegiert, die die Handlungsmacht wie auch die damit einhergehenden Zumutungen wiederum an die NutzerInnen übertragen. Diese Konstellation verweist - mit Erich Hörl gesprochen - auf die immer schon bestehende Kopplung des Menschen an technologische Objektkulturen wie Smartphone, Tablets oder auch Apps, d. h. technische Aktivitäten, die das Mensch-Objekt-Kollektiv modellieren und Milieus der Transindividuation erzeugen, in denen wechselseitig Technik, Praktiken wie auch Menschen verfertigt werden (cf. Hörl 2011). 115 DDossier Aktion Mensch (ed.), Web 2.0 / barrierefrei. Eine Studie zur Nutzung von Web 2.0 Anwendungen durch Menschen mit Behinderung, http: / / publikationen.aktion-mensch.de/ barrierefrei/ Studie_Web_2.0.pdf (publiziert 12/ 2010, letzter Aufruf 7.7.2014). Aktion Mensch (ed.), „Wenn online und offline verschmelzen - wie Menschen mit Behinderung das mobile Web nutzen“, http: / / www.einfach-fuer-alle.de/ artikel/ mobiles-web-verschmilztoffline-und-online (publiziert 7.5.2013, letzter Aufruf 1.7.2014). Anonyme, „Dolmetscher-App erleichtert Kommunikation“, in: ÄrzteZeitung, http: / / www. aerztezeitung.de / praxis_wirtschaft / w_specials / gesundheitsapps2011 / article / 827761/ gebaerdensprache-dolmetscher-app-erleichtert-kommunikation.html (publiziert am 3.12.2012, letzter Aufruf 1.7.2014). Baguette, Bruno, „L’impact des NTIC pour les sourds“, http: / / www.ffsb.be/ forum/ read.php? 3,7647 (letzter Aufruf 1.7.2014). Beckmann, Dirk, Was würde Apple tun. Wie man von Apple lernen kann, in der digitalen Welt Geld zu verdienen, Berlin, Econ Verlag, 2011. Bergermann, Ulrike, „Nimm auf das Bündel. Gehörlosigkeit und das Internet“, in: Das Zeichen. Zeitschrift für Sprache und Kultur Gehörloser, 41, 11, 1997, 376-385. Binczek, Natalie / Ludwig Jäger / Erika Linz (ed.), App-Kultur. Sprache und Literatur, 44, 111, 2013. Coverit Live (ed.), Accessibilité Handicap et TICE. Dossier des Centres de documentation TICE, http: / / www.coveritlive.com/ index2.php/ option=com_altcaster/ task=viewaltcast/ altcast_ code=f6d101d999/ height=550/ width=470 (publiziert im März 2009, letzter Aufruf 7.7.2014). Dreuw, Philippe / Hermann Ney / Gregorio Martinez / Onno Crasborn / Justus Piater / Jose Miguel Moya / Mark Wheatley, The SignSpeak Project - Bridging the Gap Between Signers and Speakers, 2010, https: / / iis.uibk.ac.at/ public/ papers/ Dreuw-2010-LREC.pdf (letzter Aufruf 1.7.2014). Drezet, Eric, „Analyse du contexte général de l’accessibilité des TIC par les personnes handicapées“, http: / / ecoinfo.cnrs.fr/ article219.html (publiziert 30.5.2011, letzter Aufruf 7.7.2014). Foucault, Michel, Analytik der Macht, Frankfurt am Main, Suhrkamp, 2005. Gardner, Howard / Katie Davies (ed.), App culture: The App Generation: How Today's Youth Navigate Identity, Intimacy, and Imagination in a Digital World, New Haven, Yale University Press, 2014. Goggin, Gerard / Christopher Newell, Digital disability: the social construction of disability in new media, Lanham, Rowman & Littlefield, 2003. Google, Google Gesture, http: / / vimeo.com/ 98134714 (letzter Aufruf 1.7.2014). Harrasser, Karin, „Passung durch Rückkopplung. Konzepte der Selbstregulierung in der Prothetik des Ersten Weltkriegs“, in: Stefan Fischer / Erik Maehle / Rüdiger Reischuk (ed.), Informatik 2009. Im Focus das Leben, Bonn, Köllen, 2009, 788-801. Harrasser, Karin, Körper 2.0. Über die technische Erweiterbarkeit des Menschen, Bielefeld transcript, 2013. Hennion, Antoine, „Offene Objekte. Offene Subjekte? Körper und Dinge im Geflecht von Anhänglichkeit, Zuneigung und Verbundenheit“, in: Zeitschrift für Medien- und Kulturforschung, 1, 2011, 93-109. Hörl, Erich, „Die technologische Bedingung. Zur Einführung“, in: Erich Hörl (ed.), Die technologische Bedingung: Beiträge zur Beschreibung der technischen Welt, Berlin, Suhrkamp, 2011, 7-53. Länger, Carolin, Im Spiegel von Blindheit. Zur Kultursoziologie des Sehsinns, Lucius, Stuttgart, 2002. 116 DDossier Mayer, Ansgar, App-Economy. Milliardenmarkt Mobile Business, Münchner Verlagsgruppe GmbH, München, 2012. Menke, Christoph, „Zweierlei Übung. Zum Verhältnis von sozialer Disziplinierung und ästhetischer Existenz“, in: Axel Honneth (ed.), Michel Foucault. Zwischenbilanz einer Rezeption, Frankfurt am Main, Suhrkamp, 2004, 283-299. Nielsen, Jakob, „Beyond Accessibility: Treating Nutzers with Disabilities as People“, http: / / www.nngroup.com/ articles/ beyond-accessibility-treating-Nutzers-with-disabilities-as-people (publiziert am 11. November 2001, letzter Aufruf 7.7.2014). Pickering, John, „Agents and Artefacts“, in: Social Analysis, 41, 1, 1997, 46-63. Schneider, Irmela, „‚Rundfunk für alle‘. Verbreitungsmedien und Paradoxien der All-Inklusion“, in: Ulla Wischermann (ed.), Medien - Diversität - Ungleichheit. Zur medialen Konstruktion sozialer Differenz, Wiesbaden, VS Verlag, 2008, 23-46. Taylor, Norman, Cinematic Perspectives on Digital Culture: Consorting with the Machine, London, MacMillan, 2012. Thielmann, Tristan, „Mobile Medien“, in: Jens Schröter (ed.), Handbuch Medienwissenschaft, J. B. Metzler, Stuttgart/ Weimar, 2014, 350-360. Turnbull, David, Technoscience Worlds, Geelong, Deakin University Press, 1991. Vogl, Joseph, „Medien-Werden. Galileis Fernrohr“, in: Medial Historiographien, 1, 2001, 115- 123. Wacjman, Judy, Feminism Confronts Technology, London, Blackwell, 1991. White, Samuel, „Nearly real-time audio transcriptions“, in: Assets 10: Proceedings of the 12th international ACM SIGACCESS conference on Computers and accessibility, 2010, 307-308. Zax, David, „Aus Gebärden wird Text“, in: Technology Review, http: / / www.heise.de/ tr/ artikel/ Aus-Gebaerden-wird-Text-1474204.html (publiziert am 21.3.2012, letzter Aufruf 3.7.2014). 1 http: / / rollingplanet.net/ 2013/ 03/ 29/ sieht-cool-und-nicht-behindert-aus-app-macht-iphonezum-hoergeraet (publiziert am 29.3.2013, letzter Aufruf 1.7.2014). 2 http: / / vimeo.com/ 98134714 (letzter Aufruf 1.7.2014). Cf. denselben Film auf YouTube, http: / / www.youtube.com/ watch? v=KB0LZNZe5yc (publiziert am 21.6.2014, letzter Aufruf 1.7.2014). 3 Gleichwohl sorgen der Film bzw. das Konzept im Netz für Diskussionen, und so zeigt ein Film, gepostet auf dem Nachrichtenserver The Silent Grapevine (TSG), die in die gleiche Richtung zielenden Aktivitäten der Firma LEAPAXLR8R auf. Cf. http: / / www. silentgrapevine.com/ 2014/ 06/ google-gesture-is-fictional-concept-but.html (publiziert am 22.6.214, letzter Aufruf 4.8.2014). 4 In ihrem Artikel 9 Absatz 1 verpflichtet die UN-Behindertenrechtskonvention ihre Unterzeichnerstaaten, geeignetet Maßnahmen zu treffen, um für Menschen mit Behinderungen gleichberechtigt mit anderen u.a. den Zugang zu Information und Kommunikation, einschließlich Informations- und Kommunikationstechnologien und -systemen, zu ermöglichen. 5 „Ein Netz voller Scheren, Barrieren und Chancen“, http: / / www.einfach-fuer-alle.de/ artikel/ barrieren (letzter Aufruf 8.8.2014). 6 Aufgrund eines Disputs zwischen Apple und Google war YouTube auf dem iPhone, iPad und iPod lange Zeit ein recht leidiges Thema für Gehörlose. Mittlerweile aber hat Google eine iOS-App entwickelt, die im Apple-Store vorhanden und seit einiger Zeit auch für 117 DDossier Deutschland verfügbar ist. Cf. https: / / itunes.apple.com/ de/ app/ youtube/ id544007664? mt=8, (aktualisiert am 7.8.2014, letzter Aufruf 9.8.2014). 7 Die Zahlen der Downloads sprechen dabei für sich, cf. http: / / de.statista.com/ statistik/ daten / studie / 168038 / umfrage / anzahl-der-downloads-mobiler-apps-in-deutschland-seit- 2009 (letzter Aufruf 12.8.2014). Bereits 2010 prognostiziert Kristen Purcell, Associate Director für Forschung bei Pew Internet, dass auch wenn ein Großteil der Nutzer zu diesem Zeitpunkt die Möglichkeiten ihrer Smartphone noch nicht in Gänze nutzten, sich doch „bei einigen Handy-Besitzern eine Art Apps-Kultur herauszubilden beginnt“ (cf. http: / / www.tecchannel.de/ kommunikation/ news/ 2031117/ hype_um_apps_grossteil_nutzt_ programme_nicht ; publiziert 16.9.2010, letzter Aufruf 7.7.2014). 8 Natürlich benutzen Menschen mit Behinderung nicht nur spezielle Apps. Skype wird sowohl von Blinden als auch von Gehörlosen gerne eingesetzt. Ansonsten sind auch Apps zum Bestellen von Taxis, zum Musik-Streaming oder Spiele beliebt - es gibt praktisch keine App, die nicht auch von Menschen mit Behinderung genutzt wird. Das meist auftretende Hindernis ist die oft mangelnde Zugänglichkeit, vor allem auch dann, wenn neue Geräte oder Betriebssysteme auf den Markt kommen. 9 Cf. http: / / www.talenteo.fr/ 11-applications-mobiles-handicap (letzter Aufruf 24.6.2014) 10 Cf. http: / / appadvice.com/ applists/ show/ apps-for-the-deaf (letzter Aufruf 2.7.2014). 11 Der Begründer Thomas Lydell-Olsen ist Lehrer für Gesellschaftswissenschaften an der National Upper Secondary School für Gehörlose und Gehörgeschädigte. Die mehrfach preisgekrönte Übersetzungshilfe (Foundation Alares Award, Best Practise Award, u.a.) gibt es heute in bis zu 25 Sprachen. 12 Deutsche Gebärdensammlung (GuK), http: / / www.netzwelt.de/ apps/ 518-gebaerdensamm lung-guk.html (letzter Aufruf 1.8.2014). Die Anwendung ist sowohl für Androidgeräte als auch für iPhone einsetzbar. 13 Beim Gebärdensprach-Dolmetschdient TeSign rufen gehörlose Menschen über eine Videoverbindung bei TeSign einen Gebärdensprachdolmetscher an, der die Verbindung zum hörenden Gesprächspartner herstellt und die Inhalte in die Lautsprache bzw. in Gebärdensprache übersetzt. Über TeScript kann auf die gleiche Weise ein Schriftdolmetscher gebucht werden, der den ihm schriftlich mitgeteilten Telefonwunsch per Telefon an den hörenden Gesprächspartner mitteilt. Cf. http: / / www.tess-relay-dienste. de/ aktuelles (letzter Aufruf am 1.7.2014). 14 Cf. http: / / www.proximamobile.fr/ article/ handicap-auditif-une-application-pour-sous-titrerles-conversations-telephoniques (publiziert am 4.5.2011, letzter Aufruf 1.7.2014). Die gratis iPhone-App gehörlosenzentrale.ch macht das iPhone zumindest für Schweizer Gehörlose zum mobilen Schreibtelefon, mit dem von unterwegs telefonisch mit Hörenden kommuniziert werden kann, wobei das Gespräch von der Gehörlosenzentrale simultan gedolmetscht wird. 15 Cf. http: / / www.handimobility.org/ blog (letzter Aufruf, 2.7.2014). 16 Steiner, Philippe: „L’application uHear dépiste votre perte d’audition en 6 minutes“, http: / / www.handimobility.org/ blog/ lapplication-uhear-depiste-votre-perte-daudition-en-6minutes-video, publiziert am 11.6.2014 (letzter Aufruf 1.7.2014). 17 Zur ökonomischen Relevanz der neuen App-Kultur, cf. Mayer (2012). 18 Cf. http: / / www.proximamobile.fr/ article/ une-prothese-auditive-integree-dans-le-smartphone (publiziert am 29.11.2011, letzter Aufruf 7.7.2014); ebenso http: / / www.proximamobile.fr/ article/ smartphones-et-perte-d%E2%80%99audition-l%E2%80%99institut-franhoferdeveloppe-une-technologie-pour-les-male (publiziert am 11.8.2010, letzter Aufruf 7.7. 118 DDossier 2014) und http: / / www.fraunhofer.de/ en/ press/ research-news/ 2010/ 08/ digital-helpers-forthe-hearing-impaired.html (publiziert am 1.8.2010, letzter Aufruf 7.7.2014). 19 Cf. http: / / aufildeleau.polytech.univ-montp2.fr/ Nutzerfiles/ 2014/ N76_24_avril_2014/ CP% 20malentendants%20avril%202014.pdf (publiziert am 11.4.2014, letzter Aufruf 13.8.2014); ebenso http: / / www.francosourd.com/ profiles/ blogs/ montpellier-une-application-pour-ouvrirle-cinema-aux-sourds (publiziert am 10.3.2014, letzter Aufruf 13.8.2014). 20 Cf. http: / / www.gretaundstarks.de (letzter Aufruf 13.8.2014). 21 „Sobald Sie die Untertitel auf der App haben, ist diese Fassung dort gespeichert. Es handelt sich dabei nicht um die Tonspur des Films, sondern quasi um eine Kennung, die in der Datenbank gespeichert ist. Jede Filmtonspur hat eine eigene Kennung. Damit kann die App dann den richtigen Film finden aus der Datenbank der App. Dazu braucht die App kein Internet, da sie einfach den Film hört (hier kommt dann das Mikrophon zum Einsatz! ) und diesen dann der Kennung zuordnet und den richtigen Film aus der Datenbank findet. Wenn Starks dann den Film via Mikrophon hört, kann es den Ton des Films durch die Kennung der richtigen Untertitel-Fassung zuordnen. Ist diese Untertitel-Fassung noch nicht auf der App heruntergeladen, kann die App den Film nicht finden. Es läuft also über das Mikrophon, denn die App muss den Filmton hören. Das eigentliche Abgleichen ist in der App, damit die App die richtige Kennung und somit die richtigen UT findet“ (http: / / www.taubenschlag.de/ meldung/ 9265, letzter Aufruf 13.8.2014). Cf. auch „Das Handy wird zum Auge und Ohr“, in: Saarbrückener Zeitung, 15.4.201. 22 Cf. vimeo.com/ 69667139 (letzter Aufruf 1.7.2014). Auffallenderweise ist das Demonstrationsvideo durchgehend von Musik unterlegt. 23 Cf. http: / / www.auditory-voip.com (letzter Aufruf 7.7.2014); ebenso http: / / www.idmt.fraunhofer. de/ en/ Press_and_Media/ press_releases/ 2013/ iPhone_app_offers_individual_hearing_ support.html (publiziert am 4.11.2013, letzter Aufruf 7.7.2014). 24 Cf. http: / / rollingplanet.net/ 2013/ 03/ 29/ sieht-cool-und-nicht-behindert-aus-app-macht-iphonezum-hoergeraet (publiziert am 29.3.2013, letzter Aufruf 1.7.2014). 25 Cf. http: / / www.pressetext.com/ news/ 20130329017 (publiziert am 29.3.2013, letzter Aufruf 2.8.2014). 26 Cf. http: / / bioaid.org.uk 27 Cf. www.signesdesens.org (letzter Aufruf am 1.7.2014), http: / / www.websourd.org (letzter Aufruf 8.8.2014). Cf. auch http: / / www.taubenschlag.de (letzter Aufruf 1.7.2014), das jedoch wesentlich über Text funktioniert. 28 So z.B. der Dictionnaire de français en langue de signes, http: / / www.proximamobile.fr/ article/ dictionnaire-de-francais-en-langue-des-signes (letzter Aufruf am 1.7.2014) oder Signes, http: / / www.proximamobile.fr/ article/ signes (letzter Aufruf am 1.7.2014); beides Produkte von Proxima Mobile. 29 Cf. http: / / www.francosourd.com/ profiles/ blogs/ 10-apps-pour-apprendre-la-langue-dessignes (publiziert am 7.5.2013, letzter Aufruf 1.7.2014), http: / / www.proximamobile.fr/ article/ intermediation-par-visiophonie-mobile-pour-les-sourds-et-malentendants (publiziert am 1.2.2011, letzter Aufruf 7.7.2014); http: / / www.proximamobile.fr/ article/ appels-d%E2% 80%99urgence-le-114-accessible-par-sms-pour-les-malentendants (publiziert am 26.8. 2011, letzter Aufruf 7.7.2014). Im deutschen Kontext sind zu erwähnen http: / / www. taubenschlag.de/ Smartphones (letzter Aufruf 1.7.014) sowie die einzelnen, zuvor oder im Folgenden zitierten Apps. 30 Cf. Anonyme, 3.12.2012. 119 DDossier 31 http: / / rollingplanet.net/ 2013/ 01/ 29/ gehoerlose-beim-doc-virtueller-dolmetscher-als-app (publiziert am 29.1.2013, letzter Aufruf 1.8.2014). 32 Cf. http: / / www.pslt.org (letzter Aufruf 7.7.2014). 33 Allerdings stammen diese Informationen aus 2012 und die letzte Aktualisierung der Homepage (www.pslt.org) aus dem Jahr 2013. 34 Vermarktet auf Google play unter dem Titel Komplex für Gehörlose. Device H, https: / / play.google.com / store / apps/ details? id=g.example.android.BluetoothChat&hl=de (publiziert am 9.7.2013, letzter Aufruf 1.7.2014). 35 Cf. http: / / www.gemeinsam-einfach-machen.de (letzter Aufruf am 1.7.2014), ebenso http: / / www.trendsderzukunft.de/ animierte-gebardensprache-dolmetscher-statt-untertitelmit-video/ 2011/ 06/ 06 (letzter Aufruf am 1.7.2014). 36 Cf. http: / / www.golem.de/ 1106/ 83987.html (publiziert am 6.6.2011, letzter Aufruf 1.8.2014). 37 http: / / research.microsoft.com/ en-us/ collaboration/ stories/ kinect-sign-language-translator. aspx (publiziert am 30.10.2013, letzter Aufruf 1.7.2014). Cf. ebenso http: / / vipl.ict.ac. cn/ sites/ default/ files/ papers/ files/ 2013_FG_xjchai_Sign%20Language%20Recognition% 20and%20Translation%20with%20Kinect.pdf (letzter Aufruf am 1.7.2014). 38 Die Software Dites-le en langue des signes, le jeu setzt dezidiert auf den spielerischen Lernerfolg und bietet ein Kartenspiel und eine mobile App mit 50 Gebärden an: „Un peu de gymnastique de doigts pour faciliter le lien entre personnes sourdes et entendant“. Die Crowdfunding-Aktion wurde von der Website Signes de Sens unterstützt und erzielte mit mehr als 300 Unterstützern die Gesamtsumme von 9.800 Euro. Der Prototyp des Spiels ist unter http: / / www.signesdesens.org/ boutique verfügbar. 39 http: / / research.microsoft.com/ en-us/ collaboration/ stories/ kinect-sign-language-translator. aspx; Film verfügbar unter: http: / / www.youtube.com/ watch? v=HnkQyUo3134. 40 Auch die technisch weniger anspruchsvolle Software Sign4me (http: / / signingapp.com) greift auf SigningAvatar Charaktere in einer 3D-Umgebung zum Erlernen der Gebärdensprache zurück 41 Cf. http: / / www.signspeak.eu (letzter Aufruf 1.7.2014). 42 Cf. http: / / meinaugenschmaus.de/ tag/ gebardensprache (publiziert am 6.11.2013, letzter Aufruf 6.8.2014). 43 Cf. http: / / www.visicast.cmp.uea.ac.uk/ eSIGN/ Introduction.htm#01 (letzter Aufruf 6.8.2014). 44 Verbavoice, http: / / www.verbavoice.de/ startseite/ 92-root-de/ hoerschaedigung (letzter Aufruf am 1.7.2014). Der Dienst ist als App auf Google play downloadbar (https: / / play. google.com/ store/ apps/ details? id=air.de.verbavoice.app, letzter Aufruf 6.8.2014). Die App ist für Gehörgeschädigte und Gehörlose konzipiert, aufgenommene Sprache kann wahlweise als Text mitgelesen oder in Gebärdensprache übersetzt werden. Im Vorfeld wird ein Dolmetscher gebucht, der entweder über die App live bei einem Gespräch oder einem Vortrag dabei ist und in Echtzeit übersetzt. Das vereinbarte Datum und die Uhrzeit erscheinen in der Terminliste der App. 45 Sign4Me, verfügbar für Apple und Android, verfügt zwar über 3D-Darstellung, doch funktioniert das Verschieben des Avatars im Raum nur innerhalb einer Gebärde. Eine Einführung zum Programm findet sich unter: https: / / www.youtube.com/ watch? v=- NfQGMrqEWY (publiziert am 27.5.2009, letzter Aufruf 1.7.2014). Im realen gebärdensprachlichen Gespräch aber kann sich die Bedeutung der Gebärde je nach ihrer Bewegungsrichtung zwischen den Raumpunkten des Gebärdenraums ändern.