Diss_Korr_Teil 2_14 - Institut für Deutsche Gebärdensprache
Transcription
Diss_Korr_Teil 2_14 - Institut für Deutsche Gebärdensprache
Inhalt 1 Reiner Konrad Die Erstellung von Fachgebärdenlexika am Institut für Deutsche Gebärdensprache (IDGS) der Universität Hamburg (1993-2010) Universität Hamburg Institut für Deutsche Gebärdensprache und Kommunikation Gehörloser im Dezember 2010 Die vorliegende Arbeit ist eine aktualisierte Fassung des 4. Kapitels der im März 2009 bei der Fakultät für Geisteswissenschaften (Fachbereiche Sprache, Literatur, Medien & Europäische Sprachen und Literaturen) der Universität Hamburg eingereichten Dissertation Die lexikalische Struktur der DGS im Spiegel empirischer Fachgebärdenlexikographie. Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell. Zugehörige Veröffentlichungen: • Konrad, Reiner. (in Vorb.): Die lexikalische Struktur der DGS im Spiegel empirischer Fachgebärdenlexikographie. Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell. Tübingen: Narr Verlag. [Inhaltliche Bezüge auf diese Veröffentlichung sind in dieser Arbeit mit folgendem roten Pfeil ➚ vor der Angabe des Kapitels gekennzeichnet.] • Konrad, Reiner. 2010a: Transkriptionskonventionen im Vergleich. Universität Hamburg. [Online im Internet; URL: http://www.sign-lang.unihamburg.de/projekte/mfl/transkrkonv_vergleich.pdf] • Konrad, Reiner. 2010b: Gebärdensprach-Korpora. Universität Hamburg. [Online im Internet; URL: http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gskorpora.html] Inhalt 2 Inhalt 1 2 3 4 5 6 7 8 Vorwort................................................................................................................... 4 Einführung .............................................................................................................. 7 Korpusbasiertheit und empirisch-deskriptives Vorgehen ......................................... 9 Datenerhebung ...................................................................................................... 14 4.1 Setting ........................................................................................................... 15 4.2 Erhebungsarten .............................................................................................. 16 4.2.1 Standardisiertes Interview ........................................................................... 17 4.2.2 Vorstrukturiertes Gespräch.......................................................................... 17 4.2.3 Elizitierte Antworten................................................................................... 18 4.3 Dokumentation und Aufbereitung der Daten..................................................... 21 Segmentierung und Sichtung................................................................................. 23 5.1 Vorstrukturierte Gespräche ............................................................................ 23 5.2 Elizitierte Antworten...................................................................................... 25 Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank........... 28 6.1 Rohtranskription und Lemmatisierung: vom Token zum Type ....................... 29 6.1.1 Transkriptionskonventionen........................................................................ 31 6.1.1.1 Konventionelle Gebärden......................................................................... 35 6.1.1.2 Produktive Gebärden................................................................................ 43 6.1.1.3 Sonstige Zeichen und Zeichensysteme ..................................................... 49 • Fingeralphabet ................................................................................. 49 • Initialisierte Gebärden...................................................................... 51 • Phonembestimmtes Manualsystem (PMS) ....................................... 51 • DGS-Gebärden für deutsche Prä- und Suffixe.................................. 53 • Neu entwickelte Gebärden ............................................................... 53 • Zeigegebärden ................................................................................. 53 • Zahlgebärden................................................................................... 54 • Gesten ............................................................................................. 56 • Repräsentierender ganzheitlicher Körperausdruck............................ 61 • Artikulation eines Ableseworts ohne manuelle Form ....................... 63 • Überlagerung verschiedener Gebärden (Koartikulation)................... 63 6.1.1.4 Modifikation lexikalischer Gebärden........................................................ 64 6.1.1.5 Variation lexikalischer Gebärden ............................................................. 69 • Phonologische Varianten (Ausführungsvarianten)............................ 69 • Lexikalische Varianten (Synonyme) ................................................ 71 6.1.1.6 Überblick über Glossierungskonventionen und Vergleich ........................ 72 6.2 Aufbau einer lexikalischen Datenbank ........................................................... 80 6.2.1 Bottom-up- versus Top-down-Ansatz.......................................................... 82 6.2.2 Überdifferenzierung versus Unterdifferenzierung........................................ 85 6.2.3 Komplexität, Differenzierung und effiziente Suchfunktionen ...................... 87 6.2.4 Qualitätssicherung: Paralleltranskription (inter-transcriber reliability) versus mehrstufiges Verfahren .................................................................... 89 6.3 Lemmarevision: vom Type zum Token und Type-Umgebung ........................ 93 6.3.1 Vom Type zum Token ................................................................................ 93 6.3.2 Type-Umgebung ......................................................................................... 94 6.3.3 Fehlerdokumentation, Fehlerkorrektur und Hierarchie der Bearbeitungsrechte...................................................................................... 96 Auswahl geeigneter DGS-Übersetzungen .............................................................. 99 Lexikographische Beschreibung der Einzelgebärden ........................................... 103 8.1 Gebärdenraumnutzung ................................................................................. 105 8.2 Bedeutungsangabe bei Modifikationen......................................................... 109 Inhalt 3 9 Zusammenfassung............................................................................................... 112 10 Literatur .............................................................................................................. 119 Anhang: Abkürzungen....................................................................................................... 129 Fingeralphabet der DGS ...................................................................................... 130 Vorwort 1 4 Vorwort Seit Beginn der 1990er Jahre wurden am Institut für Deutsche Gebärdensprache und Kommunikation Gehörloser (IDGS) der Universität Hamburg sogenannte Fachgebärdenlexika erstellt. Das Fachgebärdenlexikon Computer (CLex)1 war das erste Projekt, das 1994 mit der Veröffentlichung eines zweibändigen Buches (Arbeitsgruppe Fachgebärdenlexika 1994) sowie einer VHS- und CD-ROM-Version2 abgeschlossen wurde. Das 1992 begonnene Projekt Fachgebärdenlexikon Linguistik (LingLex) wurde nicht abgeschlossen.3 Von 1993-2010 wurden sechs Fachgebärdenlexika zu verschiedenen Berufsfeldern erstellt, die eine Berufsausbildung oder ein akademisches Studium erfordern: Psychologie (PLex), Tischler/Schreiner (TLex), Hauswirtschaft (HLex), Sozialarbeit/Sozialpädagogik (SLex), Gesundheit und Pflege (GLex), Gärtnerei und Landschaftsbau (GaLex).4 Ziel der vorliegenden Arbeit ist es, die in diesem Zeitraum entwickelten Methoden der Gebärdenerhebung und Auswertung der Daten zu beschreiben. Das methodische Vorgehen umfasst die Datenerhebung (Kap. 4), die Segmentierung und Sichtung der Daten (Kap. 5) sowie die Transkription (Kap. 6), die in mehreren Schritten vorgenommen wird. Nach der Segmentierung der Einzelgebärden, aus denen sich eine elizitierte Antwort oder Äußerung zusammensetzt (Tokenisierung), wurden diese Einzelgebärden (Token) lexikalischen Einheiten zugeordnet (lemmatisiert). Dieser Schritt der Lemmatisierung geht einher mit dem Aufbau einer lexikalischen Datenbank, da es noch kein umfassendes Wörterbuch der Deutschen Gebärdensprache (DGS) gibt, das die lexikalischen Einheiten (Types) enthält, denen die Token hätten zugeordnet werden können. Die Auswahl geeigneter DGS-Übersetzungen (Kap. 7) sowie die Ausarbeitung weiterer Informationseinheiten zu den Einzelgebärden (Kap. 8), die seit dem TLex in einem separaten Gebärdenverzeichnis lexikographisch beschrieben werden, schließen diese Arbeit ab. Nicht erwähnt werden die Arbeiten, die sich auf die Ausarbeitung der Informationen zu den Fachbegriffen beziehen. Nähere Angaben dazu finden sich im Vorwort oder in den Hintergrundinformationen des jeweiligen Fachgebärdenlexikons. 1 2 3 4 Im Folgenden werden in runden Klammern die Abkürzungen der verschiedenen Projekte eingeführt, die in dieser Arbeit für das Projekt bzw. das daraus entstandene Produkt verwendet werden. Die CD-ROM-Version wurde mithilfe des Programms Hypercard, das nur für Apple MacintoshComputer nutzbar war, entwickelt und ist nicht mehr verfügbar. Als HTML-Version und online verfügbar ist lediglich ein Beispieleintrag, der die verschiedenen Informationseinheiten zeigt (URL: http://www.sign-lang.uni-hamburg.de/CLex/A/Abakus.HTML). Eine Projektbeschreibung findet man unter der URL: http://www.sign-lang.uni-hamburg.de/projekte/linglex/linglex-uebersicht.html. Die Fachgebärdenlexika wurden als Buch- und elektronische Version (CD- bzw. DVD-ROM) produziert und im Signum-Verlag veröffentlicht (Arbeitsgruppe Fachgebärdenlexika 1996, Arbeitsgruppe Fachgebärdenlexika 1998, Konrad et al. 2000, Konrad et al. 2003, Konrad et al. 2007, Konrad et al. 2010). Die DGS-Übersetzungen der Fachbegriffe wurden zusätzlich als VHS-Kassetten oder DVDVideo produziert. Die elektronische Version ist HTML-basiert und damit plattformunabhängig im Internet frei verfügbar; s. URL: http://www.sign-lang.uni-hamburg.de/projekt/abg_projekte.html. Vorwort 5 Kapitel 3 gibt zu Beginn einen zahlenmäßigen Überblick über die Projekte (s. Tab. 2) und eine quantitative Auswertung der erhobenen Daten. Für jedes dieser sechs Fachgebärdenlexika wurde ein eigenes Korpus erhoben, das im Wesentlichen aus elizitierten spontanen Übersetzungen der Fachbegriffe besteht. Die darin enthaltenen Gebärden wurden segmentiert, lexikalischen Einheiten zugeordnet (lemmatisiert) und mit weiteren Angaben zu Form und Bedeutung versehen (annotiert). Dadurch konnten die spontanen Übersetzungen eines Fachbegriffs überprüft und miteinander verglichen werden. Diese Korpora sind die Grundlage für die Auswahl geeigneter DGSEntsprechungen eines Fachbegriffs. Der Schwerpunkt dieser Arbeit liegt in der detaillierten Beschreibung und Diskussion der Transkriptionskonventionen, die der Lemmatisierung und Annotation der Gebärden zugrunde liegen. Einen Überblick über die von uns entwickelten Glossierungen im Vergleich mit anderen Konventionen für Lemmatisierung und Annotation gibt die Tabelle „Transkriptionskonventionen im Vergleich“5 Diese Konventionen werden fortlaufend weiterentwickelt. Zum einen sind es die Daten, die neue Kategorisierungen im Rahmen der Token-Type-Zuordnung sowie der konsistenten Klassifizierung sonstiger nichtlexikalisierter gebärdensprachlicher Phänomene nahelegen, zum anderen sind es neue Forschungsziele, die Konventionen für zusätzliche Annotationen erfordern. Der hier beschriebene Stand bezieht sich auf die Transkriptionskonventionen, die bis zum Beginn der Basistranskription im Rahmen des DGS-Korpus-Projekts6 (Sommer 2010) angewandt wurden. Wesentliche Veränderungen sind zurzeit im Bereich der Erfassung von Modifikationen geplant (s. Kap. 6.1.1.4). Die Notwendigkeit, parallel zur Transkription und Lemmatisierung eine lexikalische Datenbank aufzubauen, macht es erforderlich, dass nach Abschluss der Rohtranskription alle Token eines Types miteinander verglichen werden, um die Konsistenz der Token-Type-Zuordnung und der Annotationen zu gewährleisten. Dadurch wird die Lemmatisierung, die im Wesentlichen ein Top-down-Prozess ist, durch die Daten abgesichert (bottom-up; s. Kap. 6.2.1). Diese Überarbeitung der Rohtranskription wird in dieser Arbeit als Lemmarevision bezeichnet und in Kapitel 6.3 näher beschrieben. Dieser Teil der Dissertation wird separat veröffentlicht, um denjenigen, die in der Gebärdensprachforschung empirisch arbeiten, konkrete praktische wie auch technische Informationen möglichst einfach zugänglich zu machen. Wer sich jedoch eher für die theoretischen Fragen der Transkription und Lemmatisierung sowie für die Relevanz ikonischer und lautsprachlicher Einflüsse im Gebärdenlexikon interessiert, sei auf Konrad (in Vorb.) verwiesen. Verweise auf entsprechende Kapitel dieser Veröffent5 6 S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/transkrkonv_vergleich.pdf. S. URL: http://www.dgs-korpus.de/. Vorwort 6 lichung sind immer durch folgenden roten Pfeil ➚ vor der Angabe des Kapitels gekennzeichnet. Die Webseite „Gebärdensprach-Korpora“7 wurde eingerichtet, um einen aktuellen und umfassenden Überblick über bereits erstellte oder noch laufende Korpusprojekte zu geben. Dieser Überblick war ursprünglich ebenfalls Teil der Dissertation. Die Form der Gebärdenbeispiele ist mithilfe des Hamburger Notationssystems für Gebärdensprachen (HamNoSys) notiert. Die Gebärden sind unter dem Glossennamen als Videofilme auf folgender Webseite abrufbar: „Materialien zu den Fachgebärdenlexika (1996-2010): Gebärden-Filme“8. Die im Folgenden beschriebenen Projekte wären nicht durchführbar ohne die aktive Beteiligung Gehörloser sowohl als Informanten als auch als Projektmitarbeiter, die die Gebärden erheben, dokumentieren, sichten, transkribieren und eine Auswahl der DGSÜbersetzung treffen. Die gehörlosen Mitarbeiter waren von der Vorbereitung der Erhebung bis zur Fertigstellung der Lexika an fast allen Arbeitsschritten maßgeblich beteiligt. Seit dem TLex konnten die Projekte mit einem Stamm von vier gehörlosen und drei hörenden Mitarbeitern durchgeführt werden. Dies zahlte sich insbesondere darin aus, dass Methoden der Datenerhebung und -auswertung gemeinsam entwickelt und ständig verbessert werden konnten. Dabei profitierten die Gehörlosen vom linguistischen und methodischen Wissen der Hörenden, die Hörenden waren auf die Sprachkompetenz der Gehörlosen angewiesen, die für die Erhebung und Auswertung der Daten unerlässlich ist. Insbesondere möchte ich mich für die langjährige und intensive Zusammenarbeit bedanken bei Gabriele Langer und Susanne König sowie bei den gehörlosen Mitarbeiterinnen und Mitarbeitern Dolly Blanck, Ilona Hofmann, Lutz König und Arvid Schwarz. Ohne sie wäre dieser Fortschritt in der Gebärdensprachlexikographie, der die Voraussetzungen für das DGS-Korpus-Projekt geschaffen hat, nicht möglich gewesen. 7 8 S. URL: http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gs-korpora.html. S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/gebaerden_filme.html. Einführung 2 7 Einführung Die o.g. Projekte wurden, mit Ausnahme der Projekte Fachgebärdenlexikon Linguistik sowie Gesundheit und Pflege, vom Bundesministerium für Arbeit und Sozialordnung gefördert. Ziel dieser Fachgebärdenlexika ist es, Grundlagen für eine qualifizierte Ausbildung Gehörloser zur Verfügung zu stellen. Dahinter steht die Erkenntnis, dass die berufliche Ausbildung Gehörloser erheblich verbessert werden kann, wenn Gebärden bzw. DGS in die Kommunikation mit einbezogen werden. Denn ohne Gebärden bzw. Gebärdensprache ist der Zugang zu den fachlichen Inhalten für Gehörlose im Vergleich zu Hörenden ungleich schwieriger, da sie sich die Ausbildungsinhalte in einer ihnen fremden, zweiten Sprache, dem geschriebenen Deutsch, aneignen müssen. Gehörlose haben jedoch nach abgeschlossener Schulausbildung eine im Vergleich zu Hörenden schlechte Schriftsprachkompetenz (s. ➚ 2.4.2) und sind dadurch doppelt benachteiligt. Der stetig wachsende Bedarf an Gebärden, die eine effiziente Kommunikation in einem bestimmten Fachgebiet gewährleisten sollen, ist zum einen dadurch zu erklären, dass Gehörlose durch den Einsatz von Dolmetschern oder Arbeitsassistenz sich neue Berufsfelder erschließen oder sich für eine akademische Ausbildung entscheiden. Zum anderen sind es die Veränderungen in der Arbeitswelt, z.B. durch den verstärkten Einsatz von EDV, die eine ständige Weiterbildung oder eine berufliche Neuorientierung notwendig machen. Dies war einer der wesentlichen Gründe, warum das erste Fachgebärdenlexikon zum Thema Computer erstellt wurde. Mit der Anerkennung der Gebärdensprache haben Gehörlose zwar Anspruch auf die Vermittlung von Ausbildungs- und Arbeitsinhalten in ihrer eigenen Sprache, der DGS9, das Kommunikationsproblem bleibt jedoch, da es für viele Fachbegriffe keine adäquaten DGS-Entsprechungen gibt. In der konkreten Dolmetschsituation wird dieses Manko unter anderem dadurch ausgeglichen, dass gehörloser Klient und Dolmetscher sich auf gebärdensprachliche Umschreibungen oder neu eingeführte Gebärden einigen, die speziell für diese Dolmetschsituation gelten. Erst nach mehrmaligem Gebrauch kann es sein, dass sich bestimmte Gebärden einschleifen, die für eine bestimmte Bedeutung verwendet werden. Wechselt der Kommunikationspartner, müssen wieder von neuem Gebärden für eine spezifische Bedeutung vereinbart werden. Die Fachgebärdenlexika stellen für Gehörlose, Dolmetscher und Ausbilder DGS-Übersetzungen der grundlegenden Fachbegriffe zur Verfügung und ermöglichen es, die Kommunikation zwischen Hörenden und Gehörlosen, aber auch zwischen Gehörlosen untereinander effizienter zu machen. Das Ziel, Grundlagen für die berufliche Ausbildung Gehörloser bereitzustellen, war 9 S. Behindertengleichstellungsgesetz (BGG), § 6, Absatz 1-3. Das Gesetz ist am 1.5.2002 in Kraft getreten. Das Recht auf soziale Teilhabe für behinderte und chronisch kranke Menschen ist seit dem 1.7.2001 im Sozialgesetzbuch (SGB) IX geregelt, u.a. in Artikel 1, § 102 (Arbeitsassistenz) und Artikel 36 (Berufsbildung); vgl. Schmidt-Brücken (2001). Einführung 8 auch ausschlaggebend für die Struktur der Fachgebärdenlexika, die nicht nur eine Übersetzung der Fachbegriffe in die DGS anbieten, sondern darüber hinaus jeden Fachbegriff entsprechend dem Fachgebiet und Ausbildungsniveau definieren und, wo möglich, mit einer geeigneten Illustration versehen. Damit sind die Fachgebärdenlexika eine Mischung aus Fachbuch und zweisprachigem Wörterbuch10, wobei die Übersetzung immer vom deutschen Fachbegriff ausgeht. Nach Wiegand (1994:107) ist dieser Wörterbuchtyp als „fachliches Allbuch“ einzuordnen. Die Kombination aus Fach- und Sprachwissen ist nach Bergenholtz (1994:44) gerade für Benutzer, die keine Fachleute sind, sinnvoll. Für die Erstellung der fachlichen Inhalte, die die Auswahl der Begriffe, u.a. auf der Grundlage einer bestehenden Ausbildungsordnung, die Begriffserklärung und die Illustration durch geeignete Abbildungen, Fotos oder Zeichnungen umfasst, wurde in jedem Projekt eine Kooperation mit einem Berufsbildungswerk, einer Hochschule oder anderen externen Fachleuten vereinbart. Die Auswahl der Fachbegriffe war durch den Projektzeitraum, die Vorgehensweise bei der Erarbeitung der DGS-Übersetzungen und die finanziellen Mittel begrenzt. Bedingt durch die korpusbasierte Erstellung der Fachgebärdenlexika, die mit dem Psychologie-Lexikon eingeführt wurde, ergab sich für einen Projektzeitraum von maximal drei Jahren eine Obergrenze von ca. 1000 Begriffen. 10 Berücksichtigt man die englischen Übersetzungen der Fachbegriffe, für die ein eigenes Register erstellt wird, dann sind sie korrekterweise als dreisprachig zu bezeichnen. Die englischen Bezeichnungen sind gerade für die akademischen Disziplinen Psychologie, Sozialarbeit/Sozialpädagogik sowie für Gesundheit und Pflege eine sinnvolle Ergänzung für den Benutzer. Weiterhin ermöglichen diese Übersetzungen englischsprachigen Benutzern der Online-Version eines Fachgebärdenlexikons, DGSÜbersetzungen der Fachbegriffe zu finden. Korpusbasiertheit und empirisch-deskriptives Vorgehen 3 9 Korpusbasiertheit und empirisch-deskriptives Vorgehen Das Fachgebärdenlexikon Psychologie war das erste Projekt, das unter meiner Verantwortung durchgeführt wurde. Die Entscheidung, die Auswahl der DGS-Übersetzungen auf der Grundlage eines eigens dafür erstellten Korpus vorzunehmen, war in erster Linie motiviert durch die Absicht, die bereits vorhandenen Gebärden zu dokumentieren. Denn entweder existieren bereits etablierte Gebärden für bestimmte Fachbegriffe oder gehörlose Fachleute haben Strategien entwickelt, wie sie Fachbegriffe, mit denen sie sich während der Ausbildung oder ihrer beruflichen Tätigkeit auseinandersetzen müssen, in die DGS übersetzen. Nur wenn diese Fachgebärden oder bekannte Übersetzungsstrategien auch im Lexikon gezeigt werden, können sich gehörlose Nutzer mit ihrer sprachlichen Erfahrung darin wiederfinden. Auch wenn, besonders bei hörenden Nutzern, die die DGS als Fremdsprache erwerben (L2-Lerner), die Erwartung groß ist, dass ein Fachgebärdenlexikon allgemein verbindliche, standardisierte DGS-Übersetzungen von Fachbegriffen liefern sollte, haben die Fachgebärdenlexika nicht die Intention, auf eine Standardisierung einer bestimmten DGS-Übersetzung hinzuwirken. Sie sind jedoch insofern präskriptiv, dass durch die Veröffentlichung bestimmte Übersetzungen stärker verbreitet und recherchierbar sind und sich als Grundlage für eine zu erwartende Standardisierung anbieten. Ob es jedoch zu einer Standardisierung kommt, entscheidet sich allein durch den Sprachgebrauch. Im Unterschied zum Vorgehen einer Arbeitsgruppe um R. Caccamise am RIT (Washington), die seit 1975 im Rahmen des Technical Signs Project (TSP) Fachgebärden der Amerikanischen Gebärdensprache (ASL) für die verschiedensten Berufsfelder zusammengestellt haben11, steht bei unserem Vorgehen die Erhebung möglichst vieler Übersetzungsmöglichkeiten im Vordergrund, die im Rahmen der Transkription und lexikalischen Analyse ausgewertet werden. Diese Auswertung ist die Grundlage für die Auswahl der Übersetzungen, die im Produkt gezeigt werden. Die Auswahl ist korpusbezogen und wird nicht daraufhin geprüft, ob diese Übersetzungen bereits standardisierte Fachgebärden sind. Um dem Benutzer die verschiedenen Übersetzungsstrategien deutlich zu machen, sind seit dem Fachgebärdenlexikon Tischler/Schreiner (TLex; Arbeitsgruppe Fachgebärdenlexika 1998) die Einzelgebärden, aus denen diese Übersetzungen bestehen, durch Glossen gekennzeichnet und in einem separaten Gebärdenverzeichnis lexikographisch beschrieben. Dadurch wird nachvollziehbar, welche Gebärden – konventionelle Gebärden, sogenannte produktive Gebärden oder eine Kombination aus konventionellen und/oder produktiven Gebärden – zur Übersetzung eines Fachbegriffs verwendet werden, mit welchen Ablesewörtern oder Mundgestiken diese Gebärden kombiniert werden, ob diese Gebärden modifiziert wurden und welche Gebärdenvarianten es gibt. 11 Zum methodischen Vorgehen s. ➚ 2.4.1. Korpusbasiertheit und empirisch-deskriptives Vorgehen 10 Dieses Vorgehen, das im Folgenden näher erläutert wird, unterscheidet sich deutlich von den Methoden, die für die Erstellung des Computer- und Linguistik-Lexikons eingesetzt wurden. Um geeignete Übersetzungen für die vorher festgelegten Fachbegriffe aus dem Bereich Computer zusammenzutragen, trafen sich in regelmäßigen Abständen Mitarbeiter des Projekts mit elf hörgeschädigten oder gehörlosen Computerfachleuten aus dem gesamten Bundesgebiet (s. Arbeitsgruppe Fachgebärdenlexika 1994:5-6). Die Sitzungen wurden jedoch nicht dokumentiert, d.h. es gibt weder Belegstellen für die ausgewählten Gebärden noch Metadaten über die Teilnehmer der Sitzungen und deren Verlauf. Im Nachhinein kann u.a. nicht mehr nachvollzogen werden, wer die Übersetzung vorgeschlagen hat, warum eine Übersetzung einer anderen vorgezogen wurde, ob eine bereits etablierte Gebärde direkt übernommen oder in ihrer Form verändert wurde, um den jeweiligen Fachbegriff wiederzugeben, oder ob eine völlig neue Gebärde geschaffen wurde. Die Ausgangslage für das Fachgebärdenlexikon Linguistik war völlig anders, da es außer den gehörlosen Lektoren des IDGS nur sehr wenige Gehörlose gab, die sich mit linguistischen Themen beschäftigten. Die meisten der ca. 1000 ausgewählten Fachbegriffe waren Gehörlosen unbekannt. Die DGS-Übersetzungen wurden im Rahmen von Arbeitssitzungen erarbeitet, indem die Leiterin des Projekts den drei gehörlosen Lektoren die Bedeutung der Begriffe erklärte und diese dann mögliche DGS-Gebärden diskutierten. Zu jeder Sitzung, an der Anfangs auch Dolmetscher teilnahmen, wurde ein schriftliches Protokoll angefertigt. Diese Protokolle waren die Grundlage für die Wahl einer bestimmten Übersetzung, die als vorläufige Version im Studio aufgenommen wurde. Diese Gebärden sollten etliche Jahre später von einer größeren Gruppe Gehörloser, die Erfahrungen mit linguistischen Grundbegriffen hatten, z.B. durch ihre Tätigkeit als DGS-Dozenten, diskutiert und überarbeitet werden. Diese Bemühungen führten jedoch nicht zu einem erfolgreichen Abschluss. Weder die Vorgehensweise im Technical Signs Project (TSP; s. ➚ 2.4.1), die ihren Schwerpunkt in der Evaluation einer relativ geringen Anzahl intern erhobener ASLÜbersetzungen hatte und auf eine Standardisierung von Fachgebärden ausgerichtet war, noch die bereits am IDGS durchgeführten Projekte waren methodisch zufriedenstellend. Die Erstellung weiterer Fachgebärdenlexika sollte auf der Grundlage eines eigens dafür erstellten Korpus vorgenommen werden, um die bereits vorhandenen gebärdensprachlichen Entsprechungen der ausgewählten Fachbegriffe zu dokumentieren und Entscheidungen nachvollziehbar zu machen. Mit Beginn des Fachgebärdenlexikons Psychologie (PLex) wurde für jedes Fachgebärdenlexikon eine empirische Erhebung durchgeführt. Die Sichtung des erhobenen Materials diente dazu, das Korpus zu erstellen, das ausgewertet werden sollte. Kern der Auswertung war die Transkription und Annotation, die es ermöglichte, die Antworten der Informanten zu vergleichen und quantitativ auszuwerten. Erst auf dieser Grundlage wurde die Auswahl der DGS-Übersetzungen vorgenommen sowie, falls erforderlich, fehlende Übersetzungen erarbeitet. Die Ent- Korpusbasiertheit und empirisch-deskriptives Vorgehen 11 scheidung, möglichst viele Gebärdenvarianten und Übersetzungsmöglichkeiten eines Fachbegriffs in der Auswahl zu berücksichtigen, war letztendlich motiviert durch die Datenlage, die ein sehr heterogenes Bild ergab, wie folgende Tabelle zeigt12. HLex Zahl der transkribierten Informanten SLex GLex GaLex 11 10 10 11 Zahl der Stimuli 702 450 1006 708 Zahl der Begriffe mit gültigen Antworten 691 450 991 712 Begriffe mit gültigen Antworten in % 98,4 100 98,5 100,6 Summe der gültigen Antworten 8999 6691 15351 14152 Max. Zahl der Antworten pro Begriff 66 30 76 67 Max. Zahl verschiedener Antworten pro Begriff 48 29 34 38 Durchschnittliche Zahl der Antworten pro Begriff pro Informant Durchschnittliche Zahl der Antworten pro Begriff pro Informant: Min-Max 1,4 1,6 2 2,3 1,3-1,6 1,3-2,0 1,5-2,5 1,6-2,8 Tabelle 1: Verteilung der gültigen Antworten pro Begriff Die Gesamtzahl der nach der Sichtung (s. Kap. 5) für die Transkription vorgesehenen gültigen Antworten pro Begriff variiert in den verschiedenen Projekten zwischen 30 und 76. Die maximale Anzahl verschiedener Antworten pro Begriff variiert zwischen 29 und 48. Die starke Zunahme der absoluten Anzahl der Antworten lag an der Veränderung der Erhebungsmethode ab dem Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003; s. Kap. 4.2.3). Die durchschnittliche Zahl der Antworten, die ein Informant gegeben hat, lag zwischen 1,3 und 2,8, wobei auffällt, dass die Zahl mit jedem Projekt zunimmt. Dies liegt ebenfalls an den fortlaufenden Veränderungen der Erhebungssituation mit dem Ziel, mehr Kommunikation zwischen Informant und Interviewer zuzulassen. Das folgende Diagramm zeigt das Verhältnis der Übereinstimmung verschiedener Informanten in ihren Antworten13. 12 13 In dieser Auswertung sind die Projekte ab dem Fachgebärdenlexikon Hauswirtschaft (HLex) berücksichtigt, da die Transkriptionen der beiden vorhergehenden Projekte nicht in der Datenbank enthalten sind. Als gleiche Antworten wurden alle Gebärden bzw. aneinandergereihte Gebärden gezählt, die dieselbe Zitierform haben, d.h. die Modifikationen einer Gebärde (s. 6.1.1.4) wurden nicht berücksichtigt. Korpusbasiertheit und empirisch-deskriptives Vorgehen 12 Abb. 1: Übereinstimmung in den Antworten der Informanten Die Zahlen auf der Horizontalen geben die Häufigkeit gleicher Antworten an, wobei ab einer Übereinstimmung von zwei Antworten gezählt wurde. Die Zahlen auf der Vertikalen geben die Anzahl der übereinstimmenden Antworten an. Deutlich erkennbar ist, dass HLex und GaLex eine ähnliche Verteilungsstruktur haben, während SLex und GaLex eine gegenläufige Tendenz aufweisen. Während das SLex-Korpus deutlich höhere Zahlen gleicher Antworten enthält, sind im GLex-Korpus deutlich niedrigere Zahlen gleicher Antworten vorhanden. Die Verteilungsstruktur des GLex’ ist jedoch nicht deutlich verschieden von der des HLex- und SLex-Korpus. Gründe für die auffallende Abweichung beim SLex sind vermutlich die relativ homogene Begriffsstruktur durch die hohe Zahl an Verwaltungs- und Rechtsbegriffen sowie die Tatsache, dass etliche Informanten zuvor an dem Modellprojekt PotsMods an der Fachhochschule Potsdam teilgenommen hatten (s. Henke/Heßmann 1995, Danielzik 2003). Dies hat vermutlich zu einer stärkeren Konventionalisierung der DGS-Entsprechungen geführt. Dem natürlichen Prozess der Standardisierung sollte nicht dadurch vorgegriffen werden, dass jeweils nur eine Übersetzung veröffentlicht wird. Da die Auswahl korpusbezogen vorgenommen wurde, entschieden wir uns seit dem PLex dafür, den Erhebungsstatus für jede gezeigte Übersetzung mit anzugeben, sodass der Benutzer sehen kann, ob eine Übersetzung von verschiedenen Informanten („belegt“) oder von nur einem Informanten („bekannt“) stammt, ob sie aus erhobenen Gebärden zusammen mit dem entsprechenden Ablesewort neu „kombiniert“ wurde oder ob es sich um eine „neue“ Gebärde handelt. An die Auswahl schloss sich die lexikalische Analyse der Einzelgebärden an, die in den DGS-Übersetzungen verwendet werden. Korpusbasiertheit und empirisch-deskriptives Vorgehen 13 Die Begrenzung der Auswahl auf die im Korpus enthaltenen DGS-Entsprechungen hat den Nachteil, dass das Korpus nur einen begrenzten Sprachausschnitt darstellt und daher nicht alle möglichen Übersetzungen enthalten kann. Außerdem ist die Transkription gebärdensprachlicher Daten sehr zeitaufwändig, da im Unterschied zu lautsprachlichen, insbesondere geschriebenen Texten, auf keine automatisierten Verfahren zurückgegriffen werden kann. Diese Nachteile überwiegen jedoch nicht die entscheidenden Vorteile eines Korpus: 1. Die Auswahl kann auf der Grundlage elizitierter Antworten oder DGS-Textstellen in Interviews vorgenommen werden. Dadurch, dass die erhobenen DGS-Entsprechungen miteinander verglichen und deren Häufigkeit ermittelt werden kann, ist die Auswahl objektivierbar und unterliegt nicht nur der sprachlichen Intuition gehörloser Mitarbeiter. 2. Entscheidungen können anhand der Rohdaten nachvollzogen und während des Transkriptionsprozesses oder der lexikalischen Analyse revidiert werden. 3. Durch die Auswahl der Informanten können regionale und dialektale Varianten mit berücksichtigt werden. Die folgende Tabelle gibt einen zahlenmäßigen Überblick über die einzelnen Projekte. Fachgebiet Psychologie Tischler/ Hauswirt- Sozialarbeit/ Gesundheit Gärtnerei Schreiner schaft Sozialpäda- und Pflege und Landgogik schaftsbau Projektzeitraum 1993-1995 1996-1998 1998-2000 2001-2003 900 800 700 450 1000 650 1270 2800 1560 940 2330 1406 900 800 550 700 340 450 1000 250 710 410 5 5 16 10 17 11 15 10 18 10 11 11 2 12 7 3,5 19 32,5 2 15 37,5 5 9 40,5 5 8,5 93,5 3,5 5,5 37 Antworten (gesamt) Antworten (transkribiert) 3600 13500 8900 12500 9800 9600 6800 43200 15200 22400 10900 DGS-Entsprechungen in vorstrukt. Gesprächen 500 – – – 2184 382 18700 2800 26400 1640 15900 50 29400 2630 21900 1220 1370 370 405 950 740 Anzahl der Fachbegriffe DGS-Übersetzungen Stimuli: • Wörter • Abbildungen Informanten (erhoben) Informanten (transkribiert) Rohdaten (Std.) • Interviews • vorstrukt. Gespräche • Abfrage (Fachbegriffe) Vorkommen (Token) • gesamt • produktiver Gebärden Konventionelle Gebärden (Types) 2004-2007 2006-2010 Tabelle 2: Fachgebärdenlexika und zugehörige Korpora in Zahlen Das methodische Vorgehen, beginnend mit der Datenerhebung über die Sichtung, Transkription, Auswahl der DGS-Übersetzungen bis hin zur Analyse und Beschreibung der Einzelgebärden wird im Folgenden näher erläutert. Dabei wird die fortschreitende Entwicklung der Methoden der Datenerhebung, -dokumentation und -auswertung im Laufe der verschiedenen Projekte mit berücksichtigt. Datenerhebung 4 14 Datenerhebung Zu Beginn der Datenerhebung steht die Suche nach geeigneten Informanten, die sowohl fach- als auch DGS-kompetent sind. Um möglichst verschiedene regionale Gebärden zu erheben, sollten Informanten aus dem gesamten Bundesgebiet gefunden werden. Die folgende Tabelle gibt einen Überblick über die Zusammensetzung der Informanten in den einzelnen Projekten, deren Antworten im jeweiligen Korpus berücksichtigt wurden.14 Projekt Zahl der Informanten (transkribiert) Herkunft prälingual post- schwer- hörend Eltern Eltern Eltern (Zahl der ertaubt lingual hörig (CODA) gehör- hörend gehörlos u. Bundes- (0-1;6 J.) ertaubt los hörend/ länder) (> 6 J.) schwerhörig PLex 5 3 4 1 2 2 1 (g+h) TLex 10 7 7 3 1 8 1 (g+sh) HLex 11 8 8 3 3 8 SLex 10 6 9 3 6 GLex 10 5 6 2 8 GaLex 11 7 11 1 9 1 1 2 1 1 1 (g+sh) 1 (g+h) Tabelle 3: Sozialer und sprachlicher Hintergrund der Informanten Für das PLex konnten lediglich fünf Informanten für die Erhebung gewonnen werden, was in erster Linie daran lag, dass es zum damaligen Zeitpunkt noch sehr wenige Gehörlose gab, die eine entsprechende akademische Ausbildung oder einschlägige Berufserfahrung hatten. Hinzu kam, dass zwei Gehörlose, die das Studium der Psychologie begonnen hatten, selbst Mitarbeiter des Projekts waren und daher als Informanten nicht zur Verfügung standen. Ihre Gebärden und Übersetzungsvorschläge wurden jedoch bei der Auswahl mit berücksichtigt. Für die darauf folgenden Projekte konnten über Anzeigen (Deutsche Gehörlosenzeitung, Das Zeichen, lokale Gehörlosenzeitungen), mithilfe der Unterstützung durch den Deutschen Gehörlosenbund und die Landesverbände der Gehörlosen sowie durch persönliche Kontakte gehörlose Fachleute gefunden werden, die bereit waren, sich für die Erhebung zur Verfügung zu stellen. Pro Projekt wurden 25-35 Personen angefragt und auf der Grundlage eines Fragebogens eingeschätzt. Da einige Personen aufgrund ihrer Fach- oder DGS-Kenntnis nicht geeignet waren und andere nicht zur Datenerhebung nach Hamburg kommen wollten oder konnten, kam bei jedem Projekt eine Zahl zwischen 11 und 18 Informanten zustande, die in Anbetracht der begrenzten Zeit auch nicht überschritten werden konnte. Innerhalb von zweieinhalb bis drei Jahren pro Projekt konnten die Antworten von 10-11 Personen transkribiert werden. Das PLex war das erste Projekt, bei dem die DGS-Übersetzungen der Fachbegriffe auf Grundlage eines eigens dafür erhobenen Korpus ausgewählt wurden. Der Schwerpunkt 14 Detaillierte Angaben zum sozialen und sprachlichen Hintergrund der Informanten finden sich in den verschiedenen Lexika jeweils im Vorwort (s. PLex, TLex) oder in den Begleittexten (HLex: „Transkription und Analyse“, SLex und GLex: „Hintergrundinformationen“), in denen das methodische Vorgehen beschrieben wird. Datenerhebung 15 lag daher auf der Datenerhebung. Für die Vorbereitung und Durchführung der Interviews wurden die Erkenntnisse der empirischen Sozialforschung zugrunde gelegt (s. Scherer 1974, Schnell et al. 1993). Die gehörlosen Interviewer wurden vor Beginn der Erhebung geschult und führten Probeinterviews durch. Um in relativ kurzer Zeit für alle Fachbegriffe Übersetzungen zu erheben, war die Elizitation möglichst spontaner Übersetzungen erforderlich. Als Stimulus konnten lediglich die geschriebenen Fachwörter gezeigt werden, da sich die ausgewählten Begriffe fast ausschließlich auf abstrakte Inhalte beziehen, die sich nicht bzw. nicht eindeutig durch eine Illustration darstellen lassen. Aus den folgenden Ausführungen wird deutlich, dass das Erhebungssetting und die Vorgehensweise fortlaufend verbessert wurden, um eine möglichst umfassende Dokumentation zu gewährleisten. Denn nur so ist eine zuverlässige Auswertung und Interpretation der Daten möglich. Die Erhebung wurde bis auf eine Ausnahme im Rahmen des PLex’ am IDGS in Hamburg durchgeführt und dauerte eineinhalb bis zwei Tage. Die Informanten wurden in der Regel einzeln eingeladen, in einigen Fällen war es möglich, zwei Erhebungen parallel durchzuführen, d.h. die Informanten wurden getrennt interviewt. Dadurch wurde sichergestellt, dass sich die Informanten nicht gegenseitig beeinflussen und Gebärden des anderen übernehmen können. Von diesem Verfahren wurde im GaLex abgewichen, bei dem acht Informanten mit Ausnahme des standardisierten Interviews paarweise interviewt wurden. Die Gründe für diese Entscheidung lagen nicht in dem geringeren Zeitaufwand, sondern in dem vielfach geäußerten Wunsch der Informanten, sich mit anderen Fachleuten über die Inhalte der Fachbegriffe auszutauschen, sowie in der Möglichkeit für uns, Erfahrungen mit Gruppenerhebungen zu sammeln. Den Informanten wurden Fahrt- und Übernachtungskosten erstattet und sie erhielten eine Aufwandsentschädigung. Sie erklärten sich schriftlich damit einverstanden, dass ihre Aufnahmen für die Erstellung des Fachgebärdenlexikons und zu wissenschaftlichen Zwecken genutzt werden können. 4.1 Setting Beim PLex wurden Interview und Gespräch mit zwei Kameras aufgenommen, bei der Elizitation wurde nur der Informant gefilmt. Dies erschwerte jedoch bei manchen Antworten die Einschätzung der gezeigten Gebärde, sodass seit dem SLex sämtliche Erhebungssituationen mit zwei Kameras aufgenommen wurden, um eine vollständige Dokumentation der Interaktion zu erhalten. Die folgende Abbildung zeigt schematisch den Studioaufbau, wie er für die Elizitation der Antworten auf die Fachbegriffe verwendet wurde. Die Kamera, die möglichst frontal auf den Informanten gerichtet ist, zeichnet dessen Äußerungen sowie die auf Datenerhebung 16 dem Monitor neben ihm gezeigten Stimuli auf. Diese Stimuli sieht der Informant auf einem Monitor, der neben dem Interviewer aufgestellt ist, sodass der Informant möglichst wenig hin- und herschauen muss. Der seit dem SLex eingesetzte Protokollant, der i. d. R. nichts zum Ablauf des Interviews beiträgt, wird nicht aufgezeichnet. Abb. 2: Studiosetting Seit dem TLex wurden die Kamerabilder von Interviewer und Informant in einem Mischer zusammengesetzt und als ein Videobild auf einer Kassette aufgezeichnet. Da dabei jedoch die digitalen Daten der DV-Kamera in analoge Signale umgewandelt werden, kommt es zu einem Datenverlust. Beim GaLex wurde daher das Zusammensetzen der Bilder von zwei bzw. drei Kameras (2 Informanten, 1 Interviewer) am Rechner mithilfe des Videoschnitt-Programms FinalCut vorgenommen. Die Erhebungen für das PLex und TLex wurden noch mit VHS-Kameras in Arbeitsräumen des IDGS durchgeführt. Dabei wurde bewusst auf eine optimale Ausleuchtung, wie sie im Videostudio möglich gewesen wäre, verzichtet, um die für die Informanten ungewohnte Erhebungssituation nicht noch stärker zu verfremden. Seit dem HLex wurden lichtempfindlichere DV-Kameras eingesetzt, sodass die für die Auswertung erstellten digitalen Videofilme eine bessere Qualität hatten als die VHS-Kopien. 4.2 Erhebungsarten Die Erhebung bestand aus einem standardisierten Interview, einem vorstrukturierten Gespräch15 und einem Elizitationsteil. Sie wurde ausschließlich von den gehörlosen Projektmitarbeitern durchgeführt, die die Informanten betreuten und sie zu Beginn in die Ziele des Projekts sowie den Ablauf der Erhebung einführten. Zum Schluss führten 15 Diese vorstrukturierten Gespräche sind entsprechend der Einteilung der Methoden in den empirischen Sozialwissenschaften (s. z.B. Laatz 1993) ebenfalls eine Form des Interviews. Um die beiden Erhebungsformen klar voneinander abzugrenzen, hat sich in der praktischen Arbeit die Sprachregelung bewährt, zwischen Interview (standardisiertes Interview anhand eines Fragebogens zur sozialen und sprachlichen Situation) und Gespräch (moderiertes Interview anhand vorbereiteter Fragen) zu unterscheiden. Datenerhebung 17 die Interviewer mit den Informanten ein Abschlussgespräch über den Verlauf der Erhebung und notierten Besonderheiten sowie subjektive Eindrücke in einem Protokoll. 4.2.1 Standardisiertes Interview Die Fach- und DGS-Kompetenz der fünf Informanten beim PLex war den gehörlosen Mitarbeitern bekannt, bei den anderen Projekten wurde den Informanten ein Fragebogen zugeschickt mit Fragen zum sozialen und sprachlichen Hintergrund. Diese Fragen wurden zu Beginn der Erhebung in einem standardisierten Interview wiederholt, da es sich herausstellte, dass durch die direkte mündliche Befragung Missverständnisse, die sich u.a. durch die Verwendung des Schriftdeutschen ergaben, beseitigt werden konnten und die Zuverlässigkeit der Angaben dadurch erhöht wurde. Gleichzeitig diente dieses erste Interview zum gegenseitigen Kennenlernen und Aufwärmen. Die Informanten konnten sich an die für sie relativ ungewohnte Umgebung und die Ausstattung des Raums mit Kameras, Computern und Monitoren gewöhnen. 4.2.2 Vorstrukturiertes Gespräch Anschließend wurde ein vorstrukturiertes Gespräch durchgeführt, in dem jeder Informant zu seinen Erfahrungen während und nach der Berufsausbildung sowie zu konkreten Teilaspekten seiner Arbeit befragt wurde. Die Aufgabe des Interviewers war es, das Gespräch in Gang zu halten und den Informanten dazu zu bewegen, möglichst spontan und natürlich über einige Minuten zusammenhängend zu gebärden. Diese Gespräche dienten in erster Linie dazu, die DGS-Kompetenz und den individuellen Gebärdenstil der Informanten einzuschätzen. Im Rahmen der Sichtung (s. Kap. 5) wurden die Gespräche nach DGS-Entsprechungen für Fachbegriffe durchgesehen. Die Gebärden wurden transkribiert und konnten so mit den elizitierten Gebärden verglichen werden. Schon beim PLex konnten ca. 500 Gebärden ermittelt werden, die DGSEntsprechungen von ca. 150 Fachbegriffen sind (16 %). Beim GLex waren es fast 2200 Gebärden, die über 400 Fachbegriffe abdeckten (40 %) und beim GaLex 1070 Gebärden, die 200 Fachbegriffe abdeckten (28 %). Der Vergleich mit den elizitierten Antworten im GLex ergibt eine Übereinstimmung16 von 38 % der Gebärden aus den freien Gesprächen mit Antworten des Informanten aus der Elizitation, im GaLex beträgt die Übereinstimmung 34 %. Berücksichtigt man, dass ein Informant durchschnittlich zwischen 1,5 und 2,8 Antworten gibt (s. Kap. 3), dann ist die Rate der Übereinstimmung relativ hoch. Die Gebärden aus den Gesprächen standen ebenso wie die Antworten für die Auswahl zur Verfügung. 16 Wie bei der Auswertung gleicher Antworten verschiedener Informanten (s. 1.2) wurden als gleiche Antworten alle Gebärden bzw. aneinandergereihte Gebärden gezählt, die dieselbe Zitierform haben, d.h. die Modifikationen einer Gebärde (s. 6.1.1.4) wurden nicht berücksichtigt. Datenerhebung 18 Die Dauer dieser Gespräche reduzierte sich im Laufe der Projekte von über zwei Stunden (Plex) auf durchschnittlich ca. 30 min., da es sich herausstellte, dass längere Gespräche nicht ergiebiger hinsichtlich der Ausbeute an gebärdensprachlichen Entsprechungen waren und für die Einschätzung des Gebärdenstils des Informanten einige zusammenhängende Textpassagen ausreichten. 4.2.3 Elizitierte Antworten Der dritte, längste und aufwändigste Teil der Erhebung stellte die Elizitation möglichst spontaner Antworten auf die gezeigten Fachbegriffe dar. Um die Abfrage den Fach- und DGS-Kenntnissen der Informanten anzupassen, wurde den Informanten einige Monate vor der Erhebung eine vorläufige Begriffsliste zugeschickt mit der Bitte, diejenigen Begriffe zu kennzeichnen, die sie nicht kennen oder für die sie keine Gebärde haben bzw. nicht wissen, wie diese in DGS übersetzt werden könnten. Fachbegriffe, die ein Informant als unbekannt angekreuzt hatte bzw. für die er keine DGS-Übersetzung wusste, wurden nicht abgefragt. Bei den Erhebungen für die Fachgebärdenlexika Tischler/Schreiner (TLex), Hauswirtschaft (HLex) sowie Gärtnerei und Landschaftsbau (GaLex) haben wir auf dieses Verfahren verzichtet, da wir davon ausgingen, dass die Informanten mit der Bearbeitung der Begriffsliste überfordert sein würden. Zum einen haben die Informanten keine akademische Ausbildung absolviert und daher eine relativ geringe Schriftkompetenz (s. ➚ 2.4.2), zum anderen werden viele Fachbegriffe, die z.B. in einem Lehrbuch stehen und für die Ausbildung relevant sind, in der Alltagskommunikation anders oder überhaupt nicht verwendet. Bei diesen Erhebungen, wie auch beim GLex, konnten jedoch zusätzlich zu den Fachbegriffen Abbildungen als Stimuli gezeigt werden, da sich viele Begriffe auf konkrete Gegenstände bezogen. Beim TLex wurden zu 550 von 900 Begriffen Bilder gezeigt. Bei diesen Begriffen wurde dem Informanten zuerst die Abbildung gezeigt, nach einigen Sekunden wurde der Begriff als Untertitel dazu eingeblendet. Die Personen sollten auf die Abbildung möglichst spontan mit einer Gebärde antworten, konnten aber auch abwarten, bis der Begriff eingeblendet wurde. Ebenso konnten sie eine spontan gezeigte Gebärde korrigieren. Viele Informanten bevorzugten es abzuwarten, bis Bild und Wort gezeigt wurden, um sicher zu gehen, dass sie den richtigen Begriff erkannt haben. Als Konsequenz aus dieser Erfahrung wurden beim HLex 340 Bilder getrennt von den Begriffen gezeigt, um zu testen, ob es einen signifikanten Unterschied zwischen den Antworten auf die Bilder und den Antworten auf die Fachbegriffe gibt. Eine Auswertung der Erhebungsmethoden im HLex im Rahmen einer Magisterarbeit (Popist 2002) ergab, dass die standardisierten Verfahren der Text- und Bildabfrage nicht dem Bedürfnis der Informanten nach Kommunikation Rechnung trugen und im Nachhinein die Beurteilung einer Antwort oft erschwerten. Die in der Nacherhebung gezielt Datenerhebung 19 eingesetzte Kommunikation zwischen Informant und Interviewer trug dazu bei, Verständnisschwierigkeiten auszuräumen, dem Interviewten ein positives Feedback zu geben und die Qualität der Antworten zu sichern. Die starke Ausrichtung Gehörloser auf die lebendige, direkte Face-to-face-Kommunikation, die genügend Kontextualisierungsmittel bietet für eine sichere Verständigung, spiegelt sich hierin wieder (s. ➚ 2.4.2). Dem Ergebnis wurde durch eine Veränderung der Vorgehensweise bei der Elizitation im Folgeprojekt Rechnung getragen (s. u.). Weiterhin stellt Popist fest, dass die Anzahl der produktiven Gebärden (s. Kap. 6.1.1.2) bei zwei der drei in der Untersuchung berücksichtigten Informanten nicht abhängig von der Art des Stimulus waren, d.h. sowohl bei der Text- als auch bei der Bildabfrage blieb der Anteil der produktiven Gebärden konstant bei 9-13 % aller Gebärden. Beim dritten Informanten konnte ein signifikant höherer Wert der produktiven Gebärden (20 %) bei der Verwendung von Abbildungen als Stimuli im Unterschied zur Verwendung der Fachbegriffe (5 %) festgestellt werden. Beim GLex wurden 190 Bilder und Begriffe gleichzeitig gezeigt. Beim GaLex wurden zusätzlich zu den einzelnen Begriffen Übersichten gezeigt, und zwar getrennt nach Bildern und Begriffen. Eine Übersicht enthielt entweder Bilder für inhaltlich zusammengehörige Begriffe oder verschiedene Fachbegriffe. Anschließend wurden die einzelnen Fachbegriffe gezeigt und auf Wunsch die passende Abbildung dazu. Die Reihenfolge der Begriffe war nach Sachgruppen gegliedert, innerhalb der Sachgruppen alphabetisch. Die Sachgruppe wurde jeweils zuerst gezeigt, um den Informanten eine Orientierung zu geben, welche Fachbegriffe im Folgenden gezeigt werden. Bei den Erhebungen zum PLex, TLex und HLex wurden die Begriffe bzw. Abbildungen hintereinander weg gezeigt, beim PLex noch als DIN-A4-große Ausdrucke, ab dem TLex auf einem Monitor. Mithilfe einer FileMaker-Datenbank konnten die Begriffe und Abbildungen leicht sortiert sowie die Reihenfolge und das Layout festgelegt werden. Ebenso wurden die Ergebnisse der Auswertung der Fragebögen zu den Fachbegriffen in dieser Datenbank mit einbezogen, sodass im SLex und GLex mithilfe der Suchfunktion individuelle Listen für jeden Informanten erstellt werden konnten. Beim PLex wurden die ausgedruckten DIN A-4-Seiten für jeden Informanten neu zusammengestellt. Während der Abfrage konnte der Interviewer auf verschiedene Sichten umstellen, z.B. um die zum Begriff gehörende Abbildung oder Synonyme zu zeigen. Ebenso war es möglich, Begriffe zu markieren, die der Informant im ersten Durchlauf verschoben hatte, um sie am Ende der Erhebung aufzurufen und nochmals zu präsentieren. Die Aufgabe, möglichst spontan zu dem gezeigten Fachbegriff bzw. der Abbildung eine Gebärde zu zeigen, wurde von den Informanten sehr unterschiedlich gelöst. Während einige Informanten recht sicher mit der für sie ungewohnten Situation umgehen konnten und entweder Gebärden zeigten oder Begriffe ausließen, für die sie keine Gebärden Datenerhebung 20 wussten, gaben andere Informanten dem Druck der sozialen Erwünschtheit nach und bemühten sich, möglichst für jeden Begriff eine Gebärden zu zeigen. Die ursprüngliche Aufgabenstellung, nur die Gebärden zu zeigen, die sie tatsächlich zur Übersetzung des Fachbegriffs bzw. seines Inhalts in der DGS verwenden bzw. andere Gebärden als Vorschläge oder mögliche Übersetzungen zu kennzeichnen, geriet dabei aus dem Blickfeld. Im Laufe der Erhebung, z.B. in den Pausengesprächen mit den gehörlosen Projektmitarbeitern, die die Erhebung durchführten, merkten einige Informanten an, dass sie einige von ihnen gezeigten Übersetzungen im Nachhinein als unpassend oder nicht DGStypisch einstufen würden. Mit dem Ziel, die Erhebungsmethode zu verbessern, wurde von den gehörlosen Mitarbeitern bei drei Informanten des HLex’ eine nicht standardisierte Nacherhebung durchgeführt, bei der die Bedeutung jedes Begriffs vorher besprochen wurde, bevor die Informantin sich für eine Übersetzung entschied. Dieses größere Kommunikationsangebot war der entscheidende Faktor für eine höhere Quote gültiger Antworten. Als Konsequenz aus diesen Erfahrungen wurde seit dem SLex die Vorgehensweise geändert: Innerhalb der Sachgruppen wurden die Begriffe nicht mehr alphabetisch sortiert, sondern in kleine thematische Gruppen von fünf bis sieben Fachbegriffen eingeteilt. Diese Gruppen wurden in zwei Durchgängen gezeigt. Beim ersten Durchgang sollte der Informant überlegen, ob er den Begriff kennt und wie er ihn in DGS gebärdet. Er wurde ermuntert, „laut“ nachzudenken, d.h. er sollte dabei gebärden und konnte nachfragen. Der Interviewer hatte jedoch nicht die Aufgabe, den Begriff zu erklären. Unbekannte oder schwierige Begriffe sollten ausgelassen oder konnten auf das Ende der Erhebung verschoben werden. Beim zweiten Durchgang sollte der Informant, wenn er sich für eine oder mehrere Gebärden entschieden hatte, diese wiederholen. Der Informant konnte auch Vorschläge machen, wie der Begriff am besten in DGS übersetzt werden könnte. Aufgabe des Interviewers war es, auf eine mögliche Überforderung des Informanten zu reagieren und entsprechend das Abfragetempo an den Informanten und die Situation anzupassen. Da der Interviewer jedoch auch bei unklaren Antworten, bei verschiedenen Gebärden im ersten und zweiten Durchlauf oder bei Unsicherheit des Informanten nachfragen sollte, damit später in der Sichtung die Antwort eindeutig eingeschätzt und interpretiert werden konnte, war er zum Teil selbst überfordert. Daher wurde seit dem SLex die Elizitation mit einem zusätzlichen Protokollanten durchgeführt, der selbst nicht mit der Kamera aufgezeichnet wurde. Der Protokollant sollte sich Notizen zum Verlauf der Abfrage machen und die Aufgabe des Nachfragens übernehmen, sodass sich der Interviewer ganz auf den Informanten und die Situation konzentrieren konnte. Diese Notizen wurden später beim Sichten der Antworten mit berücksichtigt. Datenerhebung 21 4.3 Dokumentation und Aufbereitung der Daten Die wichtigste Aufgabe nach der Datenerhebung ist die Dokumentation der Rohdaten. Dazu gehört einerseits die Datensicherung, andererseits die Beschreibung der Daten und deren Zustandekommen durch ausreichende Metadaten. Mit der Aufbereitung der Daten ist hier zunächst nur die technische Aufbereitung gemeint, d.h. die Bereitstellung der Daten in einem geeigneten Format, in dem sie weiter verarbeitet werden können, nicht die inhaltliche, die durch Sichtung, Transkription und Annotation geleistet wird. Zur Datensicherung werden Kopien der Rohdaten gemacht, um gegen einen Verlust der Daten oder deren Beschädigung abgesichert zu sein. Nach den Empfehlungen der DFG zur „Sicherung guter wissenschaftlicher Praxis“ (Deutsche Forschungsgemeinschaft 1998) sollen „Primärdaten17 als Grundlagen für Veröffentlichungen […] auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, für zehn Jahre aufbewahrt werden“ (Empfehlung 7: Datenhaltung, S. 7). Neben der Datensicherung sollte jedoch auch für die Nachhaltigkeit der Daten gesorgt werden (vgl. Dipper et al. 2006). Das Anfertigen von Arbeitskopien ist auch erforderlich, um mehreren Mitarbeitern die Daten zur weiteren Bearbeitung zur Verfügung zu stellen, oder, falls kein zentraler Datenbankserver zur Verfügung steht, parallel und dezentral zu arbeiten. Liegen die Rohdaten bereits digital vor, so müssen diese in ein computerlesbares Format umformatiert und komprimiert werden. Der Vorteil digital gespeicherter Rohdaten liegt darin, dass es beim Kopieren zu keinem Qualitätsverlust kommt. Die Rohdaten können dazu verwendet werden, zu einem späteren Zeitpunkt mit verbesserter Sortware hochwertigere Arbeitskopien zu erstellen. Von den VHS-Kassetten aus den ersten beiden Projekten wurden Arbeitskopien erstellt, die Originale dienten nur dazu, eine Kopie herzustellen. Um die Nachhaltigkeit der Daten zu gewährleisten, sind mittlerweile alle VHS-Kassetten auch als digitale Videofilme auf einem zentralen Datenbankserver archiviert. Die DV-Kassetten, die seit dem HLex verwendet wurden, wurden auf den Rechner überspielt, die Daten umformatiert, in der Größe 320x240 dpi als QuickTime-Filme komprimiert und auf einem Server gespeichert, auf den die zentrale Datenbank zugreift. Zusätzlich wurden, für den Fall, dass der Server ausfallen sollte, DVD-ROMs erstellt. Weiterhin wurden zusätzliche Kopien in der Größe 640x480 dpi erstellt, um z.B. das Ablesewort leichter abzulesen zu können. Auf dieses größere Format musste jedoch nur sehr selten zurückgegriffen werden. Seit dem SLex wurden die Aufnahmen direkt auf dem Rechner gespeichert. Zur Sicherheit und um ein Master zu haben, das eventuell später unter Verwendung neuester Technik besser komprimiert werden kann, wurden die Aufnahmen zusätzlich auf DV-Kassetten aufgezeichnet. Da beim GaLex auch zwei Informanten gleichzeitig 17 In der in dieser Arbeit verwendeten Terminologie sind damit die Rohdaten gemeint (vgl. ➚ 3.3). Datenerhebung 22 aufgenommen wurden, musste die Bildgröße dieser digitalen Videofilme auf 480 x 270 dpi erweitert werden. Die standardisierten Interviews wurden mit den Fragebögen verglichen, die uns die Informanten zugeschickt hatten und ergänzt oder korrigiert. Die Informationen wurden in einer separaten Datenbank festgehalten. Inzwischen sind diese Metadaten zum sozialen und sprachlichen Hintergrund der Informanten, gemäß IMDI-Standard (s. IMDI 2003, Crasborn/Hanke 2003), aus allen Lexikonprojekten auch als Metadaten zu den Informanten in der zentralen Datenbank iLex (s. ➚ 3.8.4) abrufbar. Informationen zum Ablauf der Erhebung liegen in Form von Abschlussgesprächen mit den Informanten sowie als kurze schriftliche Gedächtnisprotokolle, die die Interviewer nach Abschluss der Erhebung anfertigten, vor. Zum Elizitationsteil gibt es weiterhin seit dem SLex Notizen, die der Protokollant während der Erhebung anfertigte und die bei der Sichtung mit berücksichtigt wurden. Segmentierung und Sichtung 5 23 Segmentierung und Sichtung An die Dokumentation und technische Aufbereitung der Daten schließen sich zwei Bearbeitungsschritte an, die unterschiedlichen Zielen dienen. Das Ziel der Segmentierung ist die inhaltliche Erschließung der Rohdaten. Dadurch wird ein gezielter Zugriff auf inhaltlich relevante Stellen ermöglicht. Mittelberg (2007:231), die allgemeine methodologische Überlegungen und praktische Konsequenzen im Umgang mit empirischen multimodalen Daten beschreibt, nennt diesen Schritt „data screening“: For purposes of documentation, it is useful to keep a tape content log with information about what each tape contains and other aspects one deems important. Such a log differs from a transcript in that its primary function is to provide a table of contents for each tape, indicating where (using time stamps) specific episodes can be found and whether/why they are of interest. Man kann diesen Bearbeitungsschritt insofern als Teil der Dokumentation sehen, als er nicht nur eine Vorarbeit für die eigene weitere Bearbeitung darstellt, sondern auch langfristig für andere Forscher einen schnellen inhaltlichen Überblick über das erhobene Material bietet. Im Unterschied zur anschließenden Sichtung findet noch keine Wertung i. S. v. „geeignet“ oder „ungeeignet“ für die Untersuchungsziele statt. Der Ausdruck ‚screening‘ beinhaltet jedoch in der Regel eine Bewertung i. S. v. „aussortieren“, „filtern“, „sieben“. Insofern halte ich den Ausdruck ‚Segmentierung‘ für passender, da das erhobene Material durch die Aufteilung in einzelne Videofilme oder durch Annotation in inhaltliche Abschnitte gegliedert wird. Das Ziel der Sichtung ist es, die Menge der Rohdaten zu reduzieren auf diejenigen Sequenzen, die transkribiert bzw. genauer analysiert werden sollen. Dies geschieht durch eine Bewertung im o.g. Sinne. Mittelberg (2007:231) spricht von „assessing“ im Unterschied zum „screening“ und meint die gezielte Auswahl der für das Untersuchungsziel geeigneten Filmsequenzen. Durch die Sichtung wird das Korpus im engeren Sinne bestimmt als die Menge der aus den Rohdaten ausgewählten Sequenzen, die weiter transkribiert und analysiert werden. Da es sich bei den vorstrukturierten Gesprächen und den elizitierten Antworten um zwei unterschiedliche Erhebungsarten handelt, die zu verschiedenen Textsorten führen, wurden diese Bearbeitungsschritte jeweils unterschiedlich ausgeführt. 5.1 Vorstrukturierte Gespräche Zu den vorstrukturierten Gesprächen wurde eine Makrostruktur erstellt, d.h. der Inhalt der Gespräche wurde in Stichworten wiedergegeben oder zusammengefasst. Ziel dieser inhaltlichen Wiedergabe der Gespräche ist zum einen, dass man sich schnell einen Überblick verschaffen kann, worum es in diesen Gesprächen geht. Dazu können diese Segmentierung und Sichtung 24 Beschreibungen entweder vollständig durchgelesen oder selektiv nach bestimmten Stichworten durchsucht werden. Zum anderen geben diese Verschriftlichungen Anhaltspunkte für Textstellen, in denen es um fachspezifische Inhalte geht. Diese Stellen sind besonders interessant für die Suche nach DGS-Entsprechungen von Fachbegriffen. Beim PLex wurden die Gespräche von Dolmetschern vollständig ins Deutsche übersetzt18, verschriftlicht und mithilfe von syncWRITER (Hanke 2001) mit den entsprechenden Videosequenzen verbunden. Diese Übersetzungen wurden von den gehörlosen Mitarbeitern auf mögliche DGS-Entsprechungen von Fachbegriffen durchgesehen. Die deutschen Texte waren für diesen Bearbeitungsschritt jedoch nicht zuverlässig genug, sodass die Gehörlosen dazu übergingen, die Filme vollständig durchzusehen. In den folgenden Projekten wurde der Inhalt der Gespräche in Form einer Makrostruktur außerhalb der Datenbank erfasst. Dazu wurden die Äußerungen der Informanten in einem relativ groben Zeitraster von ein bis zwei Minuten zusammengefasst oder stichwortartig wiedergegeben. Die Fragen des Interviewers wurden möglichst vollständig wiedergegeben, d.h. ins Deutsche übersetzt. Diese Angaben wurden von den gehörlosen Projektmitarbeitern erstellt und von hörenden Mitarbeitern überarbeitet. Durch die Weiterentwicklung der Datenbank und die Einführung von Transkripten (s. ➚ 3.8.4) wurden diese Angaben ab dem GLex direkt in der Datenbank vorgenommen. Die Übersetzung bzw. die Makrostruktur gaben einen ersten Anhaltspunkt für Textstellen, in den DGS-Entsprechungen der gesuchten Fachbegriffe vorkamen. Die Sichtung bestand darin, die Gespräche auf diese Stellen hin durchzusehen und die dazugehörigen Fachbegriffe zu annotieren. Dadurch war ein gezielter Zugriff auf diese Sequenzen möglich. Die Transkripte wurden um mehrere Spuren für Fachbegriff, Glosse, Ablesewort etc. erweitert, die Fundstellen wurden transkribiert. Im PLex wurden die Fachbegriffe mithilfe von syncWriter annotiert und (zeit-)aligniert. Die Gebärdensequenzen wurden jedoch noch nicht transkribiert, sondern nur bei Bedarf zur Absicherung der Auswahl der Gebärden herangezogen. In den drei darauffolgenden Projekten (TLex, HLex, SLex) wurde aus Zeitgründen und wegen unterschiedlicher Schwerpunktsetzung in der Bearbeitung – beim TLex stand die Transkription der elizitierten Antworten im Vordergrund, beim HLex methodische Fragen der Datenerhebung (s. Kap. 4.2.3), beim SLex die Übersetzungen der Begriffserklärungen in die DGS – keine Sichtung der Gespräche vorgenommen. Sie dienten zum einen zur Sichtung der Informanten, da aus Zeitgründen nicht die elizitierten Antworten aller Informanten transkribiert werden konnten (s. Kap. 5.2), zum anderen zur stilistischen bzw. dialektalen Einordnung der von einem Informanten gezeigten Gebärden. 18 Es handelt sich hierbei, ähnlich wie bei Heßmann (2001a:23-25), um auf ein Diktiergerät gesprochene Live-Übersetzungen, d.h. Verdolmetschungen, die nicht in einem zweiten Durchgang redigiert wurden. Segmentierung und Sichtung 5.2 25 Elizitierte Antworten Durch die Methode der Elizitation war der Inhalt der Äußerung der Informanten schon vorgegeben. In der Regel bestand die Antwort in einer isolierten Gebärde oder Gebärdenfolge als DGS-Entsprechung oder -Übersetzung des Fachbegriffs. Der Äußerungskontext war durch den Stimulus bestimmt. Erst seit dem geänderten Verfahren im SLex, in dem die Abfrage in zwei Phasen, einen Diskussions- und einen Wiederholungsteil, vorgenommen wurde, kam es auch zu längeren Äußerungssequenzen, in denen gleiche, ähnliche oder verschiedene DGS-Entsprechungen des Fachbegriffs vorkamen und diskutiert wurden. Die Segmentierung bestand darin, sämtliche Entsprechungen zu „schneiden“, d.h. zu der Sequenz den jeweiligen Fachbegriff zu annotieren. Im PLex wurde diese Aufgabe noch durch die Erstellung eines Schnittbands erledigt, d.h. mithilfe eines Videoschnitts wurden sämtliche Antworten der Informanten zum jeweiligen Fachbegriff, der als Titel eingeblendet wurde, geschnitten. Eine Sichtung wurde nicht vorgenommen. Für die Auswahl geeigneter Übersetzungen wurden alle Antworten berücksichtigt. Dies war bei der geringen Anzahl der Informanten (5) und einer maximalen Anzahl von 22 Antworten für einen Begriff auch noch zu bewerkstelligen. Durch die fehlende Transkription vor der Auswahl war ein Vergleich der Antworten auf der Grundlage der Glossierung nicht möglich. Beim TLex verdreifachte sich die Zahl der Informanten (insgesamt 16), die Länge der Aufnahmen für die Abfrage der Fachbegriffe erhöhte sich auf das 4,5-Fache. Zur Unterstützung der Transkription gab es zwar schon eine Datenbank (GlossLexer 1; s. ➚ 3.8.4), die Filme waren jedoch noch nicht digitalisiert und mit dieser Datenbank verknüpft. Der Zugriff auf die Rohdaten war, im Unterschied zum HLex, nur über das Ansteuern des Timecodes mit einem Videorekorder möglich. Um in der zur Verfügung stehenden Zeit die Transkription bewältigen zu können, wurde eine Sichtung der Informanten vorgenommen auf der Grundlage der vorstrukturierten Gespräche. Diese wurden dahingehend ausgewertet, ob die Person spontan und natürlich gebärdet, häufig oder selten Ablesewörter oder Mundgestik verwendet, wie sie den Gebärdenraum nutzt, wie sie den Körper beim Gebärden einsetzt und ob DGS-Entsprechungen für Fachbegriffe darin vorkommen. Anhand dieser Auswertung wurde eine Prioritätenliste erstellt. Die Antworten von zehn der 16 Informanten wurden transkribiert. Zuvor wurde eine Segmentierung vorgenommen, indem zu jeder Sequenz, die als Antwort auf einen Stimulus gewertet wurde, sowohl der Stimulus- als auch der Antwort-Begriff annotiert wurden. Die Unterscheidung in Stimulus- und Antwortbegriff war wichtig, da in einigen Fällen die gezeigten Gebärden zu einem anderen als dem Stimulus-Begriff passten. Für die Auswahl konnten so alle passenden Antworten zu einem Begriff aufgelistet werden. Um das Vorgehen effektiver zu machen, wurden beim HLex nicht nur die Informanten in der beschriebenen Weise gesichtet, sondern auch die einzelnen Antworten. Die Segmentierung und Sichtung 26 gehörlosen Mitarbeiter bewerteten die Angemessenheit der Antwort und annotierten dies entsprechend in der Datenbank als „ok“ oder „schief“. Fälle, in denen eine „Beurteilung unsicher“ war, wurden gemeinsam besprochen und entweder als angemessen oder unangemessen entschieden. Zusätzlich wurde notiert, wenn der Informant bei seiner Antwort unsicher war. Unangemessene Antworten (850 von insgesamt 12500) wurden nicht transkribiert. Abb. 3: Auswahl der Angemessenheit der Antwort Beim SLex wurde die Sichtung um zwei Kriterien erweitert: Zum einen sollte genauer dokumentiert werden, wie der Informant selbst seine Antwort hinsichtlich der Angemessenheit bewertet bzw. einschätzt (Selbsteinschätzung), zum anderen wurde diese Einschätzung ergänzt durch die Bewertung des Transkribenten (Fremdeinschätzung). Die Werte für die Selbsteinschätzung waren: o.k., Vorschlag, selten/nie verwendet, nicht zufrieden. Sie wurden in den nachfolgenden Projekten überarbeitet und erweitert zu folgender Werteliste: Korrektur, unbekannt, nicht zufrieden, unbekannt (Bedeutung), nie verwendet, unbekannt (Gebärde), selten verwendet, verschoben (später), später korrigiert, Vorschlag, später Teilkorrektur, Vorschlag, nicht zufrieden. Teilkorrektur, Die Werte für die Fremdeinschätzung waren: o.k., durch Erhebungssituation beeinflusst, Vorschlag. Diese Angaben wurden ebenso überarbeitet und ergänzt, sodass der Transkribent bei der Sichtung der Filme für das GaLex folgende Werte auswählen konnte: nicht DGS-typisch, Umschreibung (Inhalt), situativ bedingte Antwort, Vorschlag. Segmentierung und Sichtung 27 Die Angaben zur Selbsteinschätzung sollten immer anhand der Rohdaten belegbar, d.h. auf dem Video sichtbar sein. Ausnahmen sind Angaben, die vom Protokollanten während der Erhebung gemacht und bei der Sichtung in die Datenbank übertragen wurden. Im Unterschied dazu konnten Angaben zur Fremdeinschätzung auch auf Verdacht hin eingetragen werden. Angaben zur Selbst- und Fremdeinschätzung hatten keine Auswirkungen auf die Frage, ob die Antwort transkribiert werden sollte oder nicht, dazu war allein die Angabe zur Angemessenheit entscheidend. Sie dienten jedoch dazu, einige Antworten von der Rohtranskription auszuschließen und erst anschließend vor dem Hintergrund der bereits transkribierten Antworten der ausgewählten Informanten erneut zu sichten und entweder auszuschließen oder zu transkribieren. Weiterhin waren diese Angaben wichtig für die Auswahl der Gebärden (s. Kap. 7). Im GLex-Projekt wurden die Kriterien der Angemessenheit entsprechend ihrer Funktion umbenannt in Ausschluss-Kriterien, da Antworten, die mit einem dieser Kriterien annotiert wurden, nicht für die Transkription vorgesehen waren. Für die Sichtung der elizitierten Antworten im Projekt Fachgebärdenlexikon Gärtnerei und Landschaftsbau (GaLex; Konrad et al. 2010) wurden diese Kriterien noch erweitert, da zwei Informanten gleichzeitig interviewt wurden. Die Ausschlussgründe sind: abgebrochen, übernimmt/zitiert Gebärde des Beurteilung unsicher, Gegenübers, schief, Vergebärdler, später korrigiert, Wiederholung. Teilantwort, Durch die Segmentierung, d.h. die Zuordnung einer Filmsequenz zu einem Fachbegriff, konnte jedoch per Mausklick jederzeit auf das Rohdatum zugegriffen werden, um z.B. transkribierte und nichttranskribierte Antworten eines oder verschiedener Informanten zu vergleichen. Gleichzeitig wurde durch die geänderte Erhebungsmethode die Segmentierung verfeinert. Die Transkripte wurden in verschiedene Segmente eingeteilt, die den Erhebungskategorien entsprachen. Die verschiedenen Abschnitte der Erhebung wurden im Transkript annotiert als „Diskussion“, „Wiederholung“, „Nachtrag“ und „Korrektur“. Um einen direkten Zugriff auf die gesamte Sequenz zu haben, in der ein Informant sich zu einem gezeigten Stimulus äußert, wurden die Abschnitte weiter in „Thema“-Einheiten unterteilt, die mit dem jeweiligen Fachbegriff annotiert wurden. Innerhalb eines Themas wurden sämtliche Sequenzen annotiert, die sich sinnvoll auf den gezeigten Stimulus oder einen anderen Fachbegriff beziehen lassen. Im Idealfall handelt es sich um eine direkte DGS-Entsprechung, es wurden jedoch auch Umschreibungen sowie Gebärden geschnitten, die sich nur auf Teile des Fachbegriffs beziehen. Diese wurden mit dem Ausschlusskriterium „Teilantwort“ annotiert. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 6 28 Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank Nach Abschluss der Segmentierung sind sämtliche elizitierten Antworten mit dem entsprechenden Fachbegriff annotiert und können per Mausklick direkt aufgerufen werden. Durch die Sichtung wird die Zahl der zu transkribierenden Antworten eingegrenzt auf diejenigen, die keinen Ausschlussgrund haben (s.o.). Diese Antworten machen den größten Teil des Korpus aus. Hinzu kommen noch die Textstellen aus den vorstrukturierten Gesprächen, die als Übersetzungen eines Fachbegriffs identifiziert und mit diesem annotiert wurden. Diese Sequenzen wurden in den beiden letzten Projekten ebenfalls transkribiert (s. Kap. 3, Tab. 2: DGS-Entsprechungen in vorstrukturierten Gesprächen). Nach Abschluss der Sichtung ist die Größe des Korpus definiert. Durch die anschließende Transkription werden erst die maschinenlesbaren Primärdaten erstellt, die zusammen mit den Roh- und Metadaten das linguistische Korpus ausmachen (s. ➚ 3.3). Diese Primärdaten sind die Grundlage jeder korpuslinguistischen Analyse. Die Transkription selbst jedoch beinhaltet bereits eine Analyse, da sie immer theoriegeleitet ist (s. ➚ 3.7.1.2). Wie bei Lautsprachkorpora dient die Verschriftlichung dazu, die lexikalischen Einheiten der Äußerungen zu bestimmen. Bei einer orthographischen Transkription kann über die Wortformen das dazugehörige Lexem bestimmt werden. Da es keine Gebärdenschrift gibt, werden die lexikalischen Einheiten in Gebärdensprachen meistens mithilfe von Glossen identifiziert. Sind die Token mithilfe von Glossen eindeutig einem Type zugeordnet, dann ist damit sowohl die Tokenisierung als auch die Lemmatisierung abgeschlossen. Selbstverständlich müssen auch alle weiteren Gebärden, die nicht lexikalischen Gebärden zugeordnet werden können, konsistent klassifiziert werden. Dieses Vorgehen geht von der Annahme aus, dass es in Gebärdensprachen lexikalische Einheiten, vergleichbar den Wörtern einer Lautsprache, gibt. Sind diese Einheiten, wie es bei der DGS der Fall ist, noch nicht umfassend in einem Gebärdenwörterbuch beschrieben, muss parallel zur Transkription eine lexikalische Datenbank aufgebaut werden, die sowohl die Lexeme als auch alle anderen nichtlexikalischen Einheiten enthält, die in einer gebärdensprachlichen Äußerung vorkommen. Das Ziel ist eine vollständige Beschreibung der Äußerung, die eine quantitative Auswertung sowie einen selektiven Zugriff auf alle Token eines Types bzw. einer anderen sprachlichen Einheit ermöglicht. Während der Transkription wird vom Token ausgehend der passende Type gesucht. Das Token wird bei der Glossentranskription durch die Vergabe einer eindeutigen Glosse diesem Type zugeordnet. Diese Token-Type-Zuordnung wird deshalb Rohtranskription genannt, da die Transkription dadurch noch nicht abgeschlossen ist. Erst durch die Umkehrung der Blickrichtung, nicht vom einzelnen Token innerhalb eines Transkripts zum Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 29 Type, sondern vom Type zu den Token, ist es möglich, die Lemmatisierung zu überprüfen, indem alle Token miteinander verglichen werden können hinsichtlich Form, Bedeutung und Verwendung im Kontext. Diese Überprüfung, für die ich im Rahmen dieser Arbeit die Bezeichnung ‚Lemmarevision‘ (s. Kap. 6.3) einführe und zu der auch die Überprüfung der Umgebung eines Lemmas gehört, ist ein wichtiger Arbeitsschritt, der zur Konsolidierung der Datenbankeinträge sowie der Transkriptionskonventionen führt, in der Literatur jedoch m.W. nicht erwähnt wird. Erst nach Abschluss der Lemmarevision können die Transkripte quantitativ und qualitativ ausgewertet und in weiteren Bearbeitungsschritten morphologisch, syntaktisch oder semantisch annotiert werden. Im Folgenden werden die Rohtranskription, der Aufbau der lexikalischen Datenbank sowie die Lemmarevision näher beschrieben. Insbesondere im Zusammenhang mit den Transkriptionskonventionen wird an verschiedenen Stellen deutlich, dass es für eine lexikologische und lexikographische Beschreibung von Gebärdensprachen nicht ausreicht, die strukturalistische Definition des sprachlichen Zeichens als eine konventionalisierte Form-Bedeutungs-Einheit auf die Gebärden zu übertragen. Die allgegenwärtige ikonische oder metaphorische Motiviertheit von Gebärden sowie der Gebrauch von Ablesewörtern führen zu strukturellen Besonderheiten des gebärdensprachlichen Lexikons, die in der Modellierung angemessen berücksichtigt werden müssen. Diese Aspekte sowie die von uns entwickelten Lösungswege werden in Konrad (in Vorb., Kap. ➚ 4) eingehend beschrieben, weshalb im Folgenden lediglich die Probleme benannt und mit einem Verweis auf das entsprechende Kapitel versehen werden. 6.1 Rohtranskription und Lemmatisierung: vom Token zum Type Im Prinzip gilt für jede Transkription, dass die Form nur so genau notiert werden muss, dass die Gebärde eindeutig identifiziert werden kann. Bei der Glossentranskription wird ein Token als Realisierung eines Types mithilfe der Glosse eindeutig gekennzeichnet. Beim Type, einem Eintrag in der lexikalischen Datenbank, ist die Grundform der Gebärde festgehalten. Die genaue Beschreibung der Form des Tokens ist für die Lemmatisierung im Prinzip nicht erforderlich. Über die alignierten Glossen können die Textstellen im Videofilm gezielt ausgewählt und weiter annotiert werden. Johnston/de Beuzeville (2008:9) weisen auf den Zeitvorteil dieses Verfahrens hin. In wesentlich kürzerer Zeit können dadurch größere Korpora zur Verfügung gestellt werden als bei einer vollständigen Notation jedes Tokens. Thus, despite what many signed language researchers continue to believe, a full written phonetic or phonological transcription of signed texts is no longer essential in order to conduct corpus-based research at various levels of linguistic analysis, even the phonological. Time aligned multi-media gloss-based annotations are adequate for this task because one need not transcribe all signs in their entirety – one Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 30 could append a relevant phonetic or phonological tag for a feature under investigation. Of course, the use of a dedicated transcription tier(s) within ELAN would be necessary in order to carry out detailed phonetic or phonological research. Overall, however, there is little doubt that the use of time gloss-based aligned annotations is superior to transcription-based annotation in terms of the time it takes for a sizable amount of text to be make [sic] available for processing. Wenn parallel zur Transkription bzw. Lemmatisierung eine lexikalische Datenbank aufgebaut werden muss, dann ist es sinnvoll, eine zusätzliche Angabe zur Form des Tokens zu machen, sobald diese von der Grundform abweicht. Diese Formabweichungen dienen bei der Überprüfung der Token-Type-Zuordnung im Zuge der Lemmarevision dazu, die Token zu sortieren und erleichtern eine mögliche Differenzierung in Varianten, Modifikationen oder idiosynkratische Ausführungen. Wie genau diese Formabweichungen notiert werden, sollte in den Transkriptionskonventionen festgelegt sein. Sinnvoll ist es, nur die für eine eventuelle Differenzierung relevanten Formunterschiede zu notieren, d.h. dass alle Merkmale, die helfen, eine Gebärde von einer anderen zu unterscheiden, wichtig sind und notiert werden sollten. Zum Beispiel ist es bei der Gebärde FLACH1A () nicht relevant, ob der Daumen leicht abgespreizt oder angelegt oder wie bei der B-Handform über der Handinnenfläche eingeknickt ist. Diese Varianz ist im Zusammenhang mit dieser Gebärde normal, da die Stellung des Daumens unmarkiert ist, d.h. dass auch bei der Notation der Grundform der Daumen nicht notiert werden muss. Folgende Abbildung zeigt die bezüglich der Stellung des Daumens und der Krümmung der Finger unmarkierten Handformen der Flachhand, der abgewinkelten Flachhand und der gebogenen Flachhand. Abb. 4: Unmarkierte Ausprägungen der Flachhand und ihrer abgeleiteten Handformen Bei der Gebärde TRINKEN2 () wäre eine Ausführung ohne abgespreizten Daumen markiert, die Abweichung müsste notiert werden. Der abgespreizte Daumen gehört zur Grundform der Gebärde TRINKEN2 und ist ikonisch motiviert („Strahl bzw. Bewegungsverlauf der Flüssigkeit“). Bei der Notation der Grundform muss die Stellung des Daumens notiert werden, da der Daumen Teil des der Form zugrunde liegenden Bildes ist. Ohne den abgespreizten Daumen ist das Bild nicht mehr erkennbar. Solch stark abweichende Ausführungen, die das Bild der Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 31 Gebärde nicht mehr erkennen lassen, sind äußerst selten. Nach Cuxac (2000:140-141) kommen solche Fälle nicht vor, da sie dem Prinzip der Beibehaltung der Ikonizität widersprechen (s. ➚ 4.3.3.2). In diesen Fällen ist die Abweichung ein Hinweis auf eine falsch vorgenommene Token-Type-Zuordnung. Im Kontext ist zu prüfen, ob es sich um die Bedeutung „trinken“ handelt oder ob die Gebärde lediglich visualisiert, dass ein Gegenstand festgehalten und wie beim Trinken aus einem Becher vor dem Mund gekippt wird, und es sich um eine produktive Gebärde handelt (s. Kap. 6.1.1.2). Bei der Rohtranskription müssen neben den lexikalischen Gebärden weiterhin alle produktiven Gebärden sowie sonstige gebärdensprachliche Phänomene wie z.B. indexikalische Gebärden, Zahlgebärden oder der Einsatz des Fingeralphabets (s. Kap. 6.1.1.3) anhand festgelegter Transkriptionskonventionen identifiziert und konsistent glossiert werden. Ebenso wie bei der orthographischen Transkription gesprochener Sprache muss der Transkribent die Äußerung segmentieren und lemmatisieren. Bei der orthographischen Transkription notiert er die Wortform, die einen impliziten Hinweis auf das dazugehörige Lemma enthält. Das Lemma wird im Zuge einer anschließenden Lemmatisierung zusätzlich zur Wortform annotiert. Bei der Glossentranskription ist die Reihenfolge der Bearbeitung umgekehrt, da zunächst durch die Glosse das Lemma notiert wird. Anschließend werden nur markierte Formabweichungen beim Token notiert. Dies ist zeitsparender als die vollständige Notation der Form jedes Tokens und erleichtert später die Überprüfung der Einträge in der lexikalischen Datenbank, indem die Token nach diesen Abweichungen sortiert werden können. Der Nachteil dieses Vorgehens ist, dass die Formangabe im Token immer relativ zur Type-Form vorgenommen wird. Änderungen der Grundform einer Gebärde müssen für alle Token nachvollzogen werden. Bei einer vollständigen Notation der Token-Form wäre dies nicht notwendig. 6.1.1 Transkriptionskonventionen So notwendig und vorteilhaft einerseits die Entwicklung eines universalen Notationssystems für Gebärdensprache wäre, so verschieden sind die in der Gebärdensprachforschung eingesetzten Notationen und Konventionen. Darauf hat Miller (2001:25) in seinem Beitrag zum Intersign-Workshop 1998 in Leiden hingewiesen, der in seiner ursprünglichen Fassung noch die Überschrift trug: „Notationists of the world, unite!“19. Mit den Bemühungen, Gebärdensprachkorpora zu erstellen und zugänglich zu machen, geht notwendiger- und sinnvollerweise auch die Dokumentation und Bereitstellung von Transkriptionskonventionen einher, denn ohne die Kodierungskonventionen und die Kriterien, die den Klassifizierungen zugrunde liegen, sind die Primärdaten, d.h. die Transkripte, nicht verwertbar. Das Offenlegen und Zugänglich-Machen der Transkriptionskonventionen fördert weiterhin den Austausch und die Diskussion über Annota19 URL: http://www.sign-lang.uni-hamburg.de/Intersign/Workshop2/Miller/Miller.html. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 32 tionskonventionen. Der am Ende dieses Kapitels gegebene Überblick über einige, zum größten Teil online zugängliche Transkriptionskonventionen (s. Kap. 6.1.1.6) zeigt einerseits, dass gebärdensprachliche Phänomene häufig ähnlich klassifiziert werden, dass jedoch andererseits deren Kodierung sehr verschieden ausfällt. Die Erfahrungen aus dem InterSign-Projekt haben gezeigt, dass die Gebärdensprachlinguistik, speziell der korpuslinguistische Forschungsansatz, noch nicht weit genug entwickelt ist, um einheitliche, standardisierte Transkriptionskonventionen durchzusetzen bzw. Formate zu entwickeln, die die in den jeweiligen Projekten verwendeten Kodierungskonventionen automatisiert und zuverlässig umwandeln in die jeweils eigenen Kodierungen. Dies ist nach wie vor wünschenswert, da dadurch die Vergleichbarkeit von Gebärdensprachdaten erheblich erleichtert werden würde. Um Transkripte gebärdensprachlicher Texte interpretieren und auswerten zu können, müssen jedoch zwei Voraussetzungen erfüllt sein: • Es muss immer ein unmittelbarer Zugriff auf die Rohdaten möglich sein, d.h. die Annotationen müssen aligniert sein. • Die Transkripte müssen lemmatisiert sein, d.h. die darin verwendeten Glossierungen für Lexeme müssen konsistent vorgenommen worden sein. Dies gelingt nur, wenn die Glossen auf der Grundlage eines Gebärdenwörterbuchs, das als Standardreferenz für die jeweilige Gebärdensprache gilt, ausgewählt wurden, oder wenn parallel zur Transkription eine lexikalische Datenbank aufgebaut wurde, die alle Lexeme enthält, die in den Transkripten des Projekts verwendet wurden. Weiterhin sollten alle anderen gebärdensprachlichen Phänomene nach einheitlichen Kriterien in derselben Weise konsistent beschrieben und klassifiziert werden. Abgesehen von den Metadaten, die für eine Vergleichbarkeit von Daten vorhanden sein müssen, ist die Lemmatisierung nach Johnston (2008a:86) der erste und entscheidende Schritt, um überhaupt von einem Korpus sprechen zu können: No claim is being made here that the specific glossing conventions used in the Auslan Corpus should form the basis of a standard for all signed language corpora. Though consistency across signed language corpora in annotation protocols would facilitate cross linguistic comparisons and thus be extremely desirable, the most important considerations in the first instance are the principles of lemmatisation and consistent treatment (glossing) of various sign types. Transkriptionskonventionen (oder Annotationsrichtlinien, engl. annotation guidelines) sind entscheidend für die Qualität der Transkription, da grundsätzlich alle Gebärdenformen nach den gleichen Regeln lemmatisiert und annotiert werden sollen. Änderungen in den Transkriptionskonventionen müssen daher immer bei allen Token nachvollzogen werden. Aufgrund ihrer Bedeutung sollten Transkriptionskonventionen für alle Transkribenten explizit gemacht und zumindest als internes Arbeitspapier20 schriftlich 20 Vgl. z.B. Ebbinghaus/Heßmann (1994b), an denen wir uns ebenso wie an Johnston/Schembri (1996, 1998), zwei damals noch vorläufigen Fassungen von Johnston/Schembri (1999), orientiert haben. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 33 dokumentiert werden. Dies hat den Vorteil, dass Änderungen, die sich in der Transkriptionspraxis nahezu zwangsläufig ergeben, anhand der vereinbarten Konventionen nachvollzogen und systematisch korrigiert werden können. Es ist ebenfalls ratsam, Änderungen in den Konventionen, die sich mit fortschreitender Technik, z.B. durch die Umstellung oder Erweiterung des Transkriptionswerkzeugs und die weitere Verarbeitung und Analyse der Daten ergeben, zu dokumentieren.21 Mit dem Fachgebärdenlexikon Tischler/Schreiner (TLex, 1996-1998) wurde begonnen, die elizitierten Antworten im Sinne einer Lemmatisierung zu transkribieren und, da kein umfassendes DGS-Wörterbuch zur Verfügung stand, eine lexikalische Datenbank aufzubauen. Die wichtigste vortheoretische Annahme, die seit dieser Zeit der Transkription zugrunde liegt, ist die Unterscheidung in konventionelle Gebärden, sogenannte produktive Gebärden und eine Restgruppe, die sich aus sonstigen Zeichen und Zeichensystemen zusammensetzt, die in der DGS eingesetzt werden. Diese Annahme ist ebenso vortheoretisch wie die Annahme, dass die konventionellen Gebärden als die „Wörter“ der jeweiligen Gebärdensprache angesehen werden können (s. ➚ 2.3). Johnston/Schembri (2010:26-28) führen zwei Besonderheiten von Gebärdensprachen an, die die gängige Unterscheidung zwischen lexikalischen und nichtlexikalischen22 Gebärden einerseits notwendig, andererseits problematisch erscheinen lassen: Die sublexikalischen Einheiten – die bekannten, seit Stokoe in der Gebärdensprachforschung etablierten Formparameter Handform, Handstellung, Ausführungsstelle und Bewegung – können selbst wieder Bedeutung tragen, d.h. sie bilden ikonisch motivierte oder konventionalisierte Form-Bedeutungs-Einheiten. Es handelt sich weniger um eine kategorielle, als vielmehr um eine graduelle Unterscheidung zwischen lexikalischen und nichtlexikalischen Gebärden. Anstelle einer Entweder-oder-Entscheidung halten die Autoren es für sinnvoller, die Beschreibung gebärdenspachlicher Einheiten entlang zweier Kontinua mit den Polen atomar – komplex und konkrtet (substantiell) – schematisch vorzunehmen. Einen theoretischen Beschreibungsansatz sowie eine angemessene Terminologie dazu liefert die construction grammar (s. Croft 2001, Goldberg 2006). Eine Weiterentwicklung dieses Ansatzes, vollständig und teillexikalisierte Gebärden als Konstruktionen anzusehen, findet man in Johnston/Ferrara (2010). Die Frage, ob die verschiedenen Ausprägungen der Formparameter vollständig erfassbar sind i. S. v. Form-Bedeutungs-Paradigmen und ob sich daraus Gesetzmäßigkeiten 21 22 Nach Schmidt (2005:234-235) wurde bisher in der Gesprächsforschung mit der Dokumentation der Transkriptionskonventionen eher nachlässig verfahren, sie ist lückenhaft oder wurde vernachlässigt. Auf die zurückliegende Gebärdensprachforschung dürfte diese Einschätzung in vielen Fällen ebenfalls zutreffen. Um eine Verwechslung von nichtlexikalischen mit grammatischen Gebärden zu vermeiden, sprechen Johnston/Schembri (2010) von vollständig lexikalisierten Inhalts- oder grammatischen Gebärden und teil-lexikalisierten Gebärden. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 34 und linguistische Beschränkungen ableiten lassen, wird von einer Forschergruppe der Université Paris 8 anhand von ca. 4000 konventionellen Gebärden der LSF untersucht (Garcia et al. 2008). Dass die Bestimmung des Konventionalisierungsgrads sowie des Bedeutungsumfangs von Gebärden schwierig ist, liegt im Wesentlichen an zwei strukturellen Besonderheiten von Gebärdensprachen: • Sie nutzen die in der visuell-gestischen Modalität begründete Möglichkeit, Bedeutung durch ikonisch oder metaphorisch motivierte Zeichen zu kodieren (s. ➚ 4.2 u. 4.3). • Sie kombinieren Zeichen aus verschiedenen Sprachsystemen, manuelle Zeichen und Wörter, miteinander (s. ➚ 4.1). Die über das Ablesewort gesicherte Bedeutung, die durch eine i. d. R. ikonische Gebärde kontextualisiert wird, ermöglicht „einen nicht unerheblichen Grad an Unbestimmtheit der manuellen Form“ (Ebbinghaus 1998a:607) und führt damit zu einer hohen phonologischen Variation der Zeichenformen. Weiterhin fördert der Rückgriff auf die Bildhaftigkeit bei der Gebärdenbildung die lexikalische Variation, da sich oft verschiedene ikonische Darstellungen gleichermaßen anbieten, deren Bedeutung durch das mit ihnen zusammen auftretende gleiche Ablesewort in zusätzlicher Weise spezifiziert und abgesichert werden kann. Gleichzeitig ist durch Ikonizität der fließende Übergang von konventionellen zu produktiven Gebärden – bei der Modifikation und Reikonisierung konventioneller Gebärden – sowie von produktiven zu konventionellen Gebärden – im Falle der Lexikalisierung produktiver Gebärden – gewährleistet. Ebbinghaus (1998a:610) fasst die Auswirkungen des Zusammenspiels von Ablesewörtern und ikonischen Handzeichen so zusammen: Ablesewörter erweisen sich mithin auch deshalb als funktional, weil sie den charakteristischen Zeicheneigenschaften von Gebärden Entfaltungsmöglichkeiten bieten: Das Auftreten von Ablesewörtern erlaubt Gebärden im Vergleich zu Wörtern, weitere und vagere Bedeutungsspektra abzudecken, flexiblere Modifikationen, eine größere kategoriale Unbestimmtheit und den weitgehenden Verzicht auf Lexikalisierung ihrer spontan gebildeten Formen. Die Unterscheidung zwischen lexikalischen und produktiven Gebärden bzw. nach Johnston (2010a/b) zwischen „fully-lexical signs” und „partly-lexical signs“ steht nicht im Widerspruch zu der Annahme, dass jede Gebärde „zwei Gesichter“23 hat. Es ist lediglich eine Frage der Perspektive, die man einnimmt. In der Transkriptionspraxis, deren Ziel die Erstellung eines linguistischen Korpus ist, ist es sinnvoll, zwischen konventionellen und produktiven Gebärden zu unterscheiden sowie weitere sprachliche Mittel mithilfe von Glossen im Sinn eines „general identifiers“ (Johnston 2010a) konsistent zu identifizieren. Dadurch erst wird ein Korpus geschaffen, das hinsichtlich 23 So lautet die Überschrift des ersten Abschnitts von Klima/Bellugi (1980): „The two faces of sign“. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 35 neuer theoretischer Ansätze ausgewertet werden kann. Das einzige objektive Kriterium für den Grad der Lexikalisierung von Gebärden ist eine Frequenzanalyse. Variation und Modifikation lexikalischer Gebärden können anhand lemmatisierter Korpora erst genauer untersucht werden. Der Zusammenhang zwischen produktiven und konventionellen Gebärden ist insbesondere durch die Analyse der ikonischen Motiviertheit dieser Gebärden herstellbar (s. ➚ 4.2.1). Im Folgenden werden die Kriterien der TokenType-Zuordnung für konventionelle, produktive und sonstige Gebärden sowie die Glossierungskonventionen näher erläutert. 6.1.1.1 Konventionelle Gebärden Konventionelle Gebärden, auch lexikalisierte oder etablierte Gebärden genannt, sind die abstrakten Einheiten des Lexikons einer Gebärdensprache, die Lexeme. Brennan (1992) spricht auch vom „frozen lexicon“, das diese Gebärden enthält, bevorzugt aber die Bezeichnung ‚established lexicon‘. Dementsprechend werden konventionelle Gebärden auch als frozen signs (erstarrte Formen bzw. Gebärden) bezeichnet, im Unterschied zu den productive signs (produktive Formen bzw. Gebärden). Durch den Sprachgebrauch hat sich eine feste Verbindung zwischen einer relativ stabilen Form und festgelegten Bedeutungen herausgebildet. Diese Bedeutungen können auch ohne einen sprachlichen Kontext abgerufen werden. Zeigt man kompetenten Sprechern der DGS die Form einer konventionellen Gebärde und fragt sie nach deren Bedeutung, dann können diese in der Regel zumindest eine Bedeutung nennen, die mit dieser Gebärde ausgedrückt wird. Umgekehrt ist es sehr wahrscheinlich, dass auf die Frage nach einer Gebärde für eine dieser Bedeutungen von verschiedenen Sprechern diese Form gezeigt wird. Der hohe Grad der Konventionalisierung bewirkt, dass man die Grund- oder Zitierform einer konventionellen Gebärde bestimmen kann und dass deren Bedeutung über verschiedene Kontexte hinweg stabil bleibt. Konventionelle Gebärden sind häufig, aber nicht notwendigerweise ikonisch oder enthalten ikonische Bestandteile. Bei der Produktion und Rezeption dieser Gebärden spielt ihre Ikonizität keine Rolle, sie stehen als fertige Form-Bedeutungs-Einheiten zur Verfügung. Brennan (1992:45-46) spricht von „off the shelf, ready-made lexical items“. Johnston/Schembri (1999:129-130) betonen, dass sich die Bedeutung konventioneller Gebärden, im Unterschied zu produktiven Gebärden, nicht aus den Teilbedeutungen ihrer Komponenten zusammensetzt und daher nicht vorhergesagt werden kann. Dieses Mehr an Bedeutung macht ihre Idiomatizität aus. Die Ikonizität dieser Gebärden kann jedoch im Kontext reaktiviert werden, indem die Form und damit auch das ihr zugrunde liegende Bild so modifiziert wird, dass eine spezifischere Bedeutung entsteht (s. Kap. 6.1.1.4). Während Johnston/Schembri (1999:136) von einer „relativ arbiträren“ Bedeutung der Lexeme sprechen, gehen wir davon aus, dass die Ikonizität einer Gebärde funktional ist in dem Sinne, dass sie das Bedeutungsfeld absteckt, innerhalb dessen sich die verschiedenen mit dieser Gebärde Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 36 realisierten Bedeutungen befinden müssen (s. ➚ 4.2). Eine Flachhand kann keinen spitzen Gegenstand darstellen, eine Faust nichts Zweidimensionales, ein Zeigefinger nichts Rundes. Die Analogie zwischen Formeigenschaften der Gebärde und den Eigenschaften eines Objekts oder einer Handlung, die mithilfe dieser Gebärde symbolisch repräsentiert wird, ist der Logik unserer Alltagserfahrung unterworfen. Da unsere Wahrnehmung ebenso von Metaphern geprägt ist (vgl. Lakoff/Johnson 1980), die sich bildlich darstellen lassen, lässt sich die Analogie bezüglich der Formikonizität auch auf metaphorisch motivierte Gebärden übertragen. Brennan (2005:365 ff.) betont, dass sowohl koverbale Gesten als auch Gebärdensprachen diese metaphorische Motiviertheit nutzen. So kann sie auch bezüglich der Bewegung vorhersagen, dass eine Gebärde, die die Bedeutung „zweifelhaft“ ausdrücken soll, nicht mit einer einfach, geraden Bewegung ausgeführt wird, und umgekehrt eine Gebärde, die die Bedeutung „wahr“ ausdrückt, nicht mit einer oszillierenden Bewegung. Diese passiv wirkende Ikonizität spielt auch eine entscheidende Rolle bei der von H. Ebbinghaus und J. Heßmann vertretenen These der wechselseitigen Kontextualisierung von Gebärde und Ablesewort (s. ➚ 4.1.4). Im Unterschied zu produktiven Gebärden kommen konventionelle Gebärden häufiger zusammen mit Ablesewörtern vor und der Blick ist i. d. R. auf den Gesprächspartner gerichtet, bei produktiven Gebärden auf die Hände. Zur Kennzeichnung einer lexikalischen Gebärde wird als Glossenname meist eine weit verbreitete Grundbedeutung der Gebärde gewählt. Manchmal wurde bei konventionellen Gebärden, die in verschiedenen Bedeutungen verwendet werden, auch ein Glossenname gewählt, der sich vor allem am Bild der Gebärde orientiert, das als gemeinsame Basis alle zugehörigen Bedeutungen miteinander verbindet, selbst aber nicht immer zu den im Lexikon verzeichneten konventionellen Bedeutungen dieser Gebärde gehört. Zum Beispiel wird die Gebärde, die für die konventionalisierten Bedeutungen „Hexe“ und „Adler“ verwendet wird, mit der Glosse HAKENNASE1A () identifiziert. In wenigen Fällen kann auch ein häufig mit dieser Gebärde verwendetes Ablesewort als Glossenname dienen wie z.B. bei UM2 (). Diese Gebärde hat die konventionalisierten Bedeutungen „Wechsel“, „wechseln“ und „alternativ“, „Alternative“. Durch die fehlende Gebrauchsschrift hat sich in der DGS noch keine Hochsprache entwickelt. Dementsprechend ist der Grad der Standardisierung von Gebärden relativ gering und es gibt oft mehrere konventionelle Gebärden, die für dieselbe Bedeutung verwendet werden können. Gebärdensprachliche Synonyme unterscheiden sich deutlich in ihrer Form, die zugrunde liegenden Bilder sind verschieden oder werden durch eine andere Bilderzeugungstechnik visualisiert (s. ➚ 4.2.1). Sie werden mit demselben Glossennamen etikettiert, jedoch durch eine zusätzliche Zahl voneinander unterschieden. Für die Bedeutung „Frau“ gibt es in der Datenbank acht verschiedene Einträge. BRUST4, FRAU2, FRAU3A, FRAU3B, FRAU4, FRAU5, LEBENSPARTNER1 und RING1A unterscheiden sich deutlich in der Form als auch in den den Gebärden zugrunde liegenden Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 37 Bildern. Bei BRUST4 () wird mit der gebogenen Flachhand der Busen am Oberkörper skizziert, der ikonische Gehalt der Gebärde FRAU2 () ist nicht erkennbar, die Gebärden FRAU3A () und FRAU3B () unterscheiden sich nur in der Handform und werden daher als phonologische Varianten angesehen (s. Kap. 6.1.1.5), die Glossen unterscheiden sich durch eine zusätzliche Ziffer nach der ersten Zahl. Beide haben dasselbe zugrunde liegende Bild: „einen Ohrring am Ohrläppchen befestigen“. Die Gebärde FRAU4 () ist auf eine stilisierte Darstellung des Gehens auf Stöckelschuhen zurückzuführen, bei FRAU5 () wird stilisiert der Rand eines Kopftuchs oder einer Haube an der Wange skizziert. LEBENSPARTNER1 () erinnert an das Sich-Unterhaken bei einem anderen Menschen bzw. das Arm-in-Arm-Gehen, bei RING1A () ist es das Anstecken eines Eherings bei der Hochzeit, das als Visualisierung der Bedeutung „Frau“ dient. Da die Wahl des Glossennamens eng mit der durch die Gebärde ausgedrückten Bedeutung verbunden ist, lässt es sich im manchen Fällen nicht vermeiden, dass ein polysemes deutsches Wort als Glosse gewählt wird. Durch die zusätzliche Zahl in der Glosse werden diese Gebärden eindeutig identifiziert, sie sind jedoch keine Synonyme, wie die Beispiele VERBAND2A () und VERBAND4B () zeigen. Die erste Gebärde wird für die Bedeutungen „Verband“, „Bündnis“ und „Bund“, die zweite Gebärde für die Bedeutung „(medizinischer, therapeutischer) Verband“ verwendet. In diesen Fällen schlagen Johnston/de Beuzeville (2008:12-13) vor, diesen Unterschied nicht allein durch eine Zahl im Glossennamen zu erweitern, sondern durch einen „sprechenden“ Zusatz, z.B. VERBAND-medizinisch versus VERBAND-organisation, damit der Transkribent durch den Glossennamen eine Entscheidungshilfe für die Token-Type-Zuordnung hat. Die Notwendigkeit, möglichst „sprechende“ Glossennamen zu vergeben, ist für uns nicht so dringend, da die Glossen aus einem Gebärdenlexikon ausgewählt werden, das in iLex integriert ist. Die Angabe im Token ist datenbanktechnisch gesehen eine IDNummer, die als eindeutige Referenz auf einen Eintrag im Gebärdenlexikon verweist, d.h. auf eine Entität in der Gebärdenliste. Alle zu diesem Eintrag gehörenden Informationen wie die Grundform und die Bedeutung einer konventionellen Gebärde können durch verschiedene Sichten mit angezeigt werden, sodass der Transkribent sofort sieht, dass sich VERBAND2A und VERBAND4B sowohl in der Form als auch in der Bedeutung unterscheiden. Modifikationen (s. Kap. 6.1.1.4) werden durch eine zweite Ziffer von der Grundform unterschieden. So ist zum Beispiel die Gebärde VERBAND24A () eine Modifikation der Gebärde VERBAND2A, die den Plural ausdrückt. Folgende Informationen werden durch einen Zusatz am Ende des Glossennamens kodiert: Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank • 38 Fremdwörter: Gebärden aus anderen Gebärdensprachen – die Bezeichnung ‚Fremdgebärden‘ hat sich nicht durchgesetzt, im Unterschied zu Lehngebärden –, werden durch eine entsprechende Abkürzung gekennzeichnet, z.B. GROUP1_ASL (). Dies soll die schnelle Orientierung erleichtern, ist aber im Prinzip nicht erforderlich, da zu jedem Gebärdeneintrag (Type) die jeweilige Gebärdensprache notiert wird. Der Glossenname kann auch in der Schriftform der Fremdsprache notiert werden, die die jeweilige Gebärdensprache umgibt. Um diese Einträge für diejenigen verständlich zu machen, die diese Schrift nicht beherrschen, kann zusätzlich eine Übersetzung der Glosse ins Englische eingetragen werden.24 Abb. 5: Eintrag einer koreanischen Gebärde mit englischer Übersetzung • Lehngebärden wie z.B. FAMILIE1 (), eine aus der ASL entlehnte Gebärde, erhalten wie andere konventionelle Gebärden einen Glossennamen. Der Hinweis auf die Herkunft der Gebärde wird im Kommentar zur Gebärde festgehalten, der ebenfalls in der entsprechenden Sicht auf die Daten mit angezeigt werden kann. Abb. 6: Gebärden mit Glossenname FAMILIE1 und Kommentar 24 Die Datenbank erlaubt auch eine andere Verwendung von Glossen. Anstatt die Glossennamen in verschiedenen Sprachen zu schreiben und sie durch Zusätze zu kennzeichnen, können sie auch einheitlich, z.B. in Deutsch geschrieben werden. Jede Glosse kann einen zusätzlichen englischen Glossennamen sowie einen weiteren Glossennamen in der jeweiligen Schriftform der umgebenden Lautsprache erhalten, z.B. in Hangul (Zeichensatz für koreanische Schrift). Sowohl nach den englischen als auch den weiteren Glossennamen kann gesucht bzw. können Listen sortiert werden. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank • • • • 39 Regionale Varianten: Werden Gebärden ausschließlich von Informanten aus einer bestimmten Region verwendet, dann wird dies ebenfalls als Zusatz zur Glosse notiert, z.B. BRUST7_BAYERN (). Inkorporierte Negation: Die Bedeutung bestimmter Gebärden wird dadurch verneint, dass die Bewegung der Grundform ersetzt wird durch ein gebundenes Morphem, eine schleifenförmige Bewegung, die an den griechischen Buchstaben α erinnert, z.B. bei STIMMT11_NEG (). Diese inkorporierte Negation wird durch den Zusatz ‚_NEG‘ gekennzeichnet. Verneinung durch Kopfschütteln, ebenso wie Bejahung durch Kopfnicken, das zeitgleich zur Gebärde ausgeführt wird, wird im Kommentar beim Token notiert. Da dies in unseren Daten nur selten vorkommt, wurde auf eine eigene Gestik-Spur verzichtet. Wird die Verneinung oder Bejahung ausschließlich durch eine Kopfbewegung ausgedrückt, ohne dass zeitgleich eine Gebärde ausgeführt wird, dann werden dafür die Glossen $GEST-KOPFNICKEN und $GESTKOPFSCHÜTTELN vergeben. Lautsprachbegleitende Gebärden (LBG): Im Unterschied zum Phonembestimmten Manualsystem (PMS, s. u.) sind LBG bzw. das „lautsprachbegleitende Gebärdenverfahren“ (Projektgruppe München 1989) kein geschlossenes System oder eine festgelegte Methode, sondern eine im Laufe der 1980er Jahre in Deutschland, Österreich und der Schweiz (Zürich) in den Gehörlosenschulen eingesetztes Verfahren, „[…] auch Grammatikalisches bei Bedarf durch Gebärden und Fingeralphabetzeichen darstellen zu können“ (Projektgruppe München 1989:5). Die Autoren betonen, dass sie durch das lautsprachbegleitende Gebärdenverfahren nichts Neues schaffen bzw. einführen wollen, sondern bereits Vorhandenes strukturieren und verweisen auf die damals bereits vorliegenden ersten beiden Bände der sogenannten Blauen Bücher (Starcke/Maisch 1977, Maisch/Wisch 1988-1994). Der Beitrag ist als Ergänzung dazu zu sehen. Sowohl die Gebärdenbücher als auch das LBG-Verfahren sind konkrete Umsetzungen eines Beschlusses der Bundesarbeitsgemeinschaft der Elternvertreter und Förderer Deutscher Gehörlosenschulen e.V. aus dem Jahr 1982, in der Erziehung und Bildung Gehörloser lautsprachbegleitende Gebärden einzuführen, und wurden maßgeblich von der Deutschen Gesellschaft zur Förderung der Gehörlosen und Schwerhörigen e.V. gefördert. Das Verfahren wird definiert „als intensives Zusammenspiel von Sprechen, Gebärden, gebärdenergänzenden Fingeralphabetzeichen und Körpersignalen, bevorzugt der Mimik, wobei die Strukturen der deutschen Sprache den Ablauf bestimmen“ (Projektgruppe München 1989:9). Die Visualisierung formaler Aspekte deutscher Wörter, insbesondere der Flexionsendungen, durch spezielle Handzeichen ist jedoch nur eine Ausprägung dieses methodischen Verfahrens mit dem Ziel, gehörlosen Kindern Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 40 die Struktur des Deutschen zu lehren. Kaufmann (1991:208) berichtet, dass in der Züricher Gehörlosenschule LBG als „Oberbegriff für jede Art des simultanen Sprechens und Gebärdens“ verstanden wird. Es umfasst o (lautsprach)unterstützendes Gebärden (LUG), bei dem nur die wichtigsten Wörter parallel zum Sprechen gebärdet werden; o synchrones Gebärden, bei dem jedes Inhaltswort gebärdet wird, nicht jedoch Funktionswörter (z.B. Artikel, Konjunktionen) oder Pronomen; stattdessen werden Ausdrucksmittel der Gebärdensprache verwendet wie z.B. Mimik, Lokalisierung und Ausrichtung von Gebärden im Gebärdenraum; o grammatikalisches Gebärden, das dem o.g. Ansatz der Münchner Projektgruppe entspricht; o PMS, Graphembestimmtes Manualsystem (GMS) und tonreceptionsunterstützende Gebärden (TRUG; z.B. Breiner 1984), d.h. Verfahren, die die Sprachproduktion und -rezeption unterstützen sollen. Diese Aufzählung zeigt, dass die Bezeichnungen mit verschiedenen Inhalten gefüllt werden. So entspricht das synchrone Gebärden dem Ansatz von Günther (1990), der in Abgrenzung zum LBG-Verfahren seinen Ansatz wiederum als lautsprachunterstützend bezeichnet. Günther kritisiert das grammatikalische Gebärden, da es in der Tradition der deutschen Gehörlosenpädagogik stehe, die versucht, die morphologischen und syntaktischen Bildungsregeln des Deutschen explizit zu machen, und argumentiert dagegen mit der Ineffizienz dieser Methode sowie den psycholinguistischen Erkenntnissen, nach denen ein normaler Spracherwerb der Muttersprache solcher Regeln nicht bedarf. Durch die zusätzliche Visualisierung der Flexionsendungen durch Handzeichen oder Fingeralphabet wird der Kommunikationsfluss gestört. Es ist für ihn nicht einsichtig, warum […] ausgerechnet bei denjenigen Kindern, denen behinderungsbedingt die Aneignung der Verbalsprache besonders schwer fällt, formale morphologisch-syntaktische Strukturierungsregeln explizit und einsichtig in ihren sprachlichen Funktionen erworben werden sollen. (Günther 1990:303) Ungeachtet der Kontroversen hat das lautsprachbegleitende Gebärden dazu geführt, dass sich die Gehörlosenpädagogik immer stärker für die Gebärdensprache geöffnet hat. Rammel (1989:62), der die Arbeit der Münchner Projektgruppe skizziert, stellt fest, „dass die Erlernung einer möglichst umfangreichen Anzahl an Gebärdenzeichen die wesentliche Voraussetzung für das LBG-Verfahren darstellt“ und berichtet aus seiner eigenen Erfahrung über die positiven Auswirkungen, die der Einsatz von Gebärden im Unterricht mit sich bringt. Gleichzeitig grenzt er das von der Projektgruppe ausgearbeitete Verfahren ab von den methodischen Gebärden des Abbé de l’Epée sowie den in den USA entwickelten Systemen Seeing Essential English (SEE 1) und Signing Exact English (SEE 2), die die Gebärden zu einseitig dafür einsetzen, die Grammatik der Lautsprache zu visualisieren und sie dadurch ihres natürlichen Charakters berauben. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 41 Kaufmann (1991) weist auf das eigentliche Problem hin, das durch die Einführung von Gebärden bzw. Gebärdensprache im Unterricht entsteht: die Überforderung der Lehrkräfte, die über keine ausreichenden Kenntnisse verfügen. Die logische Konsequenz aus der Öffnung des Unterrichts für Gebärdensprache, wenn auch zunächst nur als Visualisierungsmittel für die deutsche Lautsprache gedacht, waren die Modellversuche mit bilingualem Unterricht in den 1990er Jahren. Deren Erfolge haben Scheinargumente gegenstandslos werden lassen und den Bedarf an gehörlosen Pädagogen sowie an hörenden Pädagogen mit Gebärdensprachkenntnissen deutlich gemacht. Die Parallelisierung von Laut- und Gebärdensprache durch das simultane Gebärden beim Sprechen, die die Gebärden als Mittel zum Zweck missbraucht, ist der Kontrastierung gewichen, die Laut- und Gebärdensprache gleichwertig nebeneinander benutzt und die Andersartigkeit der Gebärdensprache respektiert. Abgesehen von dem Streit um die richtige Methode weist Kaufmann auf ein grundsätzliches Problem hin, das das LBG-Verfahren impliziert. Einerseits werden lexikalische Gebärden inhaltsbezogen eingesetzt, um, wie in der DGS auch, Bedeutungen zu kodieren, andererseits gibt es aber auch die wortbezogene Verwendung von Gebärden, die nur der Visualisierung eines deutschen Wortes bzw. Wortteils dienen sollen wie z.B. Handzeichen für Artikel, Pronomen, Konjunktionen und Endungen, für die es in der DGS keine lexikalischen Entsprechungen gibt. Ähnlich wie bei initialisierten Gebärden (s. Kap. 6.1.1.3) dienen die Handzeichen als Ablesehilfe. Dies trifft jedoch nicht nur auf diese besonderen Wörter und Wortteile zu, sondern im Prinzip auf alle lexikalischen ikonischen Gebärden. Sie können alle als Ablesehilfe dienen, da die Handzeichen durch ihren ikonischen Gehalt ein Bedeutungsfeld abstecken, innerhalb dessen das abzulesende Wort zu finden ist. Diese Funktion der Kontextualisierung von Wörtern durch Gebärden haben H. Ebbinghaus und J. Heßmann in ihren Arbeiten herausgestellt (s. ➚ 4.1.4). Es ist zu vermuten, dass das LGB-Verfahren die wortbezogene Verwendung lexikalischer Gebärden als Ablesehilfe gefördert hat. Dies ist jedoch kein Spezifikum des LBG-Verfahrens, sondern eine erfolgreiche Strategie, die Gehörlose in verschiedensten Kommunikationssituationen anwenden (s. ➚ 4.1.5.3.1). Gebärden, die ausschließlich wortbezogen verwendet werden, werden in der Glossierung durch den Zusatz ‚_LBG‘ gekennzeichnet wie z.B. ARTIKEL1_LBG, eine konventionalisierte Verwendung der Gebärde $INDEX1A (). Gebärden, die ausschließlich zur Kontextualisierung von Prä- und Suffixen verwendet werden, gehören auch zu den lautsprachbegleitenden Gebärden, werden jedoch durch den Zusatz ‚$WORTTEIL-‘ am Anfang des Glossennamens gekennzeichnet (s. Kap. 6.1.1.3). Gebärden, die inhalts- und wortbezogen verwendet werden wie z.B. die indexikalische Gebärde IN1 (), werden als Glossen ohne einen Zusatz Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 42 notiert.25 Aneinanderreihungen von Gebärden bei der Übersetzung von deutschen Komposita werden als Lehnübersetzungen betrachtet (vgl. Becker 2003:102-106), die Einzelgebärden werden entsprechend der Konventionen glossiert. Folgende Informationen werden durch einen Zusatz am Anfang des Glossennamens kodiert: • Namensgebärden: Um einen schnellen Zugriff auf konventionalisierte Namensgebärden zu haben, wird den Glossen ein ‚$NAME-‘ vorangestellt, z.B. $NAMEHELMUT-KOHL1 (). • Spezialgebärden: Als sogenannte Spezialgebärden werden konventionelle Gebärden mit lexikalisierter Mundgestik bezeichnet, die im Kontext auch durch eine expressive Mimik überlagert sein kann. In der englischen Fachliteratur spricht man von multi-channel signs (vgl. Brennan 1992:128, Johnston/Schembri 1999:154-155), in der deutschen Fachliteratur wird die Bezeichnung ‚Spezialgebärden‘ nicht verwendet, der Begriff taucht dagegen regelmäßig auf Fort- und Weiterbildungen auf sowie in Kursangeboten für DGS-Lerner und Dolmetscher26. Da einige dieser Gebärden nicht durch ein einziges Wort, sondern nur durch eine Redewendung27 oder Umschreibung ins Deutsche übersetzt werden können, werden sie von Gehörlosen als besonders gebärdensprachtypisch eingestuft und häufig auch als Idiome oder idiomatische Wendungen bezeichnet. Der lexikalische Status dieser Gebärden ist jedoch unklar, denn die Eigenschaft, dass sie sich nur schwer in die Lautsprache übersetzen lassen und besonders expressiv sind, trifft nicht auf alle konventionalisierten DGS-Gebärden mit lexikalisierter Mundgestik zu wie z.B. auf die Gebärde BESITZEN1 ().28 Einige dieser Gebärden können auch durch Lautsprachmetaphern motiviert worden sein wie z.B. $SPEZIAL-KNIE-SCHLOTTERN1 () und sind somit nicht als lautsprachfern zu bezeichnen. Dass diese Gebärden insbesondere von Gehörlosen als etwas Besonderes angesehen werden, scheint eher in dem psychologischen Motiv begründet, sich gegenüber der Lautsprache abzugrenzen bzw. die Überlegenheit der Gebärdensprache hervorzuheben. Dies 25 26 27 28 Eine genaue Untersuchung der wortbezogenen Verwendung lexikalischer Gebärden würde eine zusätzliche Annotation erfordern und müsste den Äußerungskontext stärker berücksichtigen, da es durchaus sein kann, dass innerhalb DGS-typischer Sequenzen Gebärden in der Absicht verwendet werden, lediglich den Bezug zum deutschen Wort sicherzustellen. Eine solche Untersuchung sollte unabhängig vom lexikalischen Status alle in der Funktion der Ablesehilfe eingesetzten sprachlichen Mittel der DGS erheben und würde Aussagen über die Häufigkeit und Verwendungskontexte ermöglichen. Von den über 60 Fundstellen bei der Google-Suche nach ‚Spezialgebärde‘ entfallen die meisten auf Kursangebote in Deutschland oder Österreich. Vgl. z.B. die in der Region München gebräuchlichen „Redewendungen der Deutschen Gebärdensprache“ von Mally (1992 u. 1993). Der durch das Fingerspiel sowie die Mundgestik, die an die Artikulation des Zischlauts [ʃ] erinnert, visualisierte ikonische Gehalt dieser Gebärde lässt sich mit der Existenz belebter Objekte beschreiben, das durch seine Bewegung und dadurch verursachte Geräusche wahrnehmbar ist (vgl. Ebbinghaus/ Heßmann 2001:149). Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 43 drückt sich insbesondere in diesen Gebärden aus, die durch die mehr oder weniger expressive Mundgestik die Verwendung eines Ableseworts ausschließen. Um der Intuition der Gehörloser Rechnung zu tragen, dass es sich bei diesen Gebärden um eine besondere Gruppe von Gebärden handelt, wird den Glossen für diese Gebärden ein ‚$SPEZIAL-‘ vorangestellt wie z.B. bei $SPEZIAL-BEGIERIG-AUF-ETWAS-SEIN1 (). 6.1.1.2 Produktive Gebärden Im Unterschied zu Lautsprachen bestehen gebärdensprachliche Äußerungen nicht nur aus einer sequenziellen Abfolge konventioneller Zeichen, sondern aus einem steten Wechsel zwischen konventionellen und nicht konventionellen Zeichen (s. ➚ 4.3.3.2), die bei zweihändigen Gebärdenkomplexen auch simultan artikuliert werden können. Empirische Untersuchungen von Sallandre (2003) zur Französischen Gebärdensprache (LSF) und Russo (2004) zur Italienischen Gebärdensprache (LIS) zeigen, dass der Anteil produktiver Gebärden abhängig ist von der Textsorte. Hinweise darauf, dass dies auch auf die DGS zutrifft, finden sich in Ebbinghaus/Heßmann (1991) und Heßmann (2001a). Diese manuellen Zeichen können weiterhin zeitgleich mit nonmanuellen Zeichen artikuliert werden und einen Vorgang oder Sachverhalt aus verschiedenen Perspektiven mehr oder weniger detailliert vermitteln. Die Übergänge zu einer szenischen Inszenierung, bei der der Gebärdende mit dem Einsatz seines gesamten Körpers kommuniziert, sind fließend. Aus lexikologischer Sicht sind zunächst diese nicht konventionellen Zeichen interessant, deren Form und Bedeutung nicht durch Konvention festgelegt sind und die spontan gebildet werden, um im gegebenen Kontext Gegenstände, Handlungen oder Sachverhalte visuell wiederzugeben bzw. zu modellieren. Daraus lassen sich vier Eigenschaften produktiver Gebärden ableiten: • Sie sind ikonisch oder metaphorisch motiviert; • es ist nicht möglich bzw. sinnvoll, die Grundform einer produktiven Gebärde zu bestimmen; • ihre Bedeutung kann nur im jeweiligen Äußerungskontext ermittelt werden; • da alle Parameter der Gebärdenform zur Bedeutung der Gebärde beitragen, geht die Veränderung eines dieser Formparameter in der Regel mit der Veränderung der Bedeutung einher. Nach Johnston/Schembri (1999) unterscheiden sich produktive von konventionellen Gebärden weiterhin dadurch, dass sie auf ein größeres Set an Formparametern zurückgreifen und phonologische Beschränkungen wie die Dominanz- und Symmetrieregel (Battison 1974) bei zweihändigen Gebärden öfters verletzt werden können. Der Blick ist bei produktiven Gebärden in der Regel auf die Hände gerichtet. Gleichzeitig artikulierte Ablesewörter kommen seltener vor. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 44 In der Literatur hat sich der Begriff ‚produktives Lexikon‘ etabliert, der vor allem auf M. Brennan zurückzuführen ist. Brennan (1992:45 f.) geht in ihrer Einführung zum BSL-Wörterbuch (Brien 1992) auf die morphologische Struktur von Gebärden und die lexikalischen Ressourcen der BSL ein und stellt dem etablierten Lexikon ein „do-ityourself or DIY lexicon“ gegenüber als Oberbegriff für all diese „on the spot“ gebildeten Gebärden. Den Wechsel zwischen etablierten und produktiven Gebärden interpretiert Brennan so, dass der Gebärdende ständig mit der visuellen Bildhaftigkeit und visuellen Effekten spielt, um die verschiedenen Sichtweisen auf die Dinge der Welt zu zeigen. Etablierte Gebärden können durch zusätzliche Morpheme erweitert werden, um neue lexikalische Items zu erzeugen, oder Morpheme können zu neuen, produktiven Gebärden zusammengesetzt werden. Bei der Bildung produktiver Gebärden greift der Gebärdende auf die lexikalischen Ressourcen seiner Sprache zurück, die er in systematischer Weise miteinander kombiniert. Brennan (1992:79) teilt die lexikalischen Ressourcen in folgende Morphemklassen ein: • „classifier morphemes“, • „location morphemes“, • „metaphor-based morphemes“, • „non-manual morphemes“. • „movement morphemes“, Abgesehen von den Metapher29- und den nonmanuellen Morphemen enthält diese Auflistung die auf Stokoe zurückgehenden Parameter Handform, hier bezogen auf die Klassifikator-Handformen, den wichtigsten Bestandteil der sogenannten Klassifikatorgebärden, Bewegung und Lokation. Der wesentliche Unterschied zu Stokoe ist jedoch, dass Brennan, wie auch Cuxac (s. ➚ 4.3.3), diesen Parametern keinen Phonem-, sondern Morphemstatus zuweist, d.h. es handelt sich um Formbestandteile, die aufgrund einer sprachlichen Konvention für bestimmte Bedeutungen verwendet werden. Johnston/ Schembri (1999:117-119) sprechen daher auch von einer ersten Stufe der Konventionalisierung, die produktive Gebärden abgrenzt von Gesten und pantomimischen Darstellungen. Damit ist gemeint, dass die einzelnen Formbestandteile einer produktiven Gebärde ein generisches Bedeutungspotential haben. Eine Flachhand kann • einen flachen, ausgedehnten Gegenstand darstellen; ihre Position im Raum entspricht der Lage und Orientierung dieses Gegenstands, ebenso ihre Bewegung; • eine Hand darstellen, die sich in einer bestimmen Position befindet oder eine bestimmte Tätigkeit ausübt; • als Zeicheninstrument verwendet werden, um eine zweidimensionale Fläche zu skizzieren, z.B. das Flachdach eines Bungalows; 29 Metapher-Morpheme werden dazu benutzt, Bedeutungen auszudrücken, die sich auf eine gemeinsame, zugrunde liegende Metapher zurückführen lassen, z.B. die sich öffnende Faust oder O-Hand, die für sämtliche Bedeutungen verwendet werden kann, die sich auf das kognitive Konzept „etwas ausstrahlen oder aussenden“ beziehen lassen. Darunter fallen in der DGS z.B. Gebärden für „Licht“, „Quelle“ oder „Dusche“ (s. QUELLE1A, ), nicht jedoch die formgleiche Gebärde PLANZE1A, bei der die sich öffnende Hand das Öffnen der Blütenblätter einer Pflanze repräsentiert. Zur Analyse ikonischer Gebärden s. ➚ 4.2.1. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank • • 45 als Index verwendet werden, indem die Handinnenfläche in die Richtung oder auf den Ort eines real anwesenden oder fiktiven Objekts zeigt; als Begrenzungsanzeiger funktionieren, indem schematisch oder maßstabsgetreu die Dimension eines Gegenstands oder einer Entfernung gezeigt wird (s. ➚ 4.2.1.5). Die Veränderung der Lage, Orientierung und Bewegung der Flachhand bzw. der Position der beiden Hände zueinander kann im Äußerungskontext im Sinne einer Modellierung jeweils eine spezifische Bedeutungsveränderung bewirken. Ein kompetenter Gebärdender weiß um die Formbestandteile und ihre Kombinationsmöglichkeiten und kann für jeden Verwendungszweck die passenden Gebärden bilden. Da die Bedeutung produktiver Gebärden stark vom Äußerungskontext abhängt, die generische Bedeutung ihrer Formbestandteile jedoch zu allgemein ist, plädieren Johnston/Schembri (1999:125) dafür, produktive Gebärden als Einträge in einem allgemeinen Gebärdenwörterbuch auszuschließen. In einem einsprachigen Wörterbuch würden solche Einträge keine neuen Informationen bringen, da sie nur das beschreiben können, was ein kompetenter Gebärdender schon weiß und intuitiv im Sprachgebrauch ständig anwendet. Hinzu kommt, dass es ohne die Unterscheidung zwischen konventionellen und produktiven Gebärden bei der Lemmaselektion keine stichhaltigen Auswahlkriterien gäbe, die Wahl der Einträge bzw. der Ausschluss von potentiellen Gebärden beliebig wäre. Die Bestandteile produktiver Gebärden und deren Kombinationsmöglichkeiten sollten nach Johnston & Schembri in einer Grammatik bzw. Wörterbuchgrammatik beschrieben werden. Der Versuch, diese produktiven Gebärden hinsichtlich ihrer phonologischen, morphologischen und syntaktischen Eigenschaften zu beschreiben und ihre semantischen und lexikalischen Eigenschaften zu analysieren, hat zu den verschiedensten Bezeichnungen geführt. Am bekanntesten sind Klassifikator (classifier; Frishberg 1975), womit im engeren Sinn nur die Handform bzw. Handkonfiguration gemeint ist, Klassifikatorprädikat (classifier predicate; Liddell 1977), Stand- und Bewegungsverben (verbs of motion and location; Supalla 1978, 1986), Proform (proform; Engberg-Pedersen/Pedersen 1985), polymorphemische Verben (polymorphemic verbs; Engberg-Pedersen 1993) und polysynthetische Gebärden (polysynthetic signs; Wallin 1996). Schembri (2003:25)30 kommt in seinem Vergleich der verschiedenen Beschreibungsansätze für Klassifikator-Morpheme zu dem Schluss, dass die Bezeichnung ‚Klassifkator‘ in Analogie zu Lautsprachen problematisch ist, da insbesondere die Funktion der Handform nicht die der Klassifikation, sondern der Repräsentation ist: Of course, the particular co-occurrence constraints do seem reminiscent of verbal classifiers in spoken languages, but the primary function of the handshape seems not to be one associated with classifiers, but representation. 30 Dieser Fassung ging ein Manuskript voraus, das die Grundlage für eine frühere deutsche Übersetzung dieses Beitrags war (Schembri 2000). Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 46 Slobin et al. (2001) sehen die Hauptfunktion der Handform bei produktiven Gebärden darin, auf einen Diskursreferenten zu verweisen bzw. zu indizieren, indem sie eine für den Diskurs relevante Eigenschaft dieses Referenten repräsentiert. Dementsprechend werden produktive Gebärden im Berkeley Transcription System (BTS) „property markers“ genannt, eine Bezeichnung, die Johnston/de Beuzeville (2008) in ihren Transkriptionskonventionen übernommen haben. Die Bezeichnung ‚marker‘ wurde schon von DeMatteo (1977), Mandel (1977) und Friedman (1977) verwendet, die die Ikonizität ins Zentrum der Erforschung von Gebärdensprachen stellten und sich damit absetzten von dem sich mit der Veröffentlichung von „The signs of language“ (Klima/Bellugi 1980a) etablierenden Mainstream, der die offensichtliche Ikonizität von Gebärden zwar konstatierte, ihr aber jeglichen Einfluss auf die Funktion und die Struktur des Sprachsystems von Gebärdensprachen absprach (s. ➚ 4.3). Mandel (1977) verwendete schon die Bezeichnung ‚depiction‘, um auszudrücken, dass produktive Gebärden etwas abbilden, ein interpretierbares Bild zeigen, und nicht als Realisierung (Token) eines Types angesehen werden können. Diese Bezeichnung wurde später von Liddell (2003a), aber auch von Johnston/de Beuzeville (2008) übernommen. Einige Forscher sind davon überzeugt, dass sich produktive Gebärden mit dem herkömmlichen linguistischen Instrumentarium nicht angemessen beschreiben lassen. Sie gehen davon aus, dass Gebärdensprachbenutzern neben der sprachlichen eine weitere, bildliche oder analoge Kodierungsmöglichkeit zur Verfügung steht. Macken et al. (1993:391) sprechen deshalb in ihrer Untersuchung der ASL von einer „dual representation language“. Cogill-Koez (2000b) legt eine umfassende Kritik des Versuchs vor, produktive Gebärden als sprachliche Einheiten zu beschreiben und plädiert dafür, sie als „schematic visual representations“ zu analysieren. Liddell (2003a/b) spricht von „depicting verbs“, die einen lexikalisch-morphologischen und einen analogen, graduell variierbaren, räumlichen Anteil haben, der sich mit dem kognitiven Konzept der „mental spaces“ beschreiben lässt. Ebbinghaus/Heßmann (1991) fassen produktive Gebärden als ikonische Modellierungen auf, die nur innerhalb eines semiotischen Ansatzes, der die Kombination verschiedener Zeichensysteme berücksichtigt, ausreichend erklärt werden können. Brennan (2005) beantwortet die Frage, wie es in Gebärdensprachen möglich ist, Wörter, d.h. diskrete sprachliche Einheiten, und Bilder, die nach McNeill (1992) durch koverbale Gesten ausgedrückt werden, miteinander zu kombinieren, wo doch Gebärdensprachen nur das visuelle Medium zur Verfügung steht, damit, dass beide Ausdrucksformen der Kommunikation, Wörter als sprachlich kodierte und Gesten als bildlich kodierte Information, in einer Gebärde zusammenfallen: However, this is exactly what makes signs languages unique: The linguistic code itself adapts to the requirement of combining words and images. A BSL sign is both a set of conventionalized components (e.g., handshapes, movements, locations, nonmanual features) and a vehicle for expressing an image. (Brennan 2005:366) Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 47 Bei metaphorischen Gebärden ist, wie bei metaphorischen Gesten, die Beziehung zwischen dem Bild und der Bedeutung nicht direkt, da nicht wie bei ikonischen Gebärden Eigenschaften eines Objekts oder einer Handlung in der Form der Gebärde kodiert werden, sondern indirekt, indem auf der Grundlage von kulturellem und sprachlichem Wissen Bilder erzeugt werden, die auf abstrakte Konzepte referieren. Metaphoric gestures are like iconic gestures in that they exhibit a meaning relevant to the concurrent linguistic meaning. However, the relation to the linguistic meaning is indirect. Metaphoric gestures exhibit images of abstract concepts. In form and manner of execution, metaphoric gestures depict the vehicles of metaphors […]. The metaphors are independently motivated on the basis of cultural and linguistic knowledge. (McNeill 1985:356) Beckers (2003:207-208) Kritik an der Bezeichnung ‚produktives Lexikon‘ ist zum einen, dass das Merkmal der Produktivität einengt wird auf ikonische Zeichen. Die z.B. in der DGS sehr produktiv eingesetzte Kombination von Gebärden mit Wörtern des Deutschen, die in Form von Ablesewörtern gleichzeitig zur Gebärde artikuliert werden, gerät dabei aus dem Blickfeld (vgl. ➚ 4.1.4). Zum anderen stellt sie die Frage, ob die Generierung ikonischer Zeichen immer auf der Basis von lexikalischem und damit sprachlichem Wissen erfolgt. Cuxac (2000, 2004; s. ➚ 4.3.3) stellt die Ikonizität in den Mittelpunkt seines Beschreibungsansatzes und geht davon aus, dass sowohl bei produktiven wie auch bei konventionellen Gebärden die Ikonizität bzw. Metaphorizität der bedeutungstragenden Morpheme und ihre Kombinationsmöglichkeiten analysiert und beschrieben werden können. Eine Überprüfung dieser Hypothese wird anhand des Bestands konventioneller Gebärden der Französischen Gebärdensprache (LSF; Girod 1997) zurzeit vorgenommen (Garcia et al. 2008). Wie ein Gebärdenwörterbuch aussehen könnte, das diese Morpheme als Lemmata enthält, hat Bonnal-Vergès (2005) exemplarisch umgesetzt (s. ➚ 5.5.2). In Übereinstimmung mit Schembri (2003) sehen wir die Funktion der Handform produktiver Gebärden in der Repräsentation. Der ikonische Gehalt dient dazu, die Information in Form von Bildern oder Bildaspekten zu kodieren. Bei ikonisch wie auch metaphorisch motivierten Gebärden ist die Beziehung zwischen der Form der Gebärde und Eigenschaften des Redegegenstands der Schlüssel für die richtige Interpretation dieser Gebärde im Äußerungskontext. Insofern stimmen wir auch mit der Bezeichnung ‚property marker‘ von Slobin et al. (2001) überein, auch wenn Slobin et al. die Diskursebene in den Vordergrund ihrer Analyse stellen und nicht die lexikalische. Die Frage, wie diese Bilder erzeugt werden, führte uns zu einer Analyse produktiver Gebärden, die, unabhängig von einer phonologischen, morphologischen oder syntaktischen Kategorisierung, d.h. möglichst theorieneutral, eine Einteilung dieser Gebärden anhand der jeweiligen Bilderzeugungstechnik ermöglichte. Im Vordergrund stand dabei Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 48 wiederum die Frage nach der Funktion der Hand. Im oben aufgelisteten generischen Bedeutungspotential der Flachhand sind die wichtigsten Bilderzeugungstechniken enthalten (s ➚ 4.2.1). Der Vorteil dieser Einteilung ist, dass diese Bilderzeugungstechniken sich gegenseitig ausschließende Kategorien bilden, da die Hand bei der Bilderzeugung nicht verschiedene Funktionen gleichzeitig erfüllen kann. Eine Flachhand kann entweder (substitutiv) einen anderen Gegenstand darstellen oder (manipulativ) die Hand selbst oder (skizzierend) als Zeicheninstrument dienen oder als Index (indizierend) oder als Begrenzungsanzeiger (maßanzeigend) oder mit der Handkante eine Linie (i. S. v. „(Text-)Zeile“) stempeln. Wir gehen davon aus, dass ein kompetenter Gebärdender neben den konventionalisierten Bestandteilen produktiver Gebärden auch über diese Bilderzeugungstechniken verfügt, die er intuitiv einsetzt bei der Produktion und Rezeption von Gebärden. Diese Analyse ist bei produktiven Gebärden, die immer ikonisch bzw. metaphorisch motiviert sind, d.h. deren Form auf ein zugrunde liegendes Bild zurückgeführt werden kann, relativ einfach, sie ist aber auch hilfreich bei konventionellen ikonischen Gebärden, da die Bilderzeugungstechnik die Art der Modifikation bzw. der Reikonisierung konventioneller Gebärden eingrenzt und damit die Möglichkeiten der Kodierung von Bedeutung. Die Ikonizität spielt daher auch bei der Lemmatisierung eine wesentliche Rolle (s. ➚ 4.2.2), z.B. bei der Unterscheidung formgleicher Gebärden, die auf verschiedene zugrunde liegende Bilder zurückzuführen sind und somit als Homonyme verschiedene Einträge im Gebärdenlexikon erhalten. Sie ist ein wesentlicher Schlüssel zum Verständnis des Zusammenhangs zwischen modifizierten Gebärdenformen und ihrer Grundform und eine zusätzliche mnemotechnische Hilfe insbesondere für L2-Lerner. Daher wurden seit dem Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003) im Gebärdenverzeichnis neben den produktiven Gebärden sämtliche konventionellen Gebärden anhand ihres ikonischen Gehalts und der Bilderzeugungstechnik analysiert. Wir haben dabei versucht, […] nicht nur vollständige Bilder ikonischer Gebärden, sondern auch einzelne Bildbestandteile oder Formelemente zu benennen, die sich sinnvoll interpretieren lassen. Die zum Teil sehr abstrakten Assoziationen, die mit den Einzelelementen verknüpft sind, lassen sich manchmal nur schwer mit lautsprachlichen Mitteln beschreiben. Deshalb können die Bildbeschreibungen in einigen Fällen nur als ein Versuch angesehen werden, der visuellen Ausdruckskraft von Gebärden gerecht zu werden. (König et al. 2003:457) Produktive Gebärden wurden zu Beginn der Transkription beim Fachgebärdenlexikon Tischler/Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998) mit einer sogenannten Sammelglosse glossiert, d.h. alle Token produktiver Gebärden erhielten als Etikett den gemeinsamen Glossennamen $MAN. Das Sonderzeichen $ war eine einfache Möglichkeit, bei der alphabetischen Sortierung der Glossen im Gebärdenlexikon alle nichtkonventionellen Gebärdenformen von den Glossennamen für konventionelle Gebärden zu trennen, ‚MAN‘ steht für „manuelle Aktivität“ und wurde aus den Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 49 Glossierungskonventionen von Ebbinghaus/Heßmann (1994b) übernommen. Für die Produktion mussten produktive Gebärden, die in den ausgewählten Übersetzungen von Fachbegriffen enthalten waren, eine eigenständige Glosse erhalten. Dazu wurde in der Regel der Fachbegriff oder ein an das Bild der Gebärde angelehnter Glossenname verwendet, z.B. $MAN-PFANNE10 (). Seit der Transkriptionsarbeiten zum Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003) sind wir dazu übergegangen, sämtliche produktiven Gebärden zu spezifizieren. Ähnlich wie bei den konventionellen Gebärden werden Ziffern als Zusätze benutzt, um formähnliche produktive Gebärden, die gemeinsame morphologische Aspekte aufweisen, zu kennzeichnen. Alle diese Glossen erhalten eine gemeinsame erste Ziffer nach dem Glossennamen, z.B. $MAN-PERSON10 (), $MAN-PERSON17 (). Um verschiedene produktive Gebärden zu kennzeichnen, für die derselbe Glossenname passt, werden die Glossen durch eine verschiedene erste Ziffer, wie bei synonymen Gebärden, gekennzeichnet, z.B. $MAN-PERSON10, $MAN-PERSON20 (). Um daran zu erinnern, dass produktive Gebärden keine Grundform haben, werden immer zwei Ziffern vergeben. In der Datenbank wird die Form der Gebärde in HamNoSys notiert sowie eine Beschreibung des ikonischen Gehalts und die Zuordnung zu einer Bilderzeugungstechnik vorgenommen. Die kontextuelle Bedeutung wird jeweils beim Token eingetragen. Den Glossennamen produktiver Gebärden im Gebärdenverzeichnis der verschiedenen Fachgebärdenlexika wurde anstatt des ‚$MAN-‘ jeweils ein ‚PROD.‘ vorangestellt, um in Erinnerung zu rufen, dass es sich hierbei um eine produktive Gebärde handelt. Zusätzlich wurden konventionelle, produktive und sonstige Gebärden in getrennten Verzeichnissen aufgelistet. 6.1.1.3 Sonstige Zeichen und Zeichensysteme Neben konventionellen und produktiven Gebärden wurden weitere Gebärdenformen, die in der DGS verwendet werden, entweder mithilfe einer Sammelglosse etikettiert oder als separate Einträge im Gebärdenlexikon aufgelistet. Zur Abgrenzung von Glossennamen für konventionelle Gebärden wurde den Glossen jeweils ein Sonderzeichen vorangestellt ($), für eine sinnvolle Sortier- und Suchfunktion wurde ein gemeinsamer Glossenname im Sinne eines „general identifiers“ (Johnston 2010a) vergeben, der bei einigen Gebärden- bzw. Formengruppen analog zu den produktiven Gebärden weiter spezifiziert werden kann. Fingeralphabet In der DGS wird das einhändige Fingeralphabet verwendet (s. Anhang). Das Fingeralphabet ist ein sekundäres Zeichensystem, mit dessen Hilfe sich Wörter buchstabieren lassen. Für jeden Buchstaben wird eine bestimmte Handform vor dem Oberkörper im neutralen Gebärdenraum gezeigt. Die meisten Handformen werden ohne Bewegung Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 50 ausgeführt. Handformen mit Bewegung werden für die Buchstaben J und Z sowie für Umlaute und das ß verwendet. Ebenfalls mit Bewegung werden die Handformen für das SCH, das CH sowie für Doppelkonsonanten und -vokale ausgeführt. In der Regel wird das gefingerte Wort, nicht jedoch die einzelnen Buchstaben wie beim Alphabet gleichzeitig lautlos mitartikuliert. Gefingert werden i. d. R. Eigennamen oder Fremdwörter, wenn sie das erste Mal im Diskurs vorkommen. Bei der wiederholten Bezugnahme auf den Namen oder das Wort kann es sein, dass das Fingern abgekürzt wird und nur noch der Anfangsbuchstabe übrig bleibt. Bei geübten Gebärdensprachverwendern geht der Wechsel der Handformen sehr schnell ineinander über. Gehörlose nehmen fließend gefingerte Wörter auch nicht als Folge isolierter Buchstabenformen wahr, sondern als Gestalt, und können so wesentlich schneller das gefingerte Wort erfassen (s. Akamatsu 1985). Token von Buchstaben, Abkürzungen oder Wörtern, die mit den konventionalisierten Handformen des einhändigen Fingeralphabets gefingert werden, werden mit der Sammelglosse $ALPHA1 etikettiert. Zusätzlich werden beim Token die Buchstaben notiert, die die Handformen repräsentieren. Daneben gibt es aber auch die Möglichkeit, die Buchstaben durch den Einsatz beider Hände zu visualisieren. In der Datenbank sind zurzeit Vorkommen für die Buchstaben B, D, F, G, P, Q, T, U, W und X erfasst. Dieses zweihändige Fingeralphabet lässt sich bei hörenden Kindern beobachten, die es als eine Art Geheimsprache oder Chiffriercode verwenden. Es unterschiedet sich von konventionalisierten zweihändigen Fingeralphabeten wie z.B. dem der Britischen Gebärdensprache (BSL). Bei den meisten Buchstaben wird deren Form durch die beiden Hände nachgebildet. Zum Beispiel haben beim Zeichen für den Buchstaben W beide Hände die L-Handform, sind leicht zur Seite gekippt und berühren sich mit den Daumenspitzen so, dass die Daumen und Zeigefinger die Form des Buchstabens bilden. Einige Zeichen sind nicht auf die Buchstabenform zurückzuführen wie z.B. beim Buchstaben H: Die Handfläche der aktiven Hand streicht über die Handfläche der passiven Hand. Einige dieser Handzeichen sind lexikalisiert, z.B. das Handzeichen für den Buchstaben S in der Gebärde für „September“ (SEPTEMBER2 ). Token, die auf die Verwendung dieser zweihändigen Handformen zur Repräsentation von Buchstaben zurückzuführen sind, werden mit der Sammelglosse $ALPHA2 etikettiert. Weiterhin können Buchstaben mit der skizzierenden Technik auch in die Luft gezeichnet werden wie z.B. das S. Im einhändigen Fingeralphabet ist diese Bilderzeugungstechnik nur beim Buchstaben Z konventionalisiert. Häufig wird auf diese Technik zur Darstellung griechischer Buchstaben zurückgegriffen. Token, die diese Repräsentationsform für Buchstaben verwenden, werden mit der Sammelglosse $ALPHA3 etikettiert. Handformen des Fingeralphabets können auch mit bereits konventionalisierten Gebärden kombiniert werden, z.B. um die polyseme Verwendung einer Gebärde einzuschrän- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 51 ken, indem die neue Gebärde nur noch für eine spezifische Bedeutung verwendet wird. Besonders häufig ist dies in der ASL der Fall. In der DGS ist dieses Verfahren der Gebärdenbildung nicht besonders produktiv und hauptsächlich auf den Einfluss der ASL zurückzuführen. Ein Beispiel einer bereits konventionalisierten Neubildung ist die Gebärde DIDAKTIK1 (). Bei dieser Gebärde wurde die Handform der Gebärde UNTERRICHTEN1 () ersetzt durch die D-Handform aus dem Fingeralphabet. Im Gebärdenlexikon erhalten diese bereits konventionalisierten Gebärden einen eigenen Eintrag. Zusätzlich wird eine Referenz auf zwei Types angelegt, $ALPHA1 + UNTERRICHTEN1, aus denen sich diese Gebärde zusammensetzt. In der Literatur werden diese Gebärden auch als initialisierte Gebärden bezeichnet (vgl. Johnston 1989b:19 und Machabée/Dubuisson 1995). Der Begriff ‚Initialisierung‘ wird in unseren Transkriptionskonventionen jedoch anders verwendet. Initialisierte Gebärden Wir verstehen unter einer initialisierten Gebärde nur spontan gebildete Gebärden, bei denen die Handform mit einer einfachen Bewegung (hin- und herschütteln oder kreisen, gerade Bewegung zur Seite oder nach unten) kombiniert wird. Initialisierung bezieht sich nur auf die produktive, nicht konventionalisierte Verwendungen von Fingeralphabet-Handformen. In der Regel wird diese Gebärde mit einem Ablesewort ausgeführt, um einen Begriff oder einen Namen zu bezeichnen. Die Handform soll das Ablesen erleichtern, indem sie i. d. R. den ersten Buchstaben des Wortes wiedergibt. In der DGS gibt es nur wenige Gebärden wie z.B. EUROPA1 () oder NOVEMBER7 (), die als initialisierte Gebärden lexikalisiert wurden. Token, die auf diese produktive Verwendung des Fingeralphabets zurückzuführen sind, werden mit der Sammelglosse $INIT etikettiert. Zusätzlich werden beim Token die Handform, die Bewegung sowie der Buchstabe notiert, den die Handform repräsentiert. Phonembestimmtes Manualsystem (PMS) Insbesondere ältere Gehörlose verwenden Handzeichen aus dem PMS in einer ähnlichen Funktion wie das Fingeralphabet bei initialisierten Gebärden, d.h. diese Handzeichen dienen dazu, einzelne Buchstaben, vor allem die Anfangs- oder Endbuchstaben von Wörtern, zu repräsentieren. Unter der Leitung von K. Schulte wurde Anfang der 1970er Jahre an der Forschungsstelle für Angewandte Sprachwissenschaft zur Rehabilitation Behinderter der Universität Heidelberg ein geschlossenes System von Handzeichen entwickelt, die die Phoneme des Deutschen repräsentieren, d.h. für jedes Phonem gibt es ein Handzeichen, das „[…] dem Kind Auskünfte über den Bildungsort und die Bildungsart der einzelnen Laute […]“ gibt (Lauck 1981:110; kursiv i. O.). Das PMS ist in erster Linie als eine „Hilfe für das Sprechen“ (Schulte 1980:30) konzipiert worden. Diese „‚Lautgebärden‘“ (Lauck 1981:110) wurden schon früher beim Artikulations- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 52 unterricht mit gehörlosen Kindern eingesetzt, aber erst durch Schulte wurde die Verbesserung der Sprechlehrhilfe durch diese Zeichen experimentell nachgewiesen. Sie sollen, wenn auch in verkürzter Form, optische Informationen über den Sprechvorgang bieten. Durch die grobmotorische Bewegung von Arm und Hand – alle PMS-Gebärden werden einhändig ausgeführt – sollen die feinmotorischen Bewegungen der Sprechorgane gefördert werden. Für den Unterricht wurden DIN-A4-große Kartenblätter entwickelt, die eine Zeichnung des Handzeichens sowie die den Laut repräsentierenden Buchstaben zeigt. Abb. 7: PMS-Zeichen (aus Gielen/Thöne 1974) Der Einsatz der Schrift soll dazu beitragen, „in einem sehr frühen und konsequenten Konditionierungsprozeß […] den instabileren Sprechablauf optisch-gedächtnismäßig zusätzlich zu festigen und das selbsttätige laute Erlesen zu entwickeln“ (Gielen/Thöne 1974:6). Dennoch soll durch die Art der Präsentation im Unterricht deutlich gemacht werden, dass die Zeichen nicht wie das Fingeralphabet die Buchstaben, sondern die Laute repräsentieren. Durch die Bindung an einen Buchstaben bzw. eine Buchstabenfolge, die durch diese Kartenblätter erreicht wird, sind die PMS-Zeichen gleichzeitig eine Ablesehilfe für die Gehörlosen. Den sprachpolitischen und methodisch-ideologischen Hintergrund der oralen Methode führt Bechinger (1969:62) als die eine Voraussetzung für das PMS an: „Der Erwerb der Lautsprache ist für die Eingliederung des Gehörlosen in die hörende Umwelt unentbehrlich.“ Die zweite Voraussetzung ist die Orientierung „an den Phonemen der jeweiligen Muttersprache, nicht aber an den Graphemen“. Wie sehr die Andersartigkeit der Gehörlosen, die mit Gebärdensprache aufwachsen, ausgeblendet wurde, wird an der Verwendung des Begriffs ‚Muttersprache‘ in diesem Zitat deutlich. Handzeichen, die auf das PMS zurückzuführen sind, werden mit der Sammelglosse $PMS gekennzeichnet. Einige Handzeichen wurden lexikalisiert und werden als eigenständige Gebärden glossiert wie z.B. das PMS-Zeichen für den Zischlaut /S/ () das konventionell für die Bedeutungen „Fuß“, „Saft“ und „weiß“ verwendet wird, oder für den Nasallaut /M/ (), das in der DGS zur Visualisierung der Wörter „nur“, „wenn“ und „braun“ verwendet wird. Das im PMS für den Nasallaut /N/ vorgesehene Handzeichen, bei dem Zeige- und Mittelfinger den einen Nasenflügel zuhalten, wurde durch das einfachere /M/-Zeichen ersetzt, bei dem nur der Zeigefinger eingesetzt wird. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 53 DGS-Gebärden für deutsche Prä- und Suffixe Es gibt eine kleine Anzahl von Gebärden, deren Verwendung konventionalisiert ist für die Kontextualisierung deutscher Prä- und Suffixe, d.h. diese Gebärden treten immer in Kombination mit weiteren Gebärden auf. In der Datenbank sind bisher Gebärden für folgende Prä- und Suffixe erfasst: ab-, anti-, ent-, haupt-, heil-, -heit, -in (zur Markierung des Genus), -itis, -kunde, -logie, -los, mikro-, mini-, schwieger-, sonder- und stief-. Glossen für diese Token, die zur Kontextualisierung von Prä- und Suffixen dienen, beginnen mit ‚$WORTTEIL-‘ und werden danach spezifiziert durch das entsprechende Suffix, z.B. $WORTTEIL-HEIT1A (). Neu entwickelte Gebärden Bei der korpusbasierten Erstellung von Fachgebärdenlexika wurden zur Übersetzung von Fachbegriffen in die DGS, für die keine passenden Antworten in den erhobenen Daten vorhanden waren, Gebärden aus erhobenen Gebärden neu kombiniert oder völlig neue Gebärden entwickelt. Token für diese neu entwickelten Gebärden sind introspektiv gewonnene Gebärden, die als Vorlage für die Studioproduktion der Gebärdenfilme aufgenommen und in der Datenbank transkribiert wurden. Die Glossen dieser Token beginnen immer mir ‚$NEU-‘ und werden i. d. R. durch den Fachbegriff, für den diese Gebärde entwickelt wurde, spezifiziert, z.B. $NEU-ÖDIPUS1 ()31. Zeigegebärden Zeigegebärden werden als eine eigenständige Gruppe von Gebärden angesehen, da sie zur Verortung von Redegegenständen im Gebärdenraum dienen oder eine deiktische Referenz und damit eine spezielle grammatische Funktion übernehmen. Sie bilden eine Untergruppe der indexikalischen Gebärden und werden in der DGS nur mit der Zeigefingerhand ausgeführt. Die Token von Zeigegebärden werden mit der Sammelglosse $INDEX etikettiert. Ein Sonderfall ist die Zeigegebärde, die auf den Mund zeigt, während ein Wort artikuliert wird. Damit soll die Aufmerksamkeit des Gesprächspartners auf das Ablesewort gelenkt werden. Diese manuelle Aktivität erfüllt keine grammatische Funktion und hat keine lexikalische Bedeutung. Sie dient der Absicherung der Verständigung und ist in diskurs-pragmatischer Sicht ein zusätzlicher Kommentar des Sprechers zur Äußerung, in diesem Fall bezogen auf das Ablesewort. Die Verwendungen dieser Zeigegebärde sind für die Bedeutung „ablesen“ bzw. als Aufforderung an den Gesprächspartner, auf die Mundbewegungen zu achten und das Wort abzulesen, konventionalisiert und werden daher mit der Glosse LIES-AB1 () etikettiert. 31 Handform und Bewegung dieser neu gebildeten Gebärde sind der Gebärde KONKURRENZ1 () entnommen (Ödipus konkurrierte unbewusst mit dem eigenen Vater um die Liebe seiner Mutter), die Ausführungsstelle auf Stirnhöhe wird in der Amerikanischen Gebärdensprache (ASL) mit „männlich“, „Mann“ assoziiert. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 54 Zur größeren Gruppe der indexikalischen Gebärden zählen alle Gebärden, die auf der indizierenden Bilderzeugungstechnik beruhen (s. ➚ 4.2.1.6). Bei konventionellen und produktiven Gebärden ist der Ort, auf den die Zeigehand – i. d. R. die Zeigefinger- oder die Flachhand, auch Index genannt – zeigt, ausschlaggebend für die jeweilige Bedeutung, die durch diese Gebärden ausgedrückt werden. Ein Beispiel für eine konventionalisierte indexikalische Gebärde ist FINGER3 (), eine produktive indexikalische Gebärde ist z.B. $MAN-ZUNGE10 (), d.h. indexikalische produktive Gebärden werden wie alle anderen produktiven Gebärden mit ‚$MAN-‘ glossiert (s. Kap. 1.5.1.1.2). Typischerweise sind beide Bedeutungen auf den Körper bezogen, da viele indexikalischen Gebärden genau dazu verwendet werden. Für viele Organe oder anatomische Bezeichnungen des Menschen gibt es keine konventionalisierten Gebärden, da der Körper als Modell immer präsent ist, an dem die entsprechende Stelle oder der Sitz des Organs durch ein einfaches Zeigen benannt werden kann. Eine Überschneidung gibt es zwischen Zeigegebärden und Zahlgebärden für Ordinalzahlen beim Aufzählen von verschiedenen Punkten einer Liste oder Aufreihung zum Strukturieren eines Textes. Dabei dient die passive Hand als Modell bzw. Platzhalter, die aktive Hand zeigt mit der Zeigefingerhand auf den jeweiligen Finger, typischerweise beginnend mit dem Daumen in der Bedeutung „erstens“, „erster Punkt“. Die passive Hand kann entweder gleich zu Beginn den Umfang der Liste bzw. Aufzählung anzeigen, d.h. entsprechend eine 1-, 2-, 3-, 4- oder 5-Hand sein, oder sie verändert sich entsprechend mit jedem hinzukommenden Punkt. Bei diesen Gebärden steht die Zählfunktion im Vordergrund. Sie visualisieren eine imaginäre Liste oder haben eine diskursgliedernde Funktion. Liddell (2003:223-242) nennt diese Gebärden „list buoys“ und zählt sie zur Gruppe der Bojen, da i. d. R. die passive Hand über mehrere Gebärden hinweg gehalten wird. Diese physikalische Präsenz dient als konzeptueller Orientierungspunkt und hilft dem Gebärdenden, den Diskurs zu strukturieren. Johnston/de Beuzeville (2008) haben diese Bezeichnung für ihre Transkriptionskonventionen übernommen. Wir gruppieren Vorkommen dieser Art von Gebärden zu den Zahlgebärden und glossieren sie durch ein vorangestelltes ‚$NUM-LIST-‘ (s. u.). Durch die Zuordnung zur indizierenden Bilderzeugungstechnik ist unabhängig von der Glossierung ein schneller Zugriff auf alle konventionellen, produktiven sowie sonstigen Gebärden möglich, die mithilfe dieser Technik gebildet werden. Zahlgebärden Ebenso wie das Fingeralphabet bilden die Zahlgebärden ein sekundäres Zeichensystem, dessen Zeicheninventar begrenzt und weitgehend konventionalisiert ist, wenngleich die Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 55 Variationsbreite größer ist als beim Fingeralphabet.32 Es gibt Gebärden für die Kardinal- und Ordinalzahlen, die mit denselben Handformen, aber verschiedenen Bewegungen ausgeführt werden, sowie für römische Zahlen. Weiterhin können Handformen, die die jeweiligen Zahlen repräsentieren, mit Bewegungen konventioneller Gebärden kombiniert werden. Man spricht auch von sogenannten inkorporierten Gebärden oder Verschmelzungen (blendings). In der Datenbank sind Vorkommen inkorporierter Zahlgebärden bei den Gebärden für „Jahr“, „Monat“, „Woche“, „Tag“, „Stunde“, „Uhr(zeit)“, „(Deutsche) Mark“, „Pfennig“ und „Stockwerk“ erfasst. Ebenso kann eine Anzahl von mehreren Personen mithilfe der Handform für die Personenzahl und einer kreisförmigen, horizontalen Bewegung ausgedrückt werden. Auch die mathematischen Funktionen Multiplikation und Division werden durch inkorporierende Gebärden repräsentiert. Im Unterschied zu echten Verschmelzungen, bei denen die beiden Bestandteile der Gebärde eigenständige Lexeme sind wie z.B. bei der Gebärde SCHREIBTELEFON1 (), ist die Bewegung bei inkorporierten Zahlgebärden kein Lexem, sondern entspricht einem gebundenen Morphem und gibt z.B. die Zeitspanne an. Die unflektierte Form, z.B. für „Woche“, ist formgleich mit der flektierten Form „eine Woche“ mit der Handform für die Zahl Eins. Das Bildungsprinzip dieser Gebärden ist analog zu initialisierten Gebärden (s.o.). Bereits erwähnt wurde eine Sonderform der Ordinalzahlen, die in Form einer Auflistung vorgenommen wird (s.o. Zeigegebärden). Durch die Handform der passiven Hand kann der Umfang der Liste ausgedrückt werden, oder aber die passive Hand erweitert die Liste durch das Ausstrecken eines weiteren Fingers. Die passive Hand wird gehalten, während die aktive Hand den jeweiligen Finger berührt und dann weitere Gebärden ausführt. Glossen für Zahlgebärden beginnen immer mit ‚$NUM-‘ und werden für die jeweilige Zahl spezifiziert, z.B. $NUM-ACHT1A. Varianten werden wie bei konventionellen Gebärden durch einen zusätzlichen Buchstaben nach der Zahl gekennzeichnet. Inkorporierte Zahlgebärden erhalten einen weiteren Zusatz vor dem Zahlwort, ebenso Glossen für römische Zahlen, Ordnungszahlen und Aufzählungen in Listenform. 32 Von den knapp 300 erfassten Zahlgebärden gibt es zu 90 Gebärden 129 Formvarianten. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 56 Glosse (vorangestellt) Verwendung Glosse (vorangestellt) Verwendung $NUM Zahlgebärde Anzahl von Personen $NUM-BRUCH $NUM-JAHR $NUM-LIST Nenner einer Bruchzahl $NUM-MAL $NUM-MARK $NUM-MONAT $NUM-ORD Zahl + Multiplikation $NUMPERSONENZAHL $NUM-PFENNIG $NUM-RÖM $NUMSTOCKWERK $NUM-STUNDE $NUM-UHR $NUM-WOCHE Zahl + Jahr Ordnungszahl in Form einer Listenaufzählung Zahl + DM Zahl + Monat Zahl + Pfennig römische Zahl 33 Zahl + Stockwerk Zahl + Stunde Zahl + Uhrzeit Zahl + Woche Ordnungszahl Tabelle 4: Glossen für Zahlgebärden Gesten Als Gesten werden Bewegungen der Hände, Arme und des Kopfes verstanden, die die Kommunikation unterstützen oder auch ersetzen können. Gesten werden zu den Mitteln der nonverbalen Kommunikation gezählt, d.h. sie sind negativ definiert als körperliches, absichtsvolles oder unbewusstes kommunikatives Verhalten, das nichtsprachlich ist, d.h. nicht Teil des Sprachsystems. Kendon (2008) weist darauf hin, dass dieses Verständnis von Gesten erst mit der Etablierung der Linguistik als eigenständige Disziplin Ende des 19. Jahrhunderts aufkam, dies wiederum erst möglich wurde durch die Reduzierung von Sprache auf das Segmentierbare und durch die Schrift Darstellbare (s. ➚ 3.7.2). Zuvor hatten Philosophen und Anthropologen wie z.B. Condillac und Tylor großes Interesse an Gesten und Gebärdensprachen gezeigt und Gesten als Teil des menschlichen Sprachvermögens aufgefasst. Nach Kendon haben weiterhin die Schriften von C. Darwin – Descent of Man (1871) und Expression of the Emotions in Man and Animals (1872) – dazu beigetragen, dass Gebärdensprachen als primitives Gestikulieren abgewertet wurden, da die Sprache, und damit war nur die orale Kommunikation gemeint, den Menschen vom Tier unterscheidet und zur Entwicklung der intellektuellen Fähigkeiten des Menschen geführt hat. McNeill (1985) gelang es mit seinem Aufsatz „So you think gestures are nonverbal?“, das Interesse wieder auf die koverbalen oder sprachbegleitenden Gesten zu lenken, indem er nachwies, dass Gesten zur Bedeutung sprachlicher Äußerungen beitragen und zeitgleich mit den Wörtern im kognitiven Prozess der Sprachverarbeitung entstehen. Sie sind Teil dieses unter dem Stichwort thinking for speaking bekannten Prozesses, der im Rahmen der kognitiven Psychologie und der Psycholinguistik große Beachtung fand. Diesem Forschungsansatz liegt die Annahme zugrunde, dass bei der Sprachplanung und -produktion Bedeutung nicht nur 33 Durch der Umstellung der Währung im Jahr 2001 auf Euro und Cent wird diese Form, ebenso wie die inkorporierte Form für „D-Mark“ nicht mehr benötigt. Mittlerweile haben sich für die Bedeutungen „Euro“ und „Cent“ ebenfalls inkorporierende Zahlgebärden entwickelt. Ob diese bereits konventionalisiert sind, wird man nach Abschluss der Basistranskription im Rahmen des DGS-Korpus-Projekts besser beurteilen können. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 57 in segmentierbaren sprachlichen Einheiten, d.h. in Wörtern, sondern auch in Bildern kodiert wird. Diese Bilder drücken sich in Gesten aus, die oft schon vor den Wörtern erkennbar sind (preparation phase) und deren Höhepunkt (stroke phase) zeitgleich mit den Wörtern einsetzt. Im Unterschied zu sprachlichen Einheiten sind Gesten oft als holistische, nicht kombinierbare Einheiten beschrieben, deren Bedeutung stark vom Kontext abhängt und deren Form nicht konventionalisiert ist. Sie werden auch als idiosynkratisch bezeichnet, da die Gesten verschiedener Personen nicht gleich sind und auch dieselbe Person Gesten immer etwas verschieden ausführt. McNeill (1992) teilte die sprachbegleitenden Gesten in Anlehnung an die Zeichentheorie von C. Peirce in vier verschiedene Kategorien ein: • • • • ikonische Gesten: Sie repräsentieren bildhaft ein konkretes Objekt oder eine Handlung und sind ko-expressiv, d.h. sie ergänzen die sprachliche Information, indem sie einen anderen Aspekt des Gegenstands oder der Handlung zeigen; metaphorische Gesten: Sie geben abstrakte Inhalte in konkreten Bildern wieder, z.B. indem eine Idee gehalten oder ergriffen wird, als ob sie ein Gegenstand wäre; deiktische Gesten: Die prototypische Zeigegeste wird mit der Zeigefingerhand ausgeführt und zeigt auf einen bestimmten Ort im Raum. Dadurch wird ein Objekt oder eine Handlung verortet und in Beziehung gesetzt zu einem Referenzpunkt, dem Sprecher bzw. dem Aktanten. Zeigen (pointing) kann man jedoch auch mit einem anderen Körperteil, z.B. dem Kopf, der Nase, den Lippen34, der Schulter, dem Ellbogen, dem Fuß oder mit dem Blick. Weiterhin kann man nicht nur auf physikalisch anwesende Objekte zeigen, sondern auch auf virtuelle Redegegenstände. McNeill (2005:40) stellt fest, dass dieses „abstract pointing“ bei Erwachsenen wesentlich häufiger vorkommt als das Zeigen auf vorhandene Dinge; „beat“-Gesten: Sie werden in Anspielung an den Taktstock des Dirigenten auch „baton“-Gesten genannt und beziehen sich auf eine rhythmische Bewegung der Hand, die dem Sprechrhythmus folgt. Später verwarf McNeill diese Einteilung, da diese Kategorien dazu verleiten, eine Geste nur der einen oder der anderen Kategorie zuzuordnen. Tatsächlich haben die meisten Gesten mehrere Facetten und lassen sich mehreren dieser Kategorien zuordnen, da z.B. eine ikonische Geste auch deiktisch sein kann, eine deiktische Geste auch metaphorisch. Welcher semiotische Aspekt überwiegt, ist schwer zu sagen, d.h. es lässt sich keine hierarchische Ordnung herstellen. Daher schlägt McNeill vor, anstatt von Kategorien von Dimensionen zu sprechen. 34 „Lip pointing“ als Form der Zeigegesten ist in der Nicaraguanischen Gebärdensprache konventionalisiert und wird systematisch verwendet wie manuelle Zeigegebärden (vgl. Obando 2000). Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 58 Die sprachbegleitenden Gesten fassen Ekman/Friesen (1969), die eine funktionale Einteilung von Gesten aufstellten, unter die Illustratoren. Daneben gibt es Embleme, die kulturspezifisch sind und eine festgelegte Bedeutung haben35, die Regulatoren, die zur Steuerung der Interaktion dienen, z.B. indem man durch eine Geste eine Unterbrechung der eigenen Sprechhandlung abwehrt, und die Adaptoren, die sich nicht auf den Kommunikationsinhalt und die Interaktion beziehen lassen, sondern Ausdruck des inneren Zustands des Sprechers sind, der sich z.B. in Handbewegungen zeigt, die als nervös interpretiert werden. Kendon (2008), der in seinen Überlegungen die Entwicklung der Gebärdensprachforschung resümiert und sich vor allem auf jüngere Arbeiten stützt, die die Ikonizität und Graduierbarkeit von Gebärden in den Vordergrund stellen (Cuxac 2000, Liddell 2003a), geht die durch die Arbeiten von McNeill erreichte Rehabilitierung der Gestenforschung, die dazu geführt hat, dass gestisches Verhalten mittlerweile als universal und als integraler Bestandteil sprachlicher Äußerungen angesehen wird, nicht weit genug. Gesten werden immer noch als Zusatz angesehen, eine Sichtweise, die durch die skriptizistische Sprachauffassung diktiert wird. Die Erforschung der Gebärdensprache bietet seiner Ansicht nach die Möglichkeit, sich von dieser Sichtweise zu lösen. However, if there never had been a written form of spoken language, if all we could do was to examine language only in its enacted form – which is all we can ever do if we confine ourselves to sign languages – we might come to see how the add-on of gesture is not an add-on at all, but a component integral to the functioning of the system, even if it is a component whose contribution to this functioning may vary according to communicative circumstance and speakers’ rhetorical aims. (Kendon 2008:358) Emmorey (1999) dagegen beantwortet die Frage „Do signers gesture?“ im klassischen Schema, indem sie Gesten als „add-ons“ von Lautsprachen ansieht und Gebärdensprache in der etablierten strukturalistischen Sicht beschreibt. Sie kontrastiert Eigenschaften lautsprachbegleitender Gesten mit Eigenschaften von Gebärden und macht gestische Elemente in der ASL aus, die durch Handzeichen, Körperhaltung bzw. -bewegung und Gesichtsmimik ausgedrückt werden. Bei den manuellen Gesten unterscheidet sie zwischen Zeigegesten, die nicht zum Pronominalsystem der ASL gehören, und ikonischen Handzeichen, die auch als Klassifikatorprädikate interpretiert werden könnten. Im Unterschied zu sprachbegleitenden Gesten sind diese ikonischen Handzeichen stärker nachahmend und konventionaliserter und können nur im Wechsel mit Gebärden ausgeführt werden, da Gesten und Gebärden in demselben Medium artikuliert werden. Heßmann (2001a:75) definiert Gesten als „Bewegungen der Arme und Hände […], wie sie typischerweise die mündliche Kommunikation Hörender begleiten“ und führt damit, wie auch schon Marchark (1994), als Unterscheidungsmerkmal gegenüber Gebärden die 35 Eine umfangreiche Zusammenstellung und Beschreibung solcher Embleme wurde von der Arbeitsstelle für Semiotik der TU-Berlin erarbeitet. Eine Zusammenstellung von 30 Gesten findet man unter der URL: http://www.ims.uni-stuttgart.de/projekte/nite/BLAG/index.html. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 59 Zugehörigkeit zur Kommunikation Hörender an. Gehörlosen sind diese „nonverbalen“ sprachlichen Mittel Hörender unmittelbar zugänglich. Es ist daher auch nicht verwunderlich, dass Gesten Hörender eine Quelle der Gebärdenbildung sind (vgl. Becker 2003). Heßmann (2001a) merkt bei fast 10 % der über 900 Gebärden an, dass sie einen möglichen gestischen Ursprung haben. Konventionalisierte Gebärden mit gestischem Ursprung wie die Gebärde BLEIBEN1A () oder VOGEL-ZEIGEN, ein in Deutschland bekanntes Emblem, werden jedoch als Gebärden und nicht als Gesten klassifiziert. Becker (2003:197-201) unterscheidet folgende fünf Verwendungsarten von Gesten: • gesprächsregulierende Gesten, • Gesten im Rahmen des expressiven Körperverhaltens, z.B. um eine bestimmte Person zu repräsentieren, • ikonische Gesten, die sich wie expressives Körperverhalten nur graduell von produktiven Gebärden unterscheiden, z.B. eine skizzierende Gebärde/Geste in der Bedeutung „sooo groß“), • grammatikalisierte Gestik bzw. Mimik, z.B. zur Markierung eines Fragesatzes, der Bejahung (Kopfnicken) oder Verneinung (Kopfschütteln), • lexikalisierte Gesten, z.B. FAUST-ZEIGEN1 (), die konventionell für die Bedeutungen „Kommunismus“ und „Feminismus“ verwendet wird. Die Identifikation von Gesten ist eine ähnliche Gratwanderung wie zwischen etablierten und produktiven Gebärden. Die Übergänge sind fließend, d.h. gradueller Natur. Abgesehen davon, dass Hörende diesselben oder sehr ähnliche körperliche Aktivitäten beim Sprechen zeigen, werden Gesten negativ bestimmt als nichtkonventionelle Gebärden (s. Kap. 6.1.1.1) und als nichtproduktive Gebärden (s. Kap. 6.1.1.2), da sie nur teilweise segmentiertbar sind. Gesten sind zwar kulturspezifisch, es gibt jedoch, sieht man von den Emblemen ab, innerhalb einer kulturellen Gemeinschaft keine auf Konvention beruhende Verbindung zwischen der Form einer Geste und einer bestimmten Bedeutung. Zum einen kann das gleiche gestische Verhalten je nach Kontext unterschiedlich interpretiert werden, zum anderen ist die Variation von Handbewegungen, die zum Ausdruck von Gefühlen wie Angst, Wut oder Scham eingesetzt werden, groß. Gesten werden als spontane, besonders ausdrucksstarke, ganzheitliche körperliche Aktivität im Kontext interpretiert. Da sie jedoch wie produktive Gebärden ein Verhalten oder eine körperliche Reaktion direkt visuell darstellen können, ist die Abgrenzung in manchen Fällen schwierig. Heßmann (2001a:77) führt als Beispiel die Gebärde AUGEN-ZU an, bei der die gebärdende Person kurz die Flachhand vor die Augen hält. Da das Ziel der Glossentranskription die Lemmatisierung ist, besteht die Tendenz, solche Gebärden als lexikalisch anzusehen, sobald die Vermutung aufkommt, dass diese Form nicht idiosynkratisch gebildet wurde, sondern von mehreren Gehörlosen in der Bedeutung „unbeirrt an einer Sache festhalten“ verwendet wird. Möglicherweise ist sie Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 60 durch die Redewendung „Augen zu und durch!“ motiviert und könnte daher auch als sogenannte Spezialgebärde glossiert werden (s. Kap. 6.1.1.1). Die Abgrenzung zu produktiven Gebärden ist ebenfalls problematisch. Emmoreys Bemerkung, dass manuelle gestische Elemente stärker nachahmend und konventionalisierter sind als Gesten Hörender, deutet darauf hin, dass die Tendenz besteht, Gebärden wie AUGEN-ZU als produktive Gebärden, in Emmoreys Terminologie als Klassifikatorprädikate, zu identifizieren. Hoiting/Slobin (2007) weisen darauf hin, dass die Spracherwerbsforschung in Bezug auf den Erwerb produktiver Gebärden vor eine neue Herausforderung gestellt ist, da gehörlose Kinder im Unterschied zu hörenden Kindern im gestischen Verhalten ihrer Umgebung gleiche oder ähnliche ikonische Elemente vorfinden wie in der Gebärdensprache, die sie beherrschen lernen. Zwischen dem „iconic enactment“ und der systematischen Bildung und Verwendung produktiver Gebärden scheint es einen nahtlosen Übergang zu geben, der möglicherweise nicht bemerkt wird. Handbewegungen, die die Interaktion steuern (Regulatoren), werden von uns als Gesten identifiziert und mit der Sammelglosse $GEST gekennzeichnet. Zusätzlich wird die Bedeutung der Geste im Kontext angegeben. Adaptoren werden nicht erfasst, da sie sich nicht auf den Kommunikationsinhalt oder die Interaktion beziehen. Neben Zeigegesten, die als Zeigegebärden identifiziert werden (s.o.), ist die am häufigsten identifizierte Geste die Offene-Hand-Geste, in Anlehnung an Ebbinghaus/Heßmann (1994b) als $GEST-OFF () glossiert. Sie kann regulativ eingesetzt werden, häufig am Ende einer Äußerung, und dem Gesprächspartner signalisieren, dass der eigene Gedankengang zu Ende ist und er die Möglichkeit hat, diesen zu kommentieren, oder als Unterbrechung und kurzes Innehalten. Sie dient aber auch als Ausdruck der eigenen Ratlosigkeit, Unentschlossenheit oder der Enttäuschung. Heßmann (2001a:79) weist darauf hin, dass die lexikalisierten Fragegebärden WAS und WO, beides konventionelle Verwendungen der Gebärde WAS1 (), vermutlich von dieser Geste abgeleitet sind und empirisch ein deutlicher Formunterschied dieser Gebärden zur gestischen Ausführung schwer nachweisbar ist. Eine weitere als Geste identifizierte Handbewegung ist die Visualisierung der Silbenanzahl von Wörtern, glossiert als $GEST-SILBE. Dabei kann die wiederholte bogenförmige Bewegung der Zeigefingerhand oder die wiederholte, versetzte Bewegung der F-Hand nach vorne entweder unspezifisch mehrere Silben andeuten oder die Anzahl der Silben genau angeben. Als gestische Elemente werden Kopfbewegungen identifiziert, insbesondere das Kopfnicken ($GEST-KOPFNICKEN), das als Bejahung eingesetzt wird, und das Kopfschütteln ($GEST-KOPFSCHÜTTELN) in der Bedeutung einer Verneinung, wenn diese Gesten ohne eine zeitgleich ausgeführte Gebärde vorkommen. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 61 Repräsentierender ganzheitlicher Körperausdruck In einigen elizitierten Antworten werden Handzeichen zusammen mit einer entsprechenden Körperbewegung oder -haltung und einem mimischen Ausdruck ausgeführt, die wesentlich zur Bedeutung der Gebärde beitragen. Diese wird durch ein ganzheitliches körperliches Verhalten repräsentiert. Zum Beispiel wird die Bedeutung „Gleichgewichtsstörung“ quasi-pantomimisch durch das seitliche Hin- und Herschwanken des Oberkörpers mit zur Seite ausgebreiteten Händen dargestellt. Die Bedeutung kann auch allein durch gestische und mimische Aktivität ausgedrückt werden wie z.B. bei der DGS-Entsprechung für „Schleudertrauma“, bei der der Kopf ruckartig nach hinten gezogen wird, oder „Hospitalismus“, die die typischen wiederholten kurzen Vor- und Rückwärtsbewegungen des Oberkörpers zeigt. Dieser ganzheitliche Körperausdruck wird im Glossennamen mit ‚$REP-‘ gekennzeichnet, ein Kürzel, das von Ebbinghaus/Heßmann (1994b) übernommen wurde, und durch die jeweilige Bedeutung spezifiziert, z.B. $REP-HOSPITALISMUS1 (). Die angeführten Beispiele sind spontane Antworten von Informanten auf die Frage nach DGS-Entsprechungen für Fachbegriffe und daher kontextarm, da sie nicht eingebettet sind in eine zusammenhängende Äußerungssequenz. Da die Glossentranskription zum Ziel hat, alle Äußerungseinheiten auf der lexikalischen Ebene zu identifizieren, müssen Vorkommen, die durch einen ganzheitlichen Körperausdruck Kommunikationsinhalte vermitteln, ebenso bei der Transkription von DGS-Texten glossiert werden. Anschließend kann eine quantitative und qualitative Analyse vorgenommen werden, die neben mimisch-gestischen Elementen, auf die die Glossierung schon hinweist, insbesondere den Äußerungskontext und das Blickverhalten des Gebärdenden berücksichtigen muss. Auf der Diskursebene wird dieses „expressive Körperverhalten“ (Ebbinghaus/Heßmann 1989:89-91) in der Gebärdensprachforschung als ‚constructed action‘ (CA) bezeichnet (Winston 1991, Metzger 1995). Diese Äußerungseinheiten sind fester Bestandteil gebärdensprachlicher Äußerungen und kommen im steten Wechsel mit konventionellen Gebärden vor oder beziehen diese mit ein, unabhängig von der Textsorte, wenngleich besonders häufig bei Erzählungen oder Schilderungen von Erlebnissen. Daher werde ich Folgenden näher auf diese Äußerungseinheiten eingehen. Ganzheitliches körperliches Ausdrucksverhalten ist der Grund, warum Gebärdensprachen zu Unrecht als Pantomime und damit als Nicht-Sprachen abgewertet wurden. Ebbinghaus/Heßmann (1991) bezeichnen diese Sequenzen als „gebärdensprachliche Inszenierung“, Heßmann (2001a:110) spricht vom „Prinzip der Körperdarstellung“, durch das pantomimische Elemente in systematischer Weise in den gebärdensprachlichen Diskurs eingebunden werden. Hartmann (2006:5) führt noch weitere Bezeichnungen an, unter denen diese Ausdrucksform in Gebärdensprachen untersucht wurde: Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 62 Rollenwechsel bzw. Rollenspiel, Pantomime, role shift, body classifier, transfer of person – im Original (Cuxac 2000) transfert de personne – und Action Performative. Gestützt auf die Arbeiten von Metzger und Fischer/Kollien (2006) fasst Hartmann (2006:75-78) die Merkmale der CA, die neben formalen immer auch inhaltliche Kriterien beinhalten, zusammen. Demzufolge gehören zu den Formmerkmalen der Körper des Gebärdenden, der ganz oder zum großen Teil an der Darstellung beteiligt ist, und der Blick, der sich vom Gegenüber abwendet und zum Blick des Protagonisten wird oder zu dem des Erzählers, der die Handlung zeitgleich kommentiert. Die Darstellung muss inhaltlich in einen Kontext eingebettet sein, in dem es einen Protagonisten gibt, dem die CA zugeschrieben werden kann. Ebenso muss es eine mentale Szene geben, die entweder real stattgefunden hat oder fiktiv ist, in der die Handlungen des Protagonisten stattfinden. Sind die letzten beiden Kriterien nicht erfüllt, dann handelt es sich um ein gestisches Verhalten des Gebärdenden, das sich auf die aktuelle Situation bezieht. CA ist als Gliederungseinheit des Diskurses anzusehen, da sie entweder ganz ohne lexikalische Einheiten auskommt oder konventionelle und produktive Gebärden integriert und sich auch über mehrere Gebärden erstrecken kann. Insbesondere die räumlichen Parameter direktionaler Verben, so die These von Ebbinghaus (1996), werden in Bezug auf den szenischen Gehalt einer Äußerung ausgeführt und können als syntaktisch aufgeladene Vektoren beschrieben werden. Diese Inszenierungen übernehmen die Funktion der Anschauung, nach dem Prinzip, dass Kommunikationsinhalte, die visuell sichtbar gemacht werden können, mit geeigneten körperlichen Mitteln analog repräsentiert werden. Konventionelle Gebärden übernehmen die Funktion der Benennung (vgl. Ebbinghaus/Heßmann 2000). Sie dienen dazu, virtuelle Objekte, Personen oder abstrakte Redegegenstände einzuführen, die zum Aufbau der Inszenierung benötigt werden. „Die harmonische Einheit von gebärdensprachlichen Szenarien und direktionalen Verben beruht letztlich auf dem ikonischen Potential von Gebärden“ (Ebbinghaus 1996:551). Diese Sichtweise, hier bezogen auf direktionale Verben als Gegenstand der Untersuchung, deckt sich mit dem Beschreibungsansatz von Cuxac (s. ➚ 4.3.3), der in der Ikonizität das Organisationsprinzip von Gebärdensprachen sieht, das mit dem aus der Erforschung von verschrifteten Lautsprachen gewonnenen Instrumentarium der Linguistik nicht angemessen beschrieben werden kann. Cuxac teilt den gebärdensprachlichen Diskurs ebenfalls in zwei Bestandteile ein, die im steten Wechsel vorkommen. Cuxac (2000:29) spricht von „continuels passages“ oder „dem ständigen Kommen und Gehen zwischen zwei Darstellungsweisen im gebärdensprachlichen Diskurs“ (Cuxac 2000:184; Übers. R. K.)36, was Sallandre (2001; 2003:120), die Cuxacs Beschreibungsansatz weiter ausbaut, übernimmt. Nach Cuxacs Theorie der ontogenetischen und 36 „[…] le va et vient discursif constant entre les visées“. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 63 phylogenetischen Entwicklung von Gebärdensprachen kommt es zu einer funktionalen Aufspaltung in Äußerungsabschnitte, die Bedeutung nicht ikonisch, und solche, die das Gemeinte absichtsvoll ikonisch darstellen. Für die nichtikonische Darstellung werden die konventionellen Gebärden – Cuxac spricht von Standardgebärden („signes standards“) bzw. von „Wort-Gebärden“ („signes-mots“; Cucax/Pizzuto (2010:44) – eingesetzt, für die ikonische Darstellung die Strukturen der großen Ikonizität („structures de grande iconicité“). Diese Strukturen teilt er in drei verschiedene Transfers ein. Da für Cuxac manuelle Zeichen, mimisch-gestischer Ausdruck und Blick zusammengehören, wobei der Blick konstitutiv ist für die Zuordnung manueller Zeichen zu den Transfers, spricht er nicht von produktiven Gebärden und CA. Zwei dieser Transfers erfüllen Funktionen, die sich in der Beschreibung produktiver Gebärden wiederfinden: Sie zeigen ein Objekt so, wie es aussieht (Transfer der Größe und Form) oder wie es sich bewegt (Transfer der Situation). Der dritte Transfer stimmt mit den Merkmalen der CA überein: Der Gebärdende schlüpft in die Rolle eines Protagonisten und verhält sich so, als ob eine Person etwas tut oder erlebt (Transfer der Person). Nach Cuxac entfaltet sich das ikonische Potential von Gebärdensprachen auf allen sprachlichen Ebenen. Dadurch, dass die meisten Gebärden ikonisch motiviert sind, ist der fließende Übergang von der nichtikonischen Darstellungsweise – durch die Verwendung konventioneller Gebärden – zu der ikonischen Darstellungsweise37 – durch die genannten Transfers – erst möglich. Im Unterschied zu Ebbinghaus/Heßmann, die Gebärdensprachen als eine Kombination verschiedener semiotischer Zeichensysteme ansehen, ist Cuxacs Anspruch, die ikonisch motivierten Strukuren von Gebärdensprachen als sprachliche, d.h. linguistische Einheiten, zu rehabilitieren. Artikulation eines Ableseworts ohne manuelle Form Vorkommen, bei denen die Bedeutung ausschließlich durch das Ablesewort artikuliert wird, d.h. ohne ein zeitgleich ausgeführtes manuelles Zeichen, werden mit der Sammelglosse $ORAL etikettiert. Dies ist z.B. der Fall, wenn die Informanten keine dazu passende Gebärde finden können. Überlagerung verschiedener Gebärden (Koartikulation) Es gibt Sequenzen, bei denen die Handform einer Gebärde gehalten wird, damit die nachfolgende Gebärde, mit der aktiven Hand ausgeführt, darauf Bezug nehmen kann. Die gehaltene, passive Hand kann i. S. v. Liddells (2003) Bojen als konzeptueller Orientierungspunkt dienen und damit den Diskurs strukturieren oder inhaltlich zur Bedeutung der mit der aktiven Hand ausgeführten Gebärde beitragen. Im letzteren Fall 37 Für Cuxac (2000) liegen die Standardgebärden außerhalb einer ikonisierenden Darstellungsweise („hors visée iconicisatrice“), die Transfers gehören zur ikonisierenden Darstellungsweise („visée iconicisatrise“). Sallandre (2003) spricht nicht von ikonisierender, sondern illustrativer Darstellungsweise („visée illustrative“). Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 64 handelt es sich um eine Koartikulation, die passive Hand wesentlich zur Bedeutung der Gebärde beiträgt und nicht weggelassen werden kann. Handformen der passiven Hand, die aus der vorangegangenen Gebärde stammen und gehalten werden, da sie entweder die Funktion einer Boje haben oder inhaltlich zur Bedeutung der aktuell ausgeführten Gebärde beitragen, werden mit der Sammelglosse $HOLD gekennzeichnet.38 Im Unterschied dazu werden zwei zeitgleich ausgeführte Gebärden durch die Angabe der Glossen in der aktiven und der passiven Hand gekennzeichnet. Bleibt die Hand aus der vorangegangenen Gebärde stehen, ohne in einem inhaltlichen oder funktionalen Bezug zur aktuell ausgeführten Gebärde zu stehen, dann wird dies durch ein einheitlich verwendetes HamNoSys-Symbol () beim Token als Formabweichung notiert.39 6.1.1.4 Modifikation lexikalischer Gebärden Lexikalische Gebärden können in ihrer Form verändert werden, um die konventionalisierte Bedeutung dieser Gebärde zu spezifizieren oder zu erweitern. Diese bedeutungsrelevante Formveränderung wird Modifikation genannt. Sie kann durch die Veränderung eines oder mehrerer Parameter herbeigeführt werden oder durch die zweihändige Ausführung einer einhändigen Gebärde. Der Zusammenhang zur Grundform ist durch das der Gebärde zugrunde liegende Bild gegeben, da die Formveränderung immer mit einer Veränderung des ikonischen Gehalts einhergeht (s. ➚ 4.2.2.5). Viele Modifikationen ergeben sich dadurch, dass Gebärden im Gebärdenraum lokalisiert oder ausgerichtet werden. Sie dienen dazu, grammatische oder semantische Bezüge herzustellen. Nach Ebbinghaus (1996) werden direktionale Verben in Bezug auf den szenischen Gehalt einer Äußerung ausgeführt (s.o. 6.1.1.3: Repräsentierender ganzheitlicher Körperausdruck). In Abhängigkeit von der syntaktischen Funktion kann dasselbe, von der Grundform abweichende Formmerkmal verschiedene Bedeutungen ausdrücken. Zum Beispiel kann die wiederholte Bewegung einer verbal verwendeten Gebärde wie BESCHEID1A (), häufig in Verbindung mit einer expressiven Mimik, die intensiviterative oder auch durative Aktionsart ausdrücken mit der Bedeutung „immer-wieder Bescheid sagen“. Neben der Spezifizierung des zeitlichen Verlaufs und der Intensität der Handlung kann die Wiederholung auch zur Pluralisierung genutzt werden, sowohl bei nominaler als auch bei verbaler Verwendung von Gebärden. In Kombination mit einer räumlich versetzten Wiederholung der Gebärde kann der Distributivaspekt von Gebärden ausgedrückt werden (vgl. Heßmann 2001a:54-61). Im Unterschied zur ASL, 38 39 Da eine gehaltene Gebärde auch durch eine zweihändige Gebärdensequenz unterbrochen und im Verlauf der Äußerung wieder aufgenommen werden kann (resume hold), ist zur quantitativen und qualitativen Analyse solcher Hold-Sequenzen eine zusätzliche Annotation erforderlich, die Vor- und Rückverweise ermöglicht und somit bedeutungsseitig mehrere Hold-Glossierungen als eine Hold-Sequenz erfasst. Johnston/de Beuzeville (2008:18-19) unterscheiden ebenfalls zwischen bedeutungsrelevanter Koartikulation, die immer glossiert wird, und nicht bedeutungsrelevanter Artikulation der passiven Hand (Spiegelung, Antizipation, Perseveration), die weder glossiert noch annotiert wird. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 65 in der nach Supalla/Newport (1978) eine verkürzte wiederholte Bewegung die Derivation vom Verb zum Nomen markiert, scheint es in der DGS kein vergleichbares formales Kriterium zu geben, das eine Kategorisierung von Gebärden zulässt. Nach Johnston/Schembri (1999:148-153) ist in Auslan der Unterschied zwischen einer verbalen und nominalen Verwendung ebenfalls nicht formal markiert. Die meisten Gebärden sind multifunktional und können sowohl nominal, verbal oder in adjektivischer Funktion verwendet werden. In der Lautsprachlexikographie werden die verschiedenen Wortarten als einzelne Lemmata aufgelistet, die flektierten Formen jedoch nicht, da sie anhand von Flexionsparadigmen, die in der Grammatik beschrieben sind, einer Stammform zugeordnet werden können. Die Unterscheidung zwischen einer Derivations- und einer Flexionsmorphologie ist daher entscheidend für die Lemmaselektion. Johnston/Schembri (1999:143144) weisen darauf hin, dass diese Unterscheidung in Gebärdensprachen oft nicht getroffen werden kann. Neben den bereits genannten Gründen, dass entweder das formale Unterscheidungskriterium fehlt oder dieselbe Formveränderung in Abhängigkeit vom Kontext verschiedene Bedeutungsaspekte ausdrücken kann, führen die Autoren als dritten Grund die Besonderheit von Gebärdensprachen an, dass jeder Formparameter wiederum bedeutungstragend sein kann, die Unterscheidung zwischen Phonemen und Morphemen eine Frage der Perspektive und eine direkte Analogie zu Strukturprinzipien von Lautsprachen somit nicht gegeben ist. Ähnlich wie Erlenkamp (2000) für die DGS stellen die Autoren für Auslan fest, dass die meisten Gebärden multifunktional sind. Die Praxis der Glossierung darf nicht dazu führen, in unreflektierter Weise die Wortart des als Glossennamen gewählten Wortes auf die damit etikettierte Gebärde zu übertragen (s. ➚ 3.7.4). Analog zu Wörtern unterscheiden Johnston/Schembri (1999:142-176) zwischen einer internen und einer externen Modifikation. Bei der internen Modifikation einer Gebärde werden einer oder mehrere Formparameter – die Autoren sprechen von fünf Phonomorphemen oder Komponenten, die neben den vier manuellen Parametern auch die nonmanuelle Komponente umfassen – verändert. Zusätzlich kann eine Modifikation auch durch die Veränderung der Anzahl der Hände erreicht werden. Zum Beispiel kann eine zweihändige Ausführung einer in ihrer Grundform einhändigen Gebärde eine Intensivierung bewirken. Johnston & Schembri teilen die interne Modifikation wiederum ein in Veränderungen in Bezug auf die Lokation, die Art und Richtung der Bewegung oder die Orientierung sowie auf nonmanuelle Merkmale und Veränderungen in Bezug auf die Handform und signifikante Ausführungsstellen am Körper oder im Gebärdenraum, da letztere häufiger zu Lexikalisierungen führen als erstere. Ein Beispiel aus der DGS ist die Gebärde SCHNEIDEN2D (), die konventionell für „Operation, operieren“ verwendet wird. Am Unterkörper ausgeführt, kann sie die Bedeutung „Operation am Unterkörper“ ausdrücken und damit eine Modifikation der Gebärde SCHNEI- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 66 DEN2D sein, aber auch „Kaiserschnitt“, da dieser Eingriff durch eine Operation am Unterkörper ausgeführt wird. Ähnlich wie bei produktiven Gebärden können die Formparameter dieser Modifikation vollständig interpretiert werden als „mit einem länglichen Gegenstand am Unterkörper entlangfahren“, die lexikalisierte Bedeutung „Kaiserschnitt“ ist jedoch wesentlich spezifischer und nicht aus der Kombination der Einzelbedeutungen der Formparameter ableitbar. Dieses Prinzip der spezifizierten Bedeutung (Johnston/Schembri 1999:146) ist der entscheidende Grund, warum diese Modifikation als eigenständiges Lemma einen Eintrag im Wörterbuch erhält. Zur externen Modifikation zählen die Komposition und die Affigierung, d.h. eine sequenzielle Artikulation verschiedener Gebärden oder eine Kombination aus Gebärde und zusätzlichem Morphem. Abgesehen von inkorporierenden Zahlgebärden (s. Kap. 6.1.1.3) und der inkorporierten Negation wird in der DGS die Möglichkeit, durch Hinzufügen von Prä- oder Suffixen die Bedeutung zu verändern, nicht genutzt. Ebenso sind Komposita-Bildungen selten. Im Unterschied dazu sind Komposita in Auslan oder ASL häufiger, besonders in Form sogenannter Blendings (engl. blends), bei denen zwei Gebärden zu einer neuen Gebärde verschmelzen, d.h. die beiden Gebärden werden nicht vollständig nacheinander artikuliert, sondern Formparameter der einen Gebärde werden durch Formparameter der anderen Gebärde ersetzt. Ein oft zitiertes Beispiel aus der ASL ist die Gebärde HOME, bei der die Gebärden EAT und SLEEP zu einer neuen Gebärde verschmolzen sind. Abb. 8: ASL-Gebärde HOME40, entstanden aus den Gebärden für „essen“ und „schlafen“41 Ist die Bildung der neuen Gebärde aus zwei bereits vorhandenen Gebärden nicht mehr aktiv im Sprachbewusstsein der Sprecher präsent, dann ist eine gesicherte etymologische Herleitung nur dann möglich, wenn es historische Quellen gibt, die die Existenz der beiden Ausgangsgebärden belegen. Eines der seltenen Beispiele in der DGS ist die Gebärde SCHREIBTELEFON1 (), die aus den Gebärden TASTATUR1 () und TELEFON1A () gebildet wurde. 40 41 Entnommen aus Humphries et al. (1994:38). Entnommen aus Sternberg (1981:336). Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 67 Abb. 9: DGS-Gebärde SCHREIBTELEFON Die bisherigen Ausführungen haben gezeigt, dass Modifikationen zu Prozessen der Grammatikalisierung und Lexikalisierung führen können. Es gibt jedoch auch eine entgegengesetzte Entwicklung, die als Reikonisierung bezeichnet wird und zur Delexikalisierung einer ikonischen konventionellen Gebärde führt. Becker (2003:186) spricht auch von unsystematischer Modifikation, da die „[…] Bedeutung nicht auf der Grundlage der Semantik des zugrundeliegenden Lexems oder der formalen Veränderung vorhersagbar ist“. Im Unterschied zu anderen Autoren, die von idiosynkratischer oder idiomatischer Derivation sprechen, zählt sie die ikonische Modifikation, bei der „[…] das ikonische Potential, das auch noch vielen bereits lexikalisierten Gebärden zugrunde liegt, quasi ‚zu neuem Leben erweckt‘ w[ird]“ (Becker 2003:190), nicht zur Derivation, da die morphologischen Prozesse sich zum Teil erheblich von Derivationsprozessen in Lautsprachen unterscheiden. Ikonische Modifikationen weisen ähnliche Merkmale auf wie produktive Gebärden: Sie werden ad hoc gebildet, sind häufiger von mimischen und gestischen Signalen begleitet, ihre Bedeutung erschließt sich nur im Kontext. Hinzu kommt, dass der Blick in der Regel auf die Hände gerichtet ist. Für Cuxac (2000:45) ist dieser auf die Hände gerichtete Blick das entscheidende Kriterium, das aus einer nichtikonischen eine remotivierte ikonische Verwendung einer Gebärde macht. Im Unterschied zu Becker, die das Unsystematische, nicht aufgrund morphologischer Regeln Ableitbare solcher Modifikationen betont und deren Beschreibung auf die semantische Ebene verlagert, ermöglicht die von uns entwickelte Analyse ikonischer Gebärden ein differenzierteres Bild (s. ➚ 4.2.1). Langer (2005) beschreibt sechs Bilderzeugungstechniken, die sowohl bei produktiven Gebärden wie bei Modifikationen ikonischer konventioneller Gebärden eingesetzt werden, um über die Visualisierung eine bestimmte Bedeutung zu kodieren. Bei einer Modifikation werden die vorhandenen strukturellen Ähnlichkeiten [zwischen Gebärdenform und Referenzobjekt; R. K.] genutzt und an den konkreten Verwendungskontext angepasst. Sind bei einer bestimmten konventionellen Gebärde Modifikationen möglich, dann kann man daraus sicher schließen, dass das neu aktivierte Bild der Gebärde Aspekte des Gemeinten anschaulich darstellt. Aufgrund der gegebenen Ikonizität und unter Berücksichtigung des Kontextes ist bei Modifikationen eine Bildinterpretation meist ebenso sicher möglich wie bei produktiven Gebärden. (Langer 2005:268-269) Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 68 Durch die Bilderzeugungstechnik sind die Modifikationsmöglichkeiten eingeschränkt. So kann die Gebärde RÜHREN1 (), die mithilfe der manipulativen Technik das Umrühren mit einem Kochlöffel visualisiert, dazu verwendet werden, die Art des Rührens (schnell oder langsam) zu modifizieren oder den Gegenstand, in dem gerührt wird (die nichtdominante Hand kann z.B. einen großen oder kleinen Topf oder den Topfboden repräsentieren). Die Bedeutungen, die mit der lexikalisierten Gebärde RÜHREN1 ausgedrückt werden, sind „rühren“, „umrühren“, „verrühren“, „kochen“, „Küche“, „Koch“, „Kochlöffel“ und „Eintopf“. Die Bedeutung „große Küche“ kann jedoch nicht durch eine Modifikation dieser Gebärde ausgedrückt werden, z.B. indem eine große kreisförmige Bewegung ausgeführt wird, da bei der manipulativen Technik die Hand immer eine Hand repräsentiert, die agiert oder einen Gegenstand manipuliert. Anders als bei der skizzierenden Technik dienen Hand und Bewegung nicht dazu, die Form eines Gegenstands in die Luft zu zeichnen. Im Unterschied dazu kann bei der skizzierenden Gebärde HAUS1A () die Bewegung dahingehend modifiziert werden, dass ein großes Haus visualisiert wird, indem die Bewegung entsprechend größer ausgeführt wird. Insofern ist die erwartbare Bedeutungsveränderung bei Modifikationen nicht unsystematisch, sondern festgelegt durch die Bilderzeugungstechnik, die die Mittel vorgibt, mithilfe derer die Gebärdenform verändert wird, um eine bestimmte Bedeutungsveränderung zu erreichen. Das Wissen um das ikonische Potential von Gebärden sowie die Möglichkeiten, wie dieses Potential genutzt werden kann zur Kodierung von Bedeutung, ist Teil der metasprachlichen Kompetenz von Muttersprachlern, die von L2-Lernern erst erworben werden muss. Modifikationen einer Gebärde erhalten den gleichen Glossennamen und die gleiche erste Ziffer wie die Grundform, zusätzlich wird jedoch noch eine weitere Ziffer angehängt, um die Modifikationen von ihrer Grundform und verschiedene Modifikationen derselben Grundform voneinander zu unterscheiden, z.B. SCHNEIDEN28D ( zusammen mit dem Ablesewort ‚obduktion‘ in der Bedeutung „Obduktion“ verwendet). Modifikationen wurden wie die Grundformen als Types – als „Gebärde“ oder „Lexem“ – angelegt. Dieses Vorgehen wurde seit den Transkriptionen für das Fachgebärdenlexikon Tischler/Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998; TLex; 1996-1998) beibehalten, da es sich als praktisch erwiesen hatte, über die Gebärdenbzw. Lexemliste direkt auf die Modifikationen zugreifen zu können. Mit Beginn der Transkription für das DGS-Korpus-Projekt wird die Datenbankstruktur dahingehend überarbeitet, dass die Modifikationen als „qualified types“ den Grundformen zugeordnet und nicht mehr über die Gebärden- bzw. Lexemliste sichtbar sind. Die Formabweichung wird durch ein erweiterbares Set von Merkmalsausprägungen näher bestimmt wie z.B. die Wiederholung bei nominalen Verwendungen, die den Plural ausdrücken können oder die Ausrichtung und Lokation bei verbalen Verwendungen sowie Formveränderungen, die z.B. einen graduellen Aspekt wiedergeben. Diese Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 69 Beschreibung der „qualified types“ wird automatisch zum Glossennamen hinzugefügt. Dadurch ist nicht allein durch die HamNoSys-Notation, sondern auch durch den Glossennamen erkennbar, um welche Formabweichung von der Grundform es sich handelt. Weiterhin ermöglicht dieses Vorgehen, in einem späteren Schritt grammatische und semantische Modifikationen eines Types zu bestimmen. Lexikalisierte Modifikationen erhalten eine eigenständige Glosse, z.B. KAISERSCHNITT1 (). Der etymologische Bezug zur Grundform SCHNEIDEN2 wird in der Datenbank durch einen Verweis (formähnlich: ähnliches Bild) auf den Eintrag SCHNEIDEN2 sichergestellt. 6.1.1.5 Variation lexikalischer Gebärden Während bei der Modifikation der Gebärdende die Form einer konventionellen Gebärde bewusst verändert wird, um eine spezifischere Bedeutung auszudrücken, handelt es sich bei Varianten um verschiedene Gebärden, die dieselbe lexikalische Bedeutung haben, d.h. sie sind im Äußerungskontext prinzipiell austauschbar, ohne dass sich die Bedeutung der Äußerung ändert. Dass Wörter nie absolut bedeutungsgleich sind, da sie sich z.B. in der Konnotation oder der regionalen Verbreitung unterscheiden, trifft sicherlich auch auf Gebärden zu. Im Unterschied zu Wörtern ist die Bedeutung von Gebärden jedoch durch das Ablesewort und den ikonischen Bezug zum Gemeinten abgesichert. Dies begünstigt eine erhebliche Variation der Form (vgl. Ebbinghaus 1998a:607). Hinzu kommt, dass durch das Fehlen einer Gebärdenschrift Standardisierungs- und Normierungsprozesse auf lexikalischer Ebene bisher kaum ausgeprägt sind. Da Gebärdensprachen Nähesprachen sind, ist die Verständigung immer auch durch kontextuelle Bezüge abgesichert, sodass eine höhere Variation als in Lautsprachen nicht als Kommunikationshindernis empfunden wird. Anhand des Kriteriums der Formähnlichkeit bzw. Formverschiedenheit lassen sich phonologische Varianten, in König et al. (in Vorb.) auch Ausführungsvarianten genannt, und lexikalische Varianten, auch Synonyme genannt, unterscheiden. Phonologische Varianten (Ausführungsvarianten) Lucas et al. (2001a:178-180), die im Rahmen einer soziolinguistischen Untersuchung zur ASL auch die lexikalische Variation von 34 Gebärden untersuchten, gehen auf das Problem ein, dass es für die Einteilung in lexikalische oder phonologische Varianten keine harten, eindeutigen Kriterien gibt. Im Unterschied zu lexikalischen Varianten sind phonologische Varianten – Lucas et al. sprechen auch von (echten) Varianten, die sich anhand ihrer Formen nicht aufeinander beziehen lassen, und Subvarianten – formähnlich und unterscheiden sich i. d. R. nur in einem Parameter, häufig in der Handform. Johnston/Schembri (1999:142) legen den Formunterschied bei phonologischen Varianten auf ein bis zwei Parameter fest. Sie ergänzen, dass diese Form der Variation im Prinzip als ein Artikulationsphänomen angesehen werden kann: Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 70 „A variant is an alternative form of a lexeme which differs in only one or two aspects from the standard form with minimal, if any, change in meaning. The variant is essentially an alternative pronunciation.“ Ähnlich wie in ASL besteht die Variation meistens in einer Handformveränderung, die eine Veränderung der Orientierung bedingen kann. Die Parameter Bewegung und Ausführungsstelle werden nicht so häufig variiert. Troelsgård/Kristoffersen (2008:659-662) versuchten für das elektronische dänische Gebärdenwörterbuch42 die phonologische Variation durch eine feste Regel einzugrenzen, nach der nur einer der vier Parameter verändert sein darf. Sobald zwei Parameter von der Variation betroffen waren, wurden diese Gebärden als Synonyme behandelt. In einigen Fällen wurde dieses strikte Vorgehen jedoch von den gehörlosen Mitarbeitern als kontraintuitiv empfunden, was Ausnahmen zur Folge hatte. Weiterhin wurde ein Formunterschied, der lediglich in einer zusätzlichen Wiederholung, in der Händigkeit (einhändige vs. zweihändige Ausführung) oder in der Variation der Bewegungsrichtung (symmetrisch vs. gegenläufig) bestand, nicht als phonologische Variation gewertet. Für die Transkription der elizitierten Antworten in den verschiedenen Fachgebärdenlexikon-Projekten ziehen wir die letztgenannten Formunterschiede nicht als Kriterien für die Festlegung von Ausführungsvarianten heran, sondern vermerken diese möglichen Formabweichungen als Kommentar zum Gebärdeneintrag. Als Faustregel gilt die Abweichung in ein bis zwei Parametern, die einen eigenen Eintrag in der Datenbank rechtfertigt, vorausgesetzt es handelt sich nicht um eine einmalige individuell oder situationsbedingte Formabweichung, sondern um ein inter- oder intraindividuell regelmäßig wiederkehrendes Muster. Ebenso darf durch die Formveränderung der ikonische Gehalt der Gebärde nicht verändert werden, d.h. dass sich Ausführungsvarianten immer auf dasselbe zugrunde liegende Bild beziehen lassen. Eine Formveränderung durch Stilisierung ist möglich und kann i. d. R. durch den Vergleich von Gebärden bestimmt werden. Weiterhin wurde, im Unterschied zu Troelsgård & Kristoffersen, die Variation der Handform der nichtdominanten Hand (symmetrische vs. nichtsymmtrische Handform bei Zweihandgebärden) immer als Variation behandelt. Da wir i. d. R. keine Anhaltspunkte haben, nach denen wir bestimmen könnten, welche Form die Ausgangsgebärde und welche die davon abgeleitete Variante ist, werden in der Glossierung alle Gebärden durch Hinzufügen eines Buchstabens nach der Zahl als Ausführungsvarianten gekennzeichnet. Zum Beispiel gibt es für die Bedeutung „Frau“ neben etlichen Synonymen (s.o. 6.1.1.1) zwei Ausführungsvarianten, FRAU3A () und FRAU3B (). Bei beiden Gebärden wird mit der Hand am Ohr ein Ohrring oder Ohrclip angedeutet. Dagegen sind Ausführungsvarianten im Auslan-Dictionary (Johnston 1989b) als Lemmata mit einem Verweis auf den Haupteintrag angelegt. 42 Online verfügbar seit Mai 2008 unter der URL: http://www.tegnsprog.dk/. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 71 Lexikalische Varianten (Synonyme) Im Unterschied zu phonologischen Varianten unterscheiden sich lexikalische Varianten deutlich in ihrer Form, die zugrunde liegenden Bilder sind entweder verschieden oder werden durch eine andere Bilderzeugungstechnik visualisiert (s. ➚ 4.2.1). Die Gebärden werden als Synonyme angesehen, da sie dieselbe konventionalisierte Bedeutung haben und in gleichen sprachlichen Kontexten gegeneinander austauschbar sind. Ähnlich wie bei Wörtern ist die Synonymie nicht total, sondern eingeschränkt, da Gebärden entweder regional verschieden sind oder eine unterschiedliche soziolinguistische Konnotation haben. Lexikalische Variation wird durch das ikonische Bildungsprinzip von Gebärden begünstigt, da sich verschiedene ikonische Bezüge zwischen Gebärdenform und Referenzobjekt gleichermaßen anbieten. Zum Beispiel wird bei den verschiedenen Gebärden für „Pfeffer“ durch die den Gebärden zugrunde liegenden Bilder „schütten“ (PFEFFER1, konventionelle Verwendung der Gebärde SCHÜTTEN1A ), „mahlen“ (PFEFFERMÜHLE1, konventionelle Verwendung der Gebärde KURBELN1A ), und „scharfer Geschmack“ (PFEFFER3, konventionelle Verwendung der Gebärde SCHARF2 () auf verschiedene Aspekte des Gemeinten Bezug genommen. Durch die Lexikalisierung können ikonische Bezüge in der Gebärdenform konserviert werden, die durch die fortschreitende technische Entwicklung schon längst als überholt gelten wie z.B. bei der Gebärde für „Fernseher“. Das Drehen an Knöpfen, an das die Gebärde erinnert, ist bei modernen Fernsehgeräten nicht mehr möglich. Üblicherweise werden Tasten auf einer Fernbedienung gedrückt, um den Fernseher einzuschalten oder das Programm zu wechseln. Dafür hat sich mitlerweile eine andere Gebärde etabliert, die auch in der Bedeutung „Fernseher“ verwendet wird. Das gleiche zugrunde liegende Bild kann auch mithilfe verschiedener Bilderzeugungstechniken visualisiert werden wie z.B. bei den Gebärden KRIPPE2 () und KRIPPE3 (), die in der wörtlichen Bedeutung „(Futter-)Krippe“ und in der übertragenen Bedeutung „Krippe“ als Tageseinrichtung für Kleinkinder verwendet werden. Die unterschiedliche Bilderzeugungstechnik, bei KRIPPE2 stellen die überkreuzten Arme die Beine der Krippe dar, bei KRIPPE3 zeichnen die Flachhände die überkreuzten Beine einer Krippe in die Luft, führt zu zwei deutlich verschiedenen Gebärdenformen. Wie aus den bereits genannten Beispielen deutlich wird, werden lexikalische Varianten durch denselben Glossennamen und eine zusätzliche, verschiedene Ziffer glossiert. Die Vergabe der Ziffer ist zufällig bzw. durch den Zeitpunkt des Anlegens der Types in der Datenbank bestimmt. Die Zahl erhöht sich bei Bedarf fortlaufend. Sie kodiert keine Auswertung i. S. v. z.B. meist verwendete Gebärde. Da Synonymie ebenso wie Antonymie oder Hypo- bzw. Hyperonmyie eine semantische Relation zwischen Gebärden Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 72 darstellt, sollte sie langfristig in der Datenbank als Relation zwischen zwei Types angelegt werden und nicht nur über den Glossennamen erschließbar sein. 6.1.1.6 Überblick über Glossierungskonventionen und Vergleich Nach der ausführlichen Darstellung der einzelnen Kategorien, ihrer Kriterien, nach denen die Token-Type-Zuordnung vorgenommen wird, und den Kodierungskonventionen, die sich vor allem in der Art der Glossierung niederschlagen, soll im folgenden Überblick eine Zusammenschau der im Rahmen der Fachgebärdenlexikon-Projekte entwickelten Glossierungskonventionen gegeben werden. Gleichzeitig werden im Vergleich und als Ergänzung dazu andere, meist online zugängliche Transkriptionskonventionen43 gezeigt. Die Tabelle „Transkriptionskonventionen im Vergleich“44 ist nach der groben Einteilung in konventionelle und produktive Gebärden sowie sonstige Gebärden bzw. Zeichensysteme gegliedert. Hinzu kommen Kodierungskonventionen für nonmanuelle Aspekte sowie grammatische Klassifikationen, die sich nicht auf die Glosssierung, sondern auf Annotationen in zusätzlichen (abhängigen) Spuren (tiers) beziehen. Die Anzahl und Art der für die Transkription angelegten Spuren werden immer in Abhängigkeit vom Zweck der Korpuserstellung und weiteren spezifischen Fragestellungen festgelegt. Daher ist das Ziel der Transkription bzw. Annotation den weiteren Ausführungen immer vorangestellt. Weiterhin wird das Annotationswerkzeug genannt, da dies ebenfalls die Transkriptionskonventionen beeinflusst. Das Annotationswerkzeug soll die Modellierung und Klassifizierung sprachlicher Einheiten unterstützen und durch geeignete graphische Darstellung die Dateneingabe erleichtern sowie durch geeignete Suchfunktionen eine effiziente Datengewinnung ermöglichen (s. ➚ 3.8). Untersuchungsziel, theoretische Annahmen, Modellierung und notwendige Konventionen sind eng aufeinander bezogen. Zum Beispiel hat die Entscheidung, welche Informationen in der Glossen-Spur (engl. gloss tier) kodiert werden und welche in davon abhängigen Spuren, direkten Einfluss auf die Glossierungskonventionen. Dementsprechend müssen auch die Suchstrategien angepasst werden. Zum Vergleich wurden gut dokumentierte Transkriptionskonventionen herangezogen, die anhand großer Datenmengen erprobt wurden mit Transkriptionswerkzeugen, die in der internationalen Gebärdensprachforschung bekannt und verbreitet sind. Alle diese Werkzeuge ermöglichen die Alignierung, d.h. den direkten Zugriff von der Annotation auf den dazugehörigen Abschnitt in den Rohdaten und können als XML-Dateien weiterverarbeitet werden. Dadurch ist es möglich, Dateien in verschiedene Formate, die die 43 44 Transkriptionskonventionen werden während eines Forschungsprojekts ständig überarbeitet. Die für das Auslan-Korpus aktuell verwendeten Konventionen (s. Johnston 2010a). werden unter der URL: http://www.auslan.org.au/about/annotations/ zur Verfügung gestellt. Änderungen zu früheren Konventionen (s. Johnston/de Beuzeville 2008) sind in den Transkripten bereits nachvollzogen. Auszüge aus diesen Konventionen sind in Johnston (2008a, 2010b) enthalten. S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/ TranskrKonv_Vergleich.pdf. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 73 jeweiligen Programme benötigen, zu konvertieren. Eine Verbindung zwischen Annotationsprogramm und lexikalischer Datenbank, die die konsistente Identifikation sprachlicher Einheiten wesentlich unterstützt, ist nur bei iLex gegeben. Für die Transkription der Daten im Endangered Languages Documentation Project steht eine von ELAN unabhängige lexikalische Datenbank zur Verfügung, die die Grundlage für das AuslanWörterbuch (Johnston 1998a/b) sowie die Auslan Signbank45 ist. Weiterhin betonen alle Autoren die Notwendigkeit einer konsistenten Identifizierung lexikalischer Gebärden im Sinne einer Lemmatisierung. Die Umsetzung dieses Anspruchs wurde bei den Transkriptionen für die Fachgebärdenlexikon-Projekte durch den Aufbau einer lexikalischen Datenbank seit 1996 realisiert, das Konzept der ID-Glossen wurde von T. Johnston erst nach der Durchführung des Projekts Sociolinguistic Variation in Auslan: Theoretical and Applied Dimensions (2003-2004) entwickelt. Die kurzen Projektlaufzeiten und das Ziel, zumindest minimal annotierte Gebärdensprachdaten zur Verfügung zu stellen, führen dazu, dass Anspruch und Wirklichkeit bzw. Umsetzung nicht immer in Übereinstimmung gebracht werden können. Dies zeigen am deutlichsten die Ausführungen von Crasborn/Zwitserlood (2008b:4; kursiv i. O.): The glosses in the annotation files in the Corpus NGT are intended to indicate the exact start and end time of the signs, as well as to refer to a lexicon. Thus, the glosses are not actual translations; in the ideal case they are pointers to lemmas in a lexicon. Because of the fact that there is no common orthography for sign language nor a practical, much used phonetic notation system, Dutch words have been used as a reference. They approach (one of) the meaning(s) of the signs; however, the real meanings of the sign forms are described in the lexicon, not by the gloss. Exceptions to this rule are non-lexicalised forms that, in the gloss, are preceded by a @character (see under #4 below). Although it was our intention to use glosses referring to a lexicon, for reasons of efficiency it was not possible to always consult the lexicons of the Dutch Sign Centre (NGc) on DVD or on the internet. Because of this, the glosses in the first release will contain many inconsistencies; the user of the annotations be aware of this. Die Idee der ID-Glossen von Johnston (2008a/b) wird in diesem Zitat aufgegriffen, indem die Funktion der Glossen eingeschränkt wird auf die einer Referenz auf den entsprechenden Eintrag im Wörterbuch. Gleichzeitig wird klargestellt, dass die Bedeutung eine Information des Types ist, d.h. beim Lemma im Wörterbuch zu finden ist, und nicht im Glossennamen. Dass diese Sicht sich noch nicht durchgesetzt hat, zeigen die Konventionen für SignStream, wo der Glossenname erweitert wird, wenn mehrere englische Entsprechungen mit derselben Gebärde ausgedrückt werden können, z.B. BOLD/TOUGH oder FIND/FIND-OUT. Skant et al. (2001:100-101) erwietern den Glossennamen ebenfalls für Gebärden, die für semantisch zusammengehörige Bedeutungen verwendet werden oder im Falle sogenannter multifunktionaler Gebärden, die sowohl als Nomen als auch als Verb verwendet werden können. So verwenden sie Glossen wie UNIVERSITÄT/GYMNASIUM und ANKUNFT/ANKOMMEN. Die Tatsache, dass durch dieselbe Gebärde mehrere Bedeutungen ausgedrückt werden können, die 45 S. URL: http://www.auslan.org.au/. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 74 semantisch nicht nur zusammengehören, sondern auch weit auseinanderliegen können, lässt sich durch eine einfache Glossierungskonvention allein nicht lösen. Sie betrifft in erster Linie die Frage der Lemmaselektion im Wörterbuch bzw. in der lexikalischen Datenbank, durch die die Wahl der Glosse bei der Token-Type-Zuordnung festgelegt ist. Im Vordergrund steht die Klärung der Frage, wie die Struktur des gebärdensprachlichen Lexikons durch geeignete Kategorien und Klassifizierungen modelliert werden kann. Die Antwort hängt wiederum damit zusammen, welche Bedeutung der Ikonizität und der Tatsache, dass durch Ablesewörter ein weiteres Zeichensystem in gebärdensprachliche Äußerungen integriert wird, beigemessen wird. Die im Rahmen der Fachgebärdenlexika getroffenen Entscheidungen und ihre Konsequenzen für die Transkription und die Struktur der Datenbank werden in Konrad (in Vorb., Kap. ➚ 4) dargestellt. An dieser Stelle soll jedoch schon auf die Gefahr eines Zirkelschlusses hingewiesen werden (s. ➚ 3.7.3), der darin besteht, dass die Glossierung und damit die Lemmatisierung dadurch begründet wird, dass in einem bereits vorhandenen Wörterbuch verschiedene Lemmata angesetzt wurden. Crasborn/Zwitserlood (2008b:5) begründen ihre Entscheidung, vom Prinzip gleiche Gebärde – gleiche Glosse dann abzuweichen, wenn dieselbe Gebärde mit verschiedenen Ablesewörtern ausgeführt wird, damit, dass es in einem NGT-Wörterbuch (KOMVA 1988, 1989) verschiedene Einträge gibt: Glosses have been assigned as consequently as possible (same sign, same gloss). However, some signs differ only because of a different mouthing. In those cases different glosses were used, especially when these signs were separate items in the lexicons. E.g.: ‘BROER’ vs. ‘ZUS’ (‘BROTHER’ vs. ‘SISTER’): different glosses because of the different mouthings. In dieser, mal als Lernkarten-, mal als Blattsammlung herausgegebenen Zusammenstellung von Grundgebärden werden jeweils drei Gebärden für „Bruder“ und „Schwester“ gezeigt, von denen jeweils zwei Gebärden identisch sind. Auf den Lernkarten steht der Hinweis „gesproken component“, in der Blattsammlung steht das jeweilige Ablesewort unter der Glosse. Aus sprachpolitischen Gründen und um Homonymie zu vermeiden, wurden die formgleichen Gebärden nicht in das „Standaard Lexicon Nederlandse Gebarentaal“ (2002) aufgenommen. Dort findet man für jede Bedeutung jeweils eine Gebärde. Diese Gebärden unterscheiden sich leicht in der Ausführung. Das sprachpolitische bzw. didaktische Interesse beim Erstellen von Gebärdensammlungen, Homonymie zu vermeiden, findet sich auch in den sogenannten Blauen Büchern (Maisch/Wisch 1988-1994) für die DGS wieder. Dort unterscheiden sich die gezeigten Gebärden für „Bruder“ (G-Handform, ) und „Schwester“ (H-Handform, ) nur durch die Handform. In unserer Datenbank sind jedoch 13 Belege (aus verschiedenen Projekten oder Gebärdensammlungen) für die konventionelle Verwendung der Gebärde GLEICH1A () in der Bedeutung „Schwester“. Die konventionelle Verwendung der Gebärde GLEICH1D () in der Bedeutung „Schwester“ ist nur ein- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 75 mal belegt durch eine Aufnahme aus den Grundgebärden (1999, 2000), einer reduzierten Gebärdenauswahl aus den Blauen Büchern als CD-ROM. In letzter Konsequenz bedeutet dies, dass die Lemmatisierung nicht dadurch gerechtfertigt werden kann, dass ein Standardwörterbuch der entsprechenden Gebärdensprache als Grundlage für die Glossierung zu Rate gezogen wird. Denn die Kriterien für die Lemmaselektion im Wörterbuch sind in der Regel nicht explizit genannt. Johnston/Schembri (1999:178-181) weisen zu Recht darauf hin, dass der Einfluss der umgebenden Lautsprache auf die Makrostruktur eines Gebärdenwörterbuchs zum Teil noch erheblich ist und dieses lemma dilemma zu einer inkonsistenten Lemmaselektion führt, z.B. führen verschiedene Wortarten der laustprachlichen Entsprechung zu verschiedenen Einträgen, obwohl die Gebärden identisch sind (SIT/CHAIR), oder es werden flektierte Formen als eigene Einträge aufgelistet (GIVE/GIVE-ME/GIVE-YOU). Das zu Rate gezogene Wörterbuch müsste demnach zunächst einmal auf diese Inkonsistenzen geprüft werden, bevor die vorhandenen Einträge als Begründung für eine unterschiedliche Glossierung und damit Lemmatisierung der Token im Transkript herangezogen werden können. Die Transkriptionskonventionen des NGT-Korpus46 stellen eine Weiterentwicklung der Konventionen dar, die für die Transkription der NGT-Daten im Rahmen des ECHOProjekts erstellt wurden. Die direkte Gegenüberstellung zeigt die Gemeinsamkeiten, aber auch die Veränderungen, die innerhalb eines kurzen Zeitraums für die Transkription vergleichbarer Daten mit ähnlichen Projektzielen vorgenommen wurden. Wie beim NGT-Korpusprojekt ist das Ziel des Auslan-Korpusprojekts die Bereitstellung annotierter Rohdaten, die für Forscher wie für Laien frei zugänglich sein sollen. Darüber hinaus sollen die Annotationen verstärkt grammatische und diskursive Aspekte berücksichtigen. Phonologische und lexikalische Aspekte werden dagegen vernachlässigt. Ein Untersuchungsziel ist die Modifikation sogenannter „indicating verbs“ (vgl. Liddell 2003a:97-140), im Deutschen auch als Übereinstimmungsverben bezeichnet (vgl. Boyes Braem 1995:63). Das Annotationsschema ist dementsprechend stark ausdifferenziert. Es dient dazu, mögliche Kategorien zu testen und diese entsprechend den Erfahrungen im Laufe der Transkription den Daten anzupassen. Weiterhin werden diese Annotationen nicht in einem Bearbeitungsschritt erledigt, sondern in mehreren aufeinanderfolgenden Bearbeitungen. Johnston/de Beuzeville (2008:6) sprechen noch von einem „annotation parse“47, in Johnston (2010a) wird die übliche Bezeichnung „passes“ 46 47 S. Crasborn et al. (2008); die Homepage des Projekts ist unter folgender URL zu finden: http://www.ru.nl/corpusngt/). Die Bedeutung des Wortes ‚parse‘ wird bewusst gegen die übliche Verwendung in der automatisierten Syntaxanalyse (s. ➚ 3.7) abgegrenzt: „Here we mean by annotation parse a pass of the text which identifies sign units and/or attaches a particular type of linguistic annotation to identified units.“ (Johnston/de Beuzeville 2008:6; kursiv i. O.) Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 76 (vgl. Pitt et al. 2005:92) für verschiedene Bearbeitungsdurchgänge gewählt, bei denen jeweils bestimmte Aspekte annotiert werden. Nach und nach wird die Transkription immer umfangreicher, gleichzeitig werden die bereits vorhandenen Annotationen mit kontrolliert, sodass sie immer konsistenter werden und es ermöglichen, bisher aufgestellte Hypothesen zu grammatischen Kategorien und gebärdensprachlichen Phänomenen anhand eines repräsentativen Korpus quantitativ und qualitativ zu überprüfen. SignStream ist ein Annotationsprogramm, das im Rahmen des American Sign Language Linguistic Research Project (ASLLRP) an der Boston University entwickelt wurde. Forschungsschwerpunkt sind morphosyntaktische Aspekte der ASL. Die Transkriptionskonventionen, die zur Verschriftlichung von vorwiegend elizitierten Sätzen und Einzelgebärden verwendet wurden, sind auf der Grundlage der Konventionen entstanden, die Baker/Cokely (1988) in ihren Lehrbüchern zur ASL schon 1980 verwendet haben. Neben der ausführlichen Dokumentation (Neidle 2002) gibt es eine aktualisierte Ergänzung (Neidle 2007), die sich vor allem auf die Konsistenz der Glossierung von Gebärden und Gesten sowie der morphosyntaktischen Annotationen bezieht. Das Problem der konsistenten Glossierung wird in beiden Veröffentlichungen an verschiedenen Stellen diskutiert. Die getroffenen Entscheidungen widersprechen jedoch an manchen Stellen dem Prinzip der konsistenten Glossierung gleicher Gebärden, was Neidle (2002:54) selbst als unbefriedigende Lösung darstellt: Other cases where it would be desirable to use the same gloss for signs that have the same essential manual articulation include the following signs: SHOULD, MUST, HAVE-TO However, here, to keep with other glossing traditions, we have glossed these signs differently. SHOULD is normally articulated with (at least) two distinct downward movements, whereas MUST involves a single downward movement. HAVE-TO is normally used in negative environments (e.g., NOT HAVE-TO), although for some signers (NOT MUST) is also possible. Mouthing is used as the distinguishing identifier for HAVE-TO. We note our own inconsistency, but so be it. Die Begründung, verschiedene Glossierungen für dieselbe Gebärde zu verwenden, um mit anderen, bereits etablierten Glossierungen konform zu sein, ist der Versuch, ein Problem zu lösen, das der konsistenten Glossierung nachgeordnet ist. Für alle Transkriptionskonventionen gilt mehr oder weniger, dass sie nicht miteinander kompatibel sind. Glossierungen, die in unterschiedlichen Sprachen vorgenommen werden, verhindern gerade die Austauschbarkeit bzw. den automatisierten Abgleich von Transkripten, die im Rahmen verschiedener nationaler oder internationaler Projekte erstellt wurden. Doch selbst wenn es eine eindeutige Zuordnung der Glossennamen aus verschiedenen Projekten gäbe, wäre die Austauschbarkeit nicht viel wert, wenn innerhalb eines Projekts keine konsistente Glossierung und damit keine Lemmatisierung der Token vorgenommen wurde. Ein weiteres Problem ist die Übereinstimmung der Glossierung in den Transkripten, die im Rahmen eines empirischen Forschungsprojekts erstellt werden, mit der Glosierung, die z.B. in Lehrwerken verwendet wird. Die Notwendigkeit, innerhalb eines Arbeitsbuchs für Schüler und Lehrer wie z.B. Baker/Cokely (1988), eine Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 77 konsistente Glossierung zu verwenden, führt dazu, dass sogenannte didaktische Glossen eingeführt werden, d.h. die Konsistenz dieser Glossierung gilt nur innerhalb dieses Werkes. Die Glossierung kann nach anderen Prinzipien vorgenommen werden als im Rahmen eines Forschungsprojekts, da die Zahl der Beispiele i. d. R. wesentlich geringer ist als die Token, die in den empirischen Daten enthalten sind. Sollen jedoch Beispiele aus Transkripten in dieses Werk aufgenommen werden, dann stimmen die Glossierungen oftmals nicht überein. Die konsistente Glossierung sollte jedoch nicht wegen des Vorteils aufgegeben werden, eine (partielle) Übereinstimmung mit bereits bestehenden Glossierungen zu erreichen. Das Problem kann dadurch gelöst werden, dass in einer lexikalischen Datenbank z.B. didaktische Glossen eingeführt werden, d.h. Glossennamen, die als Aliase auf einen Gebärdeneintrag verweisen. Diese Lösung wurde im ProViL-Projekt (Progression im visuellen Lernen von Gebärdensprache48) eingeführt. Die Transkripte wurden in iLex erstellt unter Einhaltung der geltenden Transkriptionskonventionen. Für die Veröffentlichung der Transkriptionen im Rahmen des ProViL-Projekts wurden nicht die projektübergreifenden Glossierungen ausgegeben, sondern die didaktischen Glossen, die innerhalb des ProViL-Projekts benötigt wurden. Da das Annotationsprogramm SignStream nicht an eine lexikalische Datenbank angebunden ist, ist die Kontrolle der konsistenten Token-Type-Zuordnung über eine große Anzahl von Transkripten hinweg nur sehr mühsam herzustellen. Bewusst in Kauf genommene Inkonsistenzen, die eventuell nicht vollständig dokumentiert sind, erschweren zusätzlich eine Lemmatisierung. Weiterhin wird wie bei Crasborn/Zwitserlood (2008b) in diesem Zitat die bedeutungsunterscheidende Funktion des Ableseworts als Begründung für eine andere Glossierung formgleicher Token angeführt. Die für die Struktur des Lexikons impliziten Konsequenzen dieses Vorgehens werden jedoch nicht reflektiert (s. ➚ 4.1.5). Die Beschränkungen, die eine fehlende Datenbank mit der Möglichkeit, Type-Informationen zur Verfügung zur stellen, für die Glossentranskription mit sich bringt, zeigt sich auch darin, dass keine Bezüge zu morphologisch ähnlichen Gebärden über die Glossierung hergestellt werden können. So geht verloren, dass z.B. MISTAKE und 49 WRONG sich nur durch eine Drehung im Handgelenk unterscheiden. Diese Beobachtungen können, ebenso wie die Angabe der Gebärden, aus denen sich ein Kompositium zusammensetzt, als Relation in einer Datenbank eingetragen und im Transkript, sollte es für die Bearbeitung der Transkripte sinnvoll sein, in einer zusätzlichen Spur mit angezeigt werden. In iLex gibt es z.B. die Möglichkeit, eine Relation zwischen 48 49 Im Rahmen dieses Projekts wurden zwei Kurse zum Erlernen der DGS für Fortgeschrittene entwickelt, die für Studierende auf der Lernplattform WebCT zugänglich sind. Eine Projektbeschreibung findet sich unter folgender URL: http://www.sign-lang.uni-hamburg.de/projekte/provil.html; s. a. Metzger/Herrmann (2005). Die Möglichkeit, dass es sich auch um phonologische Varianten handeln könnte, wird von der Autorin nicht in Erwägung gezogen. Die Entscheidung ist abhängig von der Frage, ob diese Ausführungen sich anhand ihrer kontextuellen Bedeutung immer klar voneinander trennen lassen. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 78 formgleichen und formähnlichen Gebärden einzutragen. Diese Informationen sind äußerst hilfreich, da dadurch z.B. dokumentiert werden kann, dass es sich um Homonyme handelt oder um formähnliche Gebärden, bei denen eine Gebärde durch eine Modifikation aus der anderen hervorgegangen ist und später für eine spezifische Bedeutung lexikalisiert wurde. Die Entwicklung des Berkeley Transcription System (BTS) wurde vor allem von D. Slobin vorangetrieben, der schon bei der Entwicklung des CHILDES50-Projekts zur Standardisierung von Spracherwerbsdaten Anfang der 1980er Jahre beteiligt war. Der Schwerpunkt liegt in der Erforschung der Morphosyntax, der Semantik und den diskursiven Aspekten von Eltern-Kind-Interaktionen, lexikalische und phonologische Aspekte werden vernächlässigt. Um mit den Konventionen des CHAT51-Programms, das zur Erstellung der Transkripte eingesetzt wird, kompatibel zu sein und um zur Auswertung der Daten das CLAN52-Programm verwenden zu können, werden sehr viele Informationen in einer einzigen Sprecherzeile kodiert. Dementsprechend ausdifferenziert sind die Glossierungskonventionen für Gebärden, Gesten und nonverbales Verhalten in der Glossenzeile. Weiterhin werden relevante Aspekte der Interaktion sowie Beobachtungen zu Performanzfehlern notiert. Die Tabelle „Transkriptionskonventionen im Vergleich“53 gibt einen umfassenden Überblick über die im Rahmen der Fachgebärdenlexikon-Projekte entwickelten Transkriptionskonventionen sowie die Kategorien und Kodierungen aus den angegebenen Publikationen. Leere Felder bedeuten entweder, dass es dafür keine Konventionen gibt oder sie in der Dokumentation nicht erwähnt werden. Deutlich erkennbar sind die Unterschiede zwischen der stark lexikographisch ausgerichteten Transkription von elizitierten Antworten sowie Entsprechungen von Fachbegriffen, die in den Gesprächen identifiziert und selektiv transkribiert wurden, und den stärker morphosyntaktisch ausgerichteten Transkriptionen zusammenhängender Äußerungen oder Dialoge. Bei letzteren zeigt sich eine starke Differenzierung in der Klassifikation nach Wortarten einschließlich der indexikalischen Gebärden sowie einer syntaktisch ausgerichteten Kodierung der Modifikationen, insbesondere der Veränderung der Bewegungsrichtung, Orientierung oder Lokation. Eine Ausnahme sind die Transkripte, die im Rahmen des ECHO- und des NGT-Korpusprojekts erstellt wurden. Das Ziel der Projekte lag in der Dokumentation von Gebärdensprachen und der Erstellung einer Basistranskripton, die zusammen mit den Rohdaten möglichst kurzfristig interessierten Forschern zur Verfügung gestellt wurde. Die Transkripte bieten durch die Übersetzung einen inhaltlichen Zugang zu den Rohdaten und sind die Grundlage für weitere Anno50 51 52 53 Child Language Data Exchange System. Codes for the Human Analysis of Transcripts. Computerized Language Analysis. S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/ TranskrKonv_Vergleich.pdf. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 79 tationen, je nach Forschungsinteresse. Dementsprechend sind die Transkriptionskonventionen nicht so stark ausdifferenziert wie in den anderen Projekten. Abgesehen von den genannten Unterschieden fällt auf, dass es unabhängig vom Forschungsziel eine große Übereinstimmung in der Kodierung bestimmter gebärdensprachlicher Phänomene gibt. So werden fast durchgängig morpho-phonologische Aspekte der Variation, Modifikation, Komposition, Koartikulation und Inkorporation notiert. Weiterhin werden bei konventionellen Gebärden fast durchgängig Formabweichungen wie Wechsel der Dominanz und Händigkeit sowie der Wiederholung notiert. Eine Interpretation der Ausführung im Sinne eines Performanzfehlers wird nur im BTS und beim NGT-Korpus als Zusatz zur Glosse kodiert. Produktive Gebärden werden in allen Transkriptionskonventionen in der Tabelle durch eine Abkürzung gekennzeichnet (MAN: manuelle Aktivität, p: poly, in Anlehnung an polycomponential sign, PM: property marker, CL: classifier). Im BTS und in SignStream wird im Rahmen der Glossierung bereits eine Klassifizierung vorgenommen, in den übrigen Projekten wird lediglich die kontextuelle Bedeutung dieser Gebärde angegeben, beim Auslan-Projekt und in iLex zusätzlich ein Hinweis auf die Handform bzw. weiterer Formaspekte in HamNoSys. Indexikalische Gebärden werden in den nicht lexikographisch ausgerichteten Projekten stark differenziert in syntaktische und semantische Kategorien. Interessant ist, dass nur das BTS die unspezifische Gebärde, die mit der 5-Handform eine Fläche im neutralen Gebärdenraum oder an einer bestimmten Lokation, auch am Körper, markiert, zu den indexikalischen Gebärden zählt. In den Transkriptionskonventionen im Rahmen der Fachgebärdenlexika wird diese Gebärde als konventionelle Gebärde BEREICH1A () glossiert und als ausgedehnter Index klassifiziert (s. ➚ 4.2.1.6). Eine weitere Beobachtung, die sich einem nicht auf den ersten Blick erschließt, ist die Frage der Komplexität der Glosse und die Anordnung verschiedener Informationseinheiten im Glossennamen. Dazu muss man wissen, ob im Rahmen der Transkription eine lexikalische Datenbank zur Verfügung steht, die es erlaubt, zwischen Type-Informationen, die in der Datenbank gespeichert sind, und Token-Informationen, die im Transkript entweder in der Glossierung oder in zusätzlichen Spuren notiert werden, zu trennen. Bei der lexikographisch ausgerichteten Transkription im Rahmen der Fachgebärdenlexikon-Projekte stand die Notwendigkeit der konsistenten Identifikation sprachlicher Einheiten von Anfang an im Mittelpunkt. Dadurch, dass iLex Annotationswerkzeug und lexikalische Datenbank kombiniert, war immer der Zugriff auf die Token über den Type gegeben, da im Token-Tag lediglich eine ID-Nummer des Types eingetragen wird. Gleichzeitig wird immer unterschieden zwischen Angaben, die sinnvollerweise beim Type eingetragen werden und in den Transkripten mit angezeigt werden können wie Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 80 z.B. Grundform, Bedeutung oder etymologische Angaben, und Angaben, die beim Token gemacht werden. Anhand zusätzlicher Annotationen beim Token, z.B. eine Formabweichung oder die Bedeutung der Einzelgebärde und deren Funktion im Zusammenhang mit dem Ablesewort sowie bei Komplexbedeutungen, lässt sich die Token-Type-Zuordnung im Zuge der Lemmarevision überprüfen (s. Kap. 6.3). Durch vorhandene Token-Informationen reicht es für die Klassifizierung einiger gebärdensprachlicher Phänomene aus, sie durch eine sogenannte Sammelglosse zu etikettieren, über die wiederum auf alle Einzeltoken zugegriffen werden kann (s. $HOLD, $MAN, $INDEX, $ALPHA1, $PMS, $GEST). Die Möglichkeit, in der Datenbank Listen nach Glossen zu sortieren, beeinflusste auch die Glossierungskonventionen. So wurde das Dollarzeichen $ am Anfang der Glosse dazu verwendet, bestimmte Untergruppen konventioneller Gebärden ($NAME, $WORTTEIL, $SPEZIAL), die Überlagerung durch eine gehaltene Gebärde ($HOLD) sowie produktive Gebärden ($MAN) und sonstige Zeichen ($INDEX, $ALPHA, $NUM, $PMS, $GEST, $REP, $ORAL) zu kennzeichnen. Bei der Sortierung nach Glossennamen sind diese Einheiten von den konventionellen Gebärden getrennt. Abgesehen von den genannten Klassifizierungen wurden weitere Unterscheidungen (Modifikation Variante, Fremdgebärde, regionale Varianten, LBGGebärde) durch Zusätze nach dem Glossennamen notiert. Der Aspekt der Sortierung wurde auch beim Auslan-Projekt berücksichtigt, vermutlich aufgrund der Erfahrungen des Autors mit Datenbanken zum Zwecke der Wörterbuchproduktion (vgl. Johnston 2001), nicht jedoch bei den Transkriptionskonventionen der anderen Projekte, die ohne die Unterstützung durch eine Datenbank arbeiten. Eine Auflistung aller zu einem Type gehörender Token muss in Annotationsprogrammen wir ELAN durch Suchabfragen erfolgen. So erstellte Listen können dann in anderen Programmen weiterverarbeitet werden. Ebenso müssen Änderung in der Glossierung durch Suche-und-ErsetzeRoutinen in den Transkripten durchgeführt werden. 6.2 Aufbau einer lexikalischen Datenbank Die Erfahrungen aus der inkonsistenten, unökonomischen und nach einigen Jahren schwer nachzuvollziehenden Transkriptionen der ausgewählten Gebärden für das Fachgebärdenlexikon Psychologie (PLex; Arbeitsgruppe Fachgebärdenlexika 1996) führten dazu, dass zunächst einmal ein Prototyp einer relationalen Datenbank entwickelt wurde (s. ➚ 3.8.4). Diese Datenbank ermöglichte es, die elizitierten Antworten, die Fachbegriffe, die als Stimuli gezeigt wurden, die Einzelgebärden, aus denen sich eine Antwort zusammensetzt (Token) und die Gebärden (Types) miteinander in Beziehung zu setzen. Dadurch konnten alle Antworten zu einem Begriff aufgelistet und anhand der Glossierungen miteinander verglichen werden. Durch die Sortierung der transkribierten Antworten nach ihrer Glossierung konnte bei der Auswahl einer Antwort als DGS- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 81 Entsprechung für den Fachbegriff auch die Häufigkeit gleicher Antworten berücksichtigt werden. Ebenso konnten alle Token eines Types aufgelistet und anhand der im Token notierten Formabweichungen miteinander verglichen werden, was eine wichtige Voraussetzung für die Lemmarevision (s. Kap. 6.3) ist. Der entscheidende Vorteil einer Datenbank liegt darin, dass das Konzept der ID-Glosse von Johnston/de Beuzeville (2008; s. ➚ 3.7.3) konsequent umgesetzt wird. Während Johnston & de Beuzeville die Token-Type-Zuordnung in ELAN-Transkripten so vornehmen, dass sie Glossen als freie Texte in den Tag der Glossenspur eintragen und die Konsistenz dadurch sicherstellen, dass sie diesen Namen zuvor in einem Wörterbuch bzw. einer lexikalischen Datenbank suchen, werden in iLex die Glossen in der Gebärdenliste gesucht und üblicherweise per drag&drop im Token-Tag eingetragen. Dadurch wird der Glossenname im Tag eines Transkripts angezeigt, in der Tabelle tags wird jedoch nicht der Glossenname als freier Text, sondern die ID-Nummer des Types als eineindeutiger Schlüssel gespeichert. Durch die Auswahl einer Glosse aus der Glossenliste wird verhindert, dass sich Glossennamen im Transkript aufgrund von Tippfehlern oder unterschiedlicher Schreibung (z.B. Klein- oder Großbuchstaben) unterscheiden. Die Datenbank lässt es nicht zu, dass dieselbe Glosse für zwei verschiedene Types vergeben wird. Glossen werden automatisch immer in Großbuchstaben umgewandelt. Gleichzeitig ist gewährleistet, dass sich Änderungen im Gebärdeneintrag, z.B. eine Änderung des Glossennamens oder der Grundform, die als HamNoSys-String im Gebärdeneintrag notiert ist, auf alle Tags auswirkt, die in der Tabelle tags die ID dieser Gebärde enthalten. Diese Änderungen sind sofort sichtbar für alle Transkribenten, die auf die Datenbank zugreifen. Johnston & de Beuzeville verwenden den Glossennamen als eineindeutigen Schlüssel, da es in ELAN keine direkte Anbindung des Transkripts an eine lexikalische Datenbank gibt. Insofern ist die ID-Glosse ein Ersatz für die fehlende ID-Nummer, eine Glosse ohne ID (ID-Glosse = Glosse - ID). Aus der Sicht eines Linguisten mag dies ausreichend sein, um eine konsistente Token-Type-Zuordnung zu gewährleisten. Es betont die eigentliche Funktion von Glossen, lediglich eine Etikettierung für eine lexikalische Einheit zu sein, einer Referenz auf ein Lemma (s. Kap. 6.1.1.6; Crasborn/Zwitserlood 2008b:4). Aus der Sicht eines Informatikers ist dies jedoch unbefriedigend, da Zahlen, die automatisiert vergeben werden, wesentlich zuverlässigere Schlüssel sind als Wörter. Der eineindeutige Schlüssel ist die ID-Nummer, die es ermöglicht, auf weitere Informationen einer Tabelle, die diesen Schlüssel enthalten, zuzugreifen wie z.B. den Glossennamen, die Notation der Zitierform, Bedeutungsangaben, Kommentare etc. Glossen, die in iLex-Transkripten eingetragen werden, sind ID-Nummern, über die Informationen wie der Glossenname, die Zitierform etc. angezeigt werden können (Glosse = ID + Glosse + HamNoSys-Notation + Bedeutung + Kommentar + …). Dadurch kann der Glossenname als mnemotechnische Stütze genutzt werden. Es können im Prinzip beliebig viele Glossennamen für einen Type gewählt werden, solange die Datenbank Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 82 dafür sorgt, dass z.B. über eine Alias-Funktion die verschiedenen Glossennamen auf denselben Type verweisen. Insofern wäre es auch kein Problem, wenn verschiedene Transkribenten verschiedene Bezeichnungen wählen würden. Diese Alias-Funktion ist zurzeit in iLex nicht implementiert. Für die Produktion von Lehr-/Lernmaterialien können sogenannte didaktische Glossen vergeben werden (s. Kap. 6.1.1.6). Da die Gebärden in der Gebärdenliste erst angelegt werden müssen, bevor sie beim Transkribieren einer Antwort mit dem Token verknüpft werden können, musste insbesondere zu Beginn zusätzliche Zeit investiert werden, um die Gebärdeneinträge anzulegen. Hinzu kam, dass die Timecode-Angaben noch von Hand eingeben werden mussten, da noch keine direkte Anbindung digitalisierter Videofilme an die Datenbank möglich war. Mit der Umstellung auf eine SQL-Datenbank (GlossLexer 2) war der direkte Zugriff auf die Rohdaten per Mausklick möglich, was einen enormen Zeitvorteil für die Transkription mit sich brachte. Gleichzeitig wurde öfters auf die Rohdaten zugegriffen, sodass auch die Annotationen konsistenter wurden. Mit der Zunahme der Gebärdeneinträge war es erforderlich, mithilfe geeigneter Sichten und Suchfunktionen (Type- und Token-Suche, Abfragen in Form von SQL-Befehlen (select …)) zu prüfen, ob eine Gebärde schon in der Datenbank vorhanden ist oder neu angelegt werden muss. Je effizienter die Suchmöglichkeiten und -strategien, desto weniger Zeit wird für die Rohtranskription und die anschließende Lemmarevision benötigt. 6.2.1 Bottom-up- versus Top-down-Ansatz ‚Bottom-up‘ („von unten bzw. vom Boden nach oben“) und ‚top-down‘ („von der Spitze nach unten“) sind Bezeichnungen, die als eingängige sprachliche Metaphern im Englischen zur Unterscheidung der induktiven von der deduktiven Methode verwendet werden. Bei der induktiven Methode werden anhand von Einzelbeobachtungen Hypothesen aufgestellt, die systematische strukturelle, funktionale oder logische Zusammenhänge erklären – von den Daten zur Theorie –, bei der deduktiven Methode wird ausgehend von Hypothesen nach Einzelphänomenen gesucht, die diese Hypothesen bestätigen oder widerlegen – von der Theorie zu den Daten. Abb. 10: Bottom-up- und Top-down-Ansatz Korpora werden sowohl für einen Bottom-up-Ansatz verwendet, indem aus den Daten Hypothesen abgeleitet werden, als auch für einen Top-down-Ansatz, indem Hypothesen Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 83 anhand aufbereiteter Daten getestet werden. Wird die Lemmatisierung wie bei Johnston/ de Beuzeville (2008) auf der Grundlage eines Wörterbuchs vorgenommen bzw. einer lexikalischen Datenbank, die die Informationen enthält, auf deren Grundlage die TokenType-Zuordnung getroffen wird, dann handelt es sich um einen Top-down-Ansatz. Ein Token wird als Realisierung eines Types identifiziert und mithilfe der ID-Glosse eindeutig diesem Type zugeordnet. Transkript und lexikalische Datenbank sind getrennt. Abb. 11: Lemmatisierung als Top-down-Prozess Die Type-Informationen sind notwendig, um die Zuordnung treffen zu können. Diese wird durch eine entsprechende Annotation im Transkript hergestellt, d.h. Änderungen finden nur im Transkript statt. Kann ein Token keinem Type zugeordnet werden, so muss dies gesondert markiert werden und führt möglicherweise zu einem späteren Zeitpunkt zu einer Veränderung der Datenbankeinträge, indem z.B. eine zusätzliche Variante aufgenommen wird. Diese Entscheidung trifft der Korpus-Manager, der die Transkripte auf entsprechende Hinweise auswertet und die Berechtigung hat, Änderungen in der Datenbank vorzunehmen und diese im Transkript nachzuvollziehen, um die Konsistenz der Lemmatisierung und der Lemmaselektion sicherzustellen. Da für die DGS, im Unterschied zu Auslan, kein lexikalisches Standardwerk vorliegt, musste parallel zur Transkription eine lexikalische Ressource aufgebaut werden, die in erster Linie zur Qualitätssicherung der Transkriptionen, insbesondere der Lemmatisierung, dient. Die Besonderheit dieses Verfahrens besteht darin, dass Transkript und Datenbank nicht getrennt sind, sondern alle Annotationen eines Transkripts in verschiedenen Tabellen der Datenbank verwaltet werden. Dabei wird unterschieden in TypeInformationen wie die Glosse und deren Zitierform, und Token-Informationen wie z.B. eine Formabweichung. Type-Informationen werden nicht im Transkript eingetragen, sondern beim Type. Im Token-Tag des Transkripts wird lediglich die ID des Types gespeichert. Dieses Vorgehen zwingt den Transkribenten dazu, einen Type zuerst in der Datenbank anzulegen, bevor eine Token-Type-Zuordnung beim Token eingetragen werden kann. Informationen zu diesem Type wie Grundform und Bedeutung einer konventionellen Gebärde werden schon bei der ersten Token-Type-Zuordnung notiert. Aus- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 84 gangspunkt dafür ist die Form und Bedeutung der Token. Dies entspricht dem Bottomup-Ansatz mit dem Unterschied, dass die Entscheidung, welcher Type angelegt wird und welche Type-Informationen eingetragen werden, nicht auf der Grundlage aller Token nach Abschluss der Transkription vorgenommen werden kann. Die noch fehlenden empirischen Daten müssen durch das sprachliche Wissen der gehörlosen Transkribenten ersetzt werden. Die Zuordnung des Tokens zu diesem Type entspricht dann wiederum dem Top-down-Ansatz, d.h. durch die enge Verbindung zwischen Transkription und Erweiterung der lexikalischen Datenbank findet ein ständiger Wechsel zwischen Bottom-up- und Top-Down-Perspektive statt. Die Lemmarevision (s. Kap. 6.3) wiederholt diese Schritte, diesmal jedoch auf der Grundlage aller erfassten Token, d.h. dass Entscheidungen, die aufgrund der Datenlage zu einer Veränderung der lexikalischen Datenbank führen (bottom-up), empirisch abgesichert sind durch die Korpusdaten. Abb. 12: Lemmarevision als Bottom-up-Prozess Dadurch, dass möglichst früh im Laufe der Rohtranskription Types angelegt werden, wird die weitere Token-Type-Zuordnung erleichtert, da diese Informationen nicht immer wieder neu beim Token eingetragen werden müssen, sondern aus dem Type abrufbar sind. Der methodische Nachteil liegt darin, dass dadurch die Auswertung der Annotationen, die in einem reinen Bottom-up-Ansatz zunächst einmal bei jedem Token eingetragen werden müssten, vorweggenommen wird. Ist der Type angelegt, dann entspricht das weitere Vorgehen dem Top-down-Ansatz. Die vorhandenen Type-Einträge im Lexikon beinhalten Klassifizierungen und Differenzierungen, anhand derer die Identifizierung eines Tokens als Realisierung eines Types getroffen wird. Dies gilt jedoch nur mit der Einschränkung, dass diese Klassifizierungen vorläufig sind und entweder schon während der Rohtranskription korrigiert oder nach Abschluss der Rohtranskription durch die Lemmarevision (s. Kap. 6.3) anhand des Vergleichs aller Token eines Types und der Types miteinander überprüft werden. Die Voraussetzung für die Konsistenz dieser Überprüfung ist, dass Abweichungen vom Type in Bezug auf Form und Bedeutung bei jedem Token annotiert werden. Der Nachteil dieses Vorgehens ist, dass die Form des Tokens nicht vollständig im Transkript notiert ist. Sie kann jedoch aus der Grundform des Types und den Angaben zur Formabweichung ermittelt werden. Die Avatar-Technologie ist mittlerweile so weit fortgeschritten, dass auf der Grundlage einer HamNoSys-Notation die Zuverlässigkeit der Formangaben im Type und im Token Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 85 überprüft werden kann. Zum Beispiel kann ein Avatar dazu eingesetzt werden, die notierte Form mit der tatsächlichen Ausführung auf dem Video zu vergleichen. Fehlende oder unvollständige Angaben können daraufhin ergänzt werden. Die Entscheidung, Modifikationen als eigene Gebärdeneinträge anzulegen und nicht als Relationen innerhalb eines Types, hatte insbesondere zu Beginn den praktischen Vorteil, dass sie auf der Glossenebene sichtbar sind. Bei der Token-Type-Zuordnung werden sie zusammen mit der Grundform in einer alphabetisch sortierten Auswahlliste angezeigt. Anhand der HamNoSys-Notation kann die Zuordnung relativ schnell getroffen werden. Langfristig wird die Gebärdenliste dadurch jedoch unübersichtlich. Weiterhin ist die Relation zwischen Grundform und Modifikation sowie zwischen den Ausführungsvarianten lediglich über den Glossennamen (inkl. der ersten Ziffer) kodiert, was eine unbefriedigende Lösung darstellt. Glossennamen sollten so wenig wie möglich durch zusätzliche Informationen, die nicht an anderer Stelle abrufbar sind, überfrachtet werden. Im Rahmen der geplanten Überarbeitung der Datenbank wird dieser Missstand beseitigt werden. Modifikationen und Varianten werden dann als Relationen angelegt und können durch entsprechende Sichten immer noch zusammen mit der Grundform angezeigt werden, sodass dadurch die Token-Type-Zuordnung nicht notwendigerweise zeitaufwändiger werden muss. 6.2.2 Überdifferenzierung versus Unterdifferenzierung Die Frage, ob eine Formabweichung die Realisierung einer phonologischen Variante, durch den Kontext bedingt oder idiosynkratisch ist, kann auf der Grundlage eines einzigen Tokens nicht entschieden werden. Erst wenn ein Informant dieselbe Ausführung einer Gebärde öfters wiederholt oder weitere Informanten eine bestimmte Gebärde in dieser Form ausführen, kann die Entscheidung für eine phonologische Variante getroffen werden. Das bedeutet, dass es während der Rohtranskription sinnvoll ist, weniger Types anzulegen und Formabweichungen im Token zu notieren. Dies erhöht zwar den Arbeitsaufwand, gibt aber entscheidende Hinweise, um die Token eines Types bei der Lemmarevision miteinander zu vergleichen. Zur Unterdifferenzierung zählen folgende Fälle: • Einem Type sind Token verschiedener Ausführungsvarianten zugeordnet, • leichte Formunterschiede werden nicht als verschiedene Modifikationen interpretiert, • Token homonymer Gebärden sind aufgrund ihrer Formgleichheit demselben Type zugeordnet, • Modifikationen und Ausführungsvarianten sind demselben Type zugeordnet, • eine Modifikation wird als produktive Gebärde klassifiziert und umgekehrt. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 86 All diese Fälle sind im Rahmen der Rohtranskription erwünscht, d.h. die Unterdifferenzierung ist einer Überdifferenzierung vorzuziehen, da eine gesicherte Entscheidung erst auf der Grundlage aller identifizierten Token im Rahmen der Lemmarevision vorgenommen werden kann (s. Kap. 6.3). Eine Überdifferenzierung während der Rohtranskription kann diesen Arbeitsschritt erschweren, da die Anzahl der Gebärden wächst, zwischen denen die Token-Type-Zuordnung getroffen werden muss. Ähnlich verhält es sich auch mit der Entscheidung, ob es sich um eine produktive oder eine bereits lexikalisierte Gebärde handelt. Bedingt durch die im Vergleich zu einem Monolog oder Dialog relativ kontextarmen Daten – die Antworten des Informanten beziehen sich auf den Stimulus, das Fachwort, das in einigen Projekten durch Bildmaterial ergänzt wurde (s. Kap. 4.2.3) – fällt die Entscheidung, ob es sich um eine Modifikation einer Gebärde, d.h. eine intendierte Formveränderung, die eine Bedeutungsveränderung bewirkt, oder lediglich eine Ausführungsvariante handelt, in einigen Fällen schwer. Eine anhand der Transkriptionskonventionen (s. Kap. 6.1.1.4) nicht begründbare Identifikation einer Modifikation wäre als Überdifferenzierung zu werten, da Modifikationen strukturell der Ebene der Types untergeordnet sind, Varianten sich jedoch auf gleicher Ebene befinden. Eine weitere Form der Überdifferenzierung hängt mit der Frage zusammen, welchen Stellenwert man den Ablesewörtern zuschreibt. Beim Überblick über verschiedene Glossierungkonventionen (s. Kap. 6.1.1.6) wurde deutlich, dass die Verwendung formgleicher Gebärden in Kombination mit verschiedenen Ablesewörtern zu der Entscheidung führen kann, verschiedene Lexeme anzusetzen. So wird z.B. im NGT-Korpusprojekt zwischen BROER (Bruder) und ZUS (Schwester) unterschieden. Sieht man in den Ablesewörtern eine von den Gebärdenden genutzte Möglichkeit, Zeichen eines anderen Zeichensystems mit den Gebärden zu kombinieren (s. ➚ 4.1.4 u. 4.1.5), dann ist die genannte Unterscheidung eine Überdifferenzierung, da weder die Form noch der ikonische Gehalt der Gebärde einen Grund liefern, von zwei Lexemen auszugehen. Unabhängig von der durch das Ablesewort realisierten Bedeutung handelt es sich um dieselbe Gebärde, deren ikonischer Gehalt es nahelegt, diese zusammen sowohl mit dem einen als auch mit dem anderen Ablesewort zu kombinieren. In ähnlicher Weise gehen auch andere Projekte vor wie z.B. das Auslan-Projekt. Auch wenn die Gebärde IMPORTANT von englischen Ablesewörtern wie ‚important‘, ‚importance‘, ‚main‘ oder ‚primary‘ begleitet wird und in den entsprechenden Kontexten durch diese Wörter am besten übersetzt werden kann, werden diese Realisierungen immer mit IMPORTANT glossiert (vgl. Johnston/de Beuzeville 2008:12). Ebenso fassen Skant et al. (2001) sowie Neidle (2002) die verschiedenen Bedeutungen bzw. Übersetzungen einer Gebärde unter einem Lexem zusammen und listen diese im Glossennamen mit auf. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 87 6.2.3 Komplexität, Differenzierung und effiziente Suchfunktionen Je komplexer die Zusammenhänge zwischen den Kategorien und je detaillierter die Phänomene werden, die im Rahmen der Transkription erfasst werden sollen, desto komplexer wird die Datenbank, die diese Zusammenhänge modellieren soll. Gleichzeitig sollen sowohl die Eingabe von Daten als auch das Finden und Zusammenstellen von Daten unterstützt werden, sodass Transkribenten, die in die Transkriptionskonventionen und die Benutzung der Datenbank eingearbeitet sind, ohne zu hohen Zeitaufwand die Rohtranskription und die Lemmarevision erledigen können. Die Zunahme der Gebärdeneinträge und die durch die Transkriptionskonventionen festgelegte Differenzierung sollte nicht dazu führen, dass die Entscheidungsprozesse, die der Transkribent bei der Token-Type-Zuordnung treffen muss, immer zeitaufwändiger werden. Die folgende Tabelle gibt einen Überblick über die in jedem Projekt identifizierten Gebärden, Modifikationen und Varianten sowie die Zunahme aller Gebärdeneinträge über die verschiedenen Projekte hinweg. Getrennt von den konventionellen Gebärden werden die produktiven aufgelistet. Gebärden Modifikationen Varianten gesamt (Grundform) (Zunahme) HLex 1115 656 955 1771 produktive gesamt Gebärden (Zunahme) 137 1926 SLex 882 530 689 1412 30 1456 GLex 1589 1516 1701 3105 860 3992 GaLex 1237 1501 1407 2738 553 3299 Tabelle 5: Identifikation konventioneller Gebärden pro Projekt und Zunahme insgesamt Eine nach Glossen oder Formmerkmalen sortierbare Liste aller Gebärden, die Johnston/de Beuzeville (2008:30) fordern, um eine Lemmatisierung vorzunehmen, ist jedoch nicht ausreichend, um in möglichst kurzer Zeit festzustellen, ob eine Gebärde bereits vorhanden ist oder neu angelegt werden muss. Neben der Suche nach der Form einer Gebärde ist auch die Suche über die Bedeutung bzw. eine kombinierte Suche wichtig, um möglichst gezielt bereits vorhandene Einträge zu finden. Weiterhin sollte nicht nur nach Angaben zu einem Type gesucht werden können, sondern auch nach Annotationen, die zu einem Token gemacht werden, z.B. nach Angaben zum Ablesewort oder zur Bedeutung, die von der Bedeutung des Types abweichen kann, z.B. wenn eine Gebärde mit einem unüblichen, zum ikonischen Gehalt der Gebärde jedoch passenden Ablesewort kombiniert wird (s. ➚ 4.1,5). In iLex stehen zwei Suchmasken zur Verfügung, die eine kombinierte Suche (Form und Bedeutung) innerhalb der Type- oder Token-Angaben erleichtern. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 88 Abb. 13: Type-Suche Abb. 14: Token-Suche Da die Ergebnismenge noch stärker eingeschränkt werden kann, wenn bei der TypeSuche zusätzlich zu Form und Bedeutung auch die Bilderzeugungstechnik (s. ➚ 4.2.1) ausgewählt werden kann, wird diese Möglichkeit in der geplanten Überarbeitung dieser Suchmaske mit eingebaut werden. Dies ist insbesondere bei der Suche nach bereits vorhandenen produktiven Gebärden hilfreich, da bei diesen ikonischen Gebärden immer der ikonische Gehalt und damit die Funktion der Hände, die sie bei der Visualisierung übernehmen, bestimmbar ist. Neben diesen beiden Suchfunktionen gibt es die Möglichkeit, innerhalb der Informationseinheiten, die das Gebärdenfenster zeigt, nach einem Textstring zu suchen. Durch die Eingabe eines Suchtextes kann die Menge der Einträge z.B. reduziert werden auf alle Gebärden, die denselben Glossennamen haben. Weiterhin können durch geeignete select-Befehle die Informationseinheiten, die zusammen mit der Glosse gezeigt werden sollen, z.B. Kommentare zum Type, erweitert oder die Menge der Gebärdeneinträge reduziert werden, z.B. um alle Gebärden zu sehen, die innerhalb eines Projekts verwendet werden. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 89 Abb. 15: Gebärden-Fenster mit Einschränkung der Ergebnismenge durch Filter und Suchtext Die bereits genannten Suchfunktionen sind insbesondere für die Rohtranskription wichtig und hilfreich. Ist bei einer Gebärde ein Verweis auf eine formgleiche oder formähnliche Gebärde eingetragen, dann kann dies in manchen Fällen noch schneller zum Erfolg führen. Für die Lemmarevision können über verschiedene Abfragen weitergehende Konsistenzprüfungen durchgeführt werden, z.B. können alle Gebärdeneinträge gefunden werden, die dieselbe Grundform haben, sich jedoch im Glossennamen einschließlich der ersten Ziffer unterscheiden. Bei einer konsistenten Type-Identifizierung darf dies nur bei homonymen Gebärden (s. ➚ 4.2.2.4) der Fall sein. Ebenso kann sehr schnell geprüft werden, ob ein Formgleich-Verweis eingetragen wurde, obwohl die HamNoSys-Notationen verschieden sind. 6.2.4 Qualitätssicherung: Paralleltranskription (inter-transcriber reliability) versus mehrstufiges Verfahren Patterson et al. (1996) treten mit ihrer empirischen Studie dem Vorwurf entgegen, dass die Daten konversationsanalytischer Studien nicht verlässlich wären, da oftmals keine Angaben dazu gemacht würden, wie stark verschiedene Transkribenten unabhängig voneinander in ihrer Transkription bzw. Annotation übereinstimmen bzw. voneinander abweichen. Die Autoren betonen, dass die erste und wichtigste Voraussetzung für eine Objektivierung empirisch gewonnener Aussagen darin besteht, die Rohdaten zugänglich zu machen. Nur wenn qualifizierte Personen unabhängig von den Autoren einer Studie Zugang zu den Rohdaten haben, ist eine Überprüfung der Aussagen möglich. Ähnlich argumentiert auch Johnston (2008a/b, 2010b): Eine Überprüfung der zur Veröffentlichung eingereichten Artikel (peer review) ist nur dann aussagekräftig, wenn die Gutachter Zugriff auf die Rohdaten haben. Stimmen mehrere Personen unabhängig voneinander in ihren Annotationen desselben Rohdatums überein, dann ist dies als ein starker Hinweis auf die Reliabilität (Zuverläs- Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 90 sigkeit) der Annotation zu werten. Allerdings ist dadurch nicht die Genauigkeit bzw. Fehlerfreiheit (accuracy) garantiert. Die Übereinstimmung (agreement) kann statistisch ermittelt werden. Eine hohe Übereinstimmung korreliert mit einer hohen Reliabilität. Die Validität (Gültigkeit) wiederum steht in einem direkten, exponentiell steigenden Verhältnis zur Reliabilität (s. Patterson et al. 1996:82). Mit inter-transcriber reliability ist das statistische Maß der Übereinstimmung zwischen Annotationen verschiedener Transkribenten gemeint. Die Annotation ist bei einer phonetischen Transkription die Verschriftlichung der Lautform. Im Unterschied zu einer rein phonetischen Transkription wird bei einer Token-Type-Zuordnung auch von Kodierung gesprochen, da der Transkribent eine Klassifizierung des Tokens vornimmt. Die Übereinstimmung in der Kodierung wird auch inter-coder agreement genannt. Die Ursache für unterschiedliche Annotationen kann in der individuell verschiedenen akustischen Wahrnehmung liegen oder in der unterschiedlichen Erfahrung. Ein erfahrener Transkribent mit einem geschulten Gehör transkribiert anders als ein Neuling, der gerade erst in die Technik eingewiesen wurde. Patterson et al. (1996:80) weisen darauf hin, dass für die Qualitätssicherung die Schulung der Transkribenten wichtig ist und vergleichen die Transkriptionstechniken mit einem Mikroskop, das justiert werden muss, um scharfe Bilder zu liefern. In Analogie dazu sprechen sie von der „Kalibrierung der Transkriptionstechniken“. Dazu gehören ein Handbuch, das möglichst alle für die Untersuchung relevanten Phänomene und deren Annotation anhand von Beispielen erläutert, sowie ein standardisiertes phonetisches Alphabet. Für die Transkription des Buckeye Corpus54 (Pitt et al. 2005) wurde ein bereits verwendetes Alphabet sowie Transkriptionskonventionen durch die Projektmitarbeiter getestet, indem diese unabhängig voneinander einminütige Ausschnitte transkribierten und die Unterschiede diskutierten. Aus diesen Erfahrungen entstand das Transkriptionsmanual, das die Konventionen sowie das phonetische Alphabet mit insgesamt 69 Symbolen enthält, das die Transkribenten für die phonetisch enge Transkription der Daten benutzen sollen (Kiesling 2006). Die inter-transcriber reliability wurde bezogen auf die Segmentgrenzen und die phonetische Annotation gemessen. Dazu bearbeiteten vier Transkribenten unabhängig voneinander jeweils vier einminütige Stichproben aus dem Korpus. Das entscheidende hier ist nicht das Ergebnis der Untersuchung, das im Wesentlichen mit anderen Untersuchungen übereinstimmte (Raymond 2003), sondern das Verhältnis der Stichprobe (vier Minuten) zum Gesamtkorpus (40 x 30-60 min). Da Transkription zeitintensiv ist, werden für Untersuchungen zur Übereinstimmung von Transkriptionen i. d. R. relativ kleine Ausschnitte bearbeitet. Für eine einfache orthographische Transkription von gesprochenem Französisch gibt Blanche-Benveniste (1987:179-180) einen 54 Das Korpus, das möglichst vielseitig verwendbar sein soll, hat seinen Schwerpunkt auf der phonologischen Variation, die im modernen amerikanischen Englisch vorkommt. Die Dokumentation sowie die Rohdaten und die Transkriptionen sind online verfügbar unter der URL: http://vic.psy.ohio-state.edu/. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 91 Erfahrungswert von 20-30 min pro 1 min Rohdaten an. Patterson et al. (1996:83) gehen bei optimistischer Schätzung vom Faktor 30 für die Transkription im Rahmen der Konversationsanalyse aus. Brinkmann gibt für eine manuell durchgeführte phonetische Transkription einen Wert von 1:200 an. Für die Erstellung von Transkripten in der Gestenforschung, die die orthographische Transkription zugrunde legt, um dann die sprachbegleitenden Gesten zu identifizieren, ist ein noch höherer Zeitaufwand erforderlich, da nicht auf ein standardisiertes Beschreibungsinventar wie das IPA zurückgegriffen werden kann und mehrere Aspekte, die zeitgleich artikuliert werden wie Mimik, Blick, Körperhaltung und Bewegungen der Hände, notiert werden müssen. Aus eigenen Erfahrungen in der Transkription von Gebärdensprache, inklusive der notwendigen Arbeitsschritte für die Konsistenzprüfung, ist ein Faktor von 350-400 realistisch. Der hohe Zeitaufwand hat zur Folge, dass Paralleltranskriptionen nur für kurze, für das Korpus repräsentative Textausschnitte vorgenommen werden können. Für eine objektivierbare statistische Messung der Übereinstimmung von Transkripten sind diese Paralleltranskriptionen unverzichtbar. In der Gebärdensprachforschung wurden vergleichbare Testverfahren für die Durchführung und Auswertung von Paralleltranskripten noch nicht entwickelt. Ein für Lautsprachen entwickeltes Untersuchungsdesign kann nicht ohne Weiteres auf die Transkription von Gebärdensprache übertragen werden. Zum einen ist die Bestimmung des Anfangs- und Endpunktes einer Gebärde nicht trivial, da verschiedene manuelle und nonmanuelle Zeichen gleichzeitig artikuliert werden, deren Onset und Offset häufig nicht übereinstimmen. Dies erschwert zudem das Erfassen bedeutungs- oder für die sprachliche Interaktion relevanter Äußerungsbestandteile. Zum anderen gibt es, im Unterschied zur orthographischen Transkription, nicht die Möglichkeit, auf ein standardisiertes Schriftsystem zurückzugreifen. Die Glossierung, verstanden als konsistente Token-Type-Zuordnung, entspricht der Lemmatisierung und macht keine Angabe zur Form der Gebärde und ihrer Bedeutung im Kontext. Während das Internationale Phonetische Alphabet (IPA) eine relativ eindeutige Zuordnung von Laut zu graphischem Zeichen ermöglicht, erlauben Notationssysteme für Gebärdensprachen wie z.B. HamNoSys, die Form einer Gebärde auf verschiedene Weise zu notieren, d.h. die Verwendung der Symbole ist nicht ausreichend normiert, um Abweichungen in der Notation als Fehler interpretieren zu können. Hinzu kommt, dass es keine allgemein verbindliche Sortierfolge der HamNoSys-Zeichen gibt, sondern jeder Benutzer dieses Zeichensatzes die Sortierfolge von HamNoSys-Notationen, z.B. für die Angabe der Grundform eines Lexems, selbst festlegen kann. Ebenso wie für die Glossierung und die Transkriptionskonventionen gibt es auch hierfür keinen Standard. Obwohl es keine Standardschrift für die Transkription von Gebärdensprachen gibt, kann es dennoch zu fehlerhaften Interpretationen der Token kommen, die MacWhinney (2008:15) als „overnormalisation“ und „undernormalisation“ beschreibt. Im ersten Fall werden Äußerungen, insbesondere von Kindern oder L2-Lernern, der Standardform Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 92 zugeordnet, obwohl sie sich in ihrer Lautung davon unterscheiden. Im zweiten Fall werden häufig wiederkehrende Formabweichungen nicht als Varianten erkannt. Bei der Token-Type-Zuordnung in Gebärdensprachen kann die im Lexikon oder in der lexikalischen Datenbank festgelegte und vom Transkribenten internalisierte Grundform dazu führen, dass ähnliche Vorkommen diesem Type zugeordnet werden und der Formunterschied entweder nicht erkannt oder als nicht relevant angesehen wird. In der Regel wird die Formabweichung dann auch nicht notiert. Im Fall der „undernormalization“ fällt die Formabweichung zwar auf und wird beim Token notiert, sie wird jedoch nicht als wiederkehrendes Muster interpretiert, das eine weitere Differenzierung erfordert, z.B. als phonologische Variante. Während die „overnormalization“ ein Problem der unbewussten Korrektur sprachlicher Äußerungen anhand einer internalisierten Norm darstellt, die durch eine Paralleltranskription entdeckt werden kann, ist die „undernormalization“ ein Problem der Interpretation vorhandener Annotationen. Werden Formabweichungen als nicht relevant angesehen, dann sind auch diese Fälle schwer zu entdecken. Entscheidend ist in beiden Fällen, dass die Annotationen immer mit den Rohdaten verbunden sind, sodass unmittelbar auf diese zugegriffen werden kann. Je öfter verschiedene Personen die Rohdaten ansehen, desto größer ist die Chance, dass Fehler entdeckt und korrigiert werden können. Ein erster Schritt zur Qualitätssicherung der Transkriptionen ist die Durchführung der Transkription in einem mehrstufigen Verfahren (vgl. auch Johnston/de Beuzeville 2008:8). Die Erfahrung hat gezeigt, dass ein Transkribent überfordert ist, wenn er mehrere Bearbeitungsschritte berücksichtigen soll. Es hat sich als durchaus sinnvoll erwiesen, schon die Rohtranskription in verschiedenen Durchgängen vorzunehmen, d.h. zuerst die Token zu segmentieren, dann die segmentierten Token zu identifizieren und Formabweichungen einzutragen und in einem dritten Durchgang Ablesewort und Mundgestik zu annotieren. Werden diese Arbeitsschritte von einem Transkribenten erledigt, dann findet anschließend eine Überprüfung durch einen anderen Transkribenten statt. Dies entspricht zwar nicht den Maßstäben, die eine unabhängige Paralleltranskription setzt, aber es ist ein Vorgehen, das mit einem vertretbaren Zeitaufwand eine Absicherung der Transkriptinformationen bietet. Systematische Fehler können dadurch i. d. R. entdeckt werden. Weiterhin werden im Rahmen der Lemmarevision Transkripte durch die Angabe der Bedeutung erweitert. Dieser zusätzliche Bearbeitungsschritt, der nur mithilfe eines direkten Zugriffs auf die Rohdaten möglich ist, ist mit einer Überprüfung der vorhergehenden verbunden und kann zu einer Änderung der Token-Type-Zuordnung führen. Ebenso wird die Auswahl geeigneter DGS-Übersetzungen (s. Kap. 7) nicht allein aufgrund der vorliegenden Glossierungen sowie zusätzlicher Angaben aus der Sichtung (s. Kap. 5) vorgenommen, sondern beginnt mit dem wiederholten Ansehen aller elizitierten Antworten. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 6.3 93 Lemmarevision: vom Type zum Token und Type-Umgebung Bei der Rohtranskription wird im Rahmen der Token-Type-Zuordnung vom einzelnen Token ausgehend ein passender Type in der lexikalischen Datenbank gesucht, d.h. die vorher in der lexikalischen Datenbank festgelegten Type-Informationen zu Form und Bedeutung entscheiden über die Zuordnung. Die Suche nach einem passenden Type und die Zuordnung entsprechen dem Top-down-Ansatz. Die Lemmarevision dient zum einen dazu, die Type-Informationen durch den Vergleich aller Token eines Types zu überprüfen. Zum anderen wird, ausgehend von den TokenInformationen, die Abgrenzung verschiedener Types (Ausführungsvarianten) und ihrer Ausprägungen (Modifikationen) untereinander geprüft. Dadurch soll einerseits eine Unterdifferenzierung in der Token-Type-Zuordnung korrigiert werden, indem entsprechend dem Bottom-up-Ansatz z.B. neue Varianten oder Modifikationen eines Types angelegt werden, andererseits eine mögliche Überdifferenzierung auf der Type-Ebene, z.B. durch das im Nachhinein nicht gerechtfertigte Anlegen einer Variante, die sich als idiosynkratische oder lexikalisch nicht relevante Abweichung herausstellt (s. Kap. 6.2.2). Im Folgenden werde ich die einzelnen Aspekte der Lemmarevision nur auf Token beziehen, die Belege für konventionelle Gebärden sind. Selbstverständlich werden auch die Token produktiver sowie sonstiger Gebärden (s. Kap. 6.1.1) im Zuge der Lemmarevision überprüft. 6.3.1 Vom Type zum Token Von den Type-Informationen ausgehend – Zitierform, konventionelle Bedeutungen (s. ➚ 4.1.5) und ikonischer Gehalt (s. ➚ 4.2.1) – werden alle Token daraufhin überprüft, ob sie mit diesen Informationen übereinstimmen. An dieser Stelle ist es wichtig zu betonen, dass diese Überprüfung nicht nur anhand der Annotationen, d.h. der Primärdaten, vorgenommen wird, sondern immer durch einen Zugriff auf die Rohdaten. Vorhandene Annotationen zur Form des Tokens (Abweichung von der Grundform) oder zur Bedeutung (Ablesewort oder Bedeutung der Einzelgebärde) sind notwendig, um die Token untereinander vergleichen zu können und sich z.B. durch eine geeignete Sortierung einen schnelle Überblick zu verschaffen. Die Überprüfung dieser Angaben, auch auf Vollständigkeit hin, ist jedoch im Rahmen der Qualitätssicherung notwendig. Dies kann nur durch das Ansehen der Rohdaten, d.h. der entsprechenden Videoauschnitte, geschehen. Insbesondere bei Token, bei denen z.B. keine Formabweichung annotiert ist, muss sich der Transkribent im Rahmen der Lemmarevision vergewissern, dass die Ausführung des Tokens mit der Zitierform des Types übereinstimmt. Zur Überprüfung der Bedeutung ist es in einigen Fällen, insbesondere bei produktiven Gebärden, wichtig, sich auch den Äußerungskontext anzusehen. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 94 Bezogen auf den Formaspekt sind Token ohne Formabweichung Belege für diesen Type. Vorhandene Formabweichungen können entweder idiosynkratisch oder kontextbedingt, aber lexikalisch nicht relevant sein. Diese Token zählen ebenfalls als Belege. Bedeutungsrelevante Formabweichungen sind keine Belege für die Zitierform einer Gebärde, sondern für eine Modifikation. Ist in der lexikalischen Datenbank noch keine entsprechende Einheit auf Type-Ebene angelegt, dann muss die Datenbank angepasst (bottom-up) und eine Änderung der Token-Type-Zuordnung vorgenommen werden (topdown). Wiederholte intra- und/oder interpersonelle Formabweichungen, die keine Modifikation darstellen, sind Hinweise auf eine Ausführungsvariante. Es kann aber auch sein, dass die Zitierform des Types aufgrund dieser Datenlage geändert werden muss. Dies hat, ebenso wie eine Korrektur der Token-Type-Zuordnung, zur Folge, dass die annotierte Formabweichung in den Token ebenfalls manuell angepasst werden muss. Damit ein Token als Beleg eines Types gelten kann, muss es nicht nur in der Form, sondern auch in der Bedeutung mit den Type-Informationen übereinstimmen. Einen Hinweis auf die Bedeutung eines Tokens liefert das Ablesewort. Dies trifft insbesondere für die elizitierten Antworten zu, die i. d. R. von einem Ablesewort, das dem Fachbegriff entspricht, begleitet werden. Weicht die Bedeutung von den konventionellen Bedeutungen einer Gebärde ab, dann muss dies im Token notiert werden. Entsprechen Ablesewort und/oder Bedeutung nicht den konventionellen Bedeutungen des Types, dann kann es sich um eine produktive Verwendung einer konventionellen Gebärde (s. ➚ 4.1.5.1) handeln – dies erfordert eine neue Zuordnung des Tokens – oder um eine neue konventionelle Verwendung einer Gebärde handeln – dies erfordert eine Änderung der lexikalischen Datenbank auf der Type-Ebene, indem ein neues Lexem angelegt wird und das Token diesem Lexem zugeordnet wird. Die Token-Bedeutung sollte als Annotation im Transkript bzw. im Token-Tag bleiben, da im Unterschied zur HamNoSys-Notation der Formabweichung der Vergleich der Token hinsichtlich der Bedeutung dadurch nicht erschwert wird. Im Sinne der Vollständigkeit und um die Trefferquote bei der Token-Suche zu erhöhen, ist es sogar wünschenswert, wenn die Bedeutung bei jedem Token eingetragen ist. 6.3.2 Type-Umgebung Für die Überprüfung der Type-Umgebung ist es sinnvoll, zuerst mit der Zitierform einer Gebärde zu beginnen, dann die dazugehörigen Modifikationen zu prüfen und anschließend die Ausführungsvarianten. Danach schließt sich die Überprüfung der Synonyme an. Da Zitierform, Modifikation und Synonyme i. d. R. mit demselben Glossennamen benannt werden, können sie über die Suchfunktion im Gebärdenfenster einfach selektiert werden. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 95 Abb. 16: Gebärdenfenster mit selektierten Types (Glossenname) Während bei der Überprüfung der Token-Type-Zuordnung Form und Bedeutung im Vordergrund stehen, muss auf der Type-Ebene auch der ikonische Gehalt einer Gebärde berücksichtigt werden, um entscheiden zu können, ob es sich um verschiedene Gebärden, Varianten oder Modifikationen eines Types handelt. Die Rolle der Ikonizität und ihre Auswirkungen auf die Lemmaselektion in der lexikalischen Datenbank wurden von König et al. (2008) anhand verschiedener Beispiele vorgestellt (s. ➚ 4.2.2). An dieser Stelle möchte ich lediglich auf die Formgleich- und Formähnlich-Verweise innerhalb der Types eingehen, die im Rahmen der Lemmarevision geprüft und erweitert werden. Die Beziehungen zwischen Grundform und Modifikationen, verschiedenen Ausführungsvarianten und Synonymen werden bisher durch die Glossierung erfasst. Die Types erhalten denselben Glossennamen, der entsprechend den Glossierungskonventionen durch zusätzliche Ziffern und Buchstaben erweitert wird. Darüber hinaus gibt es jedoch viele Gebärden, die formgleich oder formähnlich sind, ohne in einem der genannten Beziehungsverhältnisse zueinander zu stehen. In vielen Fällen ist die Formähnlichkeit nicht rein zufällig, sondern sie lässt sich durch den Vergleich der den Gebärden zugrunde liegenden Bilder erklären. Die aufgrund ihrer Ikonizität sich ergebenden Beziehungen zwischen Gebärden bilden ein z.T. sehr engmaschiges Netz, das Auskunft darüber gibt, wie sehr die Ikonizität im Lexikon der Gebärdensprachen verankert ist (s. ➚ 4.2.2.6). Es ist einerseits aus lexikologischer und lexikographischer Sicht geboten, dass die Konventionalität der Form-Bedeutungs-Beziehung für die Lemmaselektion im Vordergrund steht, andererseits ist es unverständlich, warum die Ikonizität als augenfälliges Spezifikum von Gebärdensprachen in deren Beschreibung häufig ausgeklammert wird. Es stimmt, dass Gebärden wie HEXE und PAPAGEI „in keiner semantischen Beziehung zueinander [stehen]“ (Becker 2003:176). Über das Ziel, die Bedeutung von Gebärden als entscheidendes Kriterium für die Lemmaselektion zu betonen, hinausgeschossen scheint allerdings folgende Aussage von Johnston/Schembri (1999:158), die sich auf die Auslan-Gebärden SCISSORS und CRAB beziehen: „It is clear from the iconicity, etymology, or semantics of each lexeme that they are actually completely Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 96 unrelated to each other.“ Beide Gebärden unterscheiden sich lediglich in der Anzahl der Hände: Bei SCISSORS wird die schneidende Bewegung von Zeige- und Mittelfinger nur mit einer Hand, bei CRAB beidhändig symmetrisch ausgeführt. Bei den vier genannten Gebärden werden Lebewesen bzw. Gegenstände dadurch visualisert, dass ein Bild erzeugt wird, das leicht auf deren hervorstechendes Merkmal schließen lässt. Ein gebogener Gegenstand im Gesicht, der durch eine skizzierende Bewegung mit dem gekrümmten Zeigefinger visualisiert wird, ist sowohl für „Hexe“ als auch für „Papagei“ ein eindeutiger Kontextualisierungshinweis, ebenso die schneidende Bewegung der beiden Finger, die entweder für die Schneiden einer Schere oder für die Zangen eines Krebses stehen (substitutive Technik; s. ➚ 4.2.1.1). Wie bei den produktiven Gebärden erzeugen diese ikonisch motivierten Gebärden ein gleiches („gebogener Gegenstand im Gesicht“) bzw. ähnliche Bilder mit einer allgemeinen Bedeutung („ein Paar längliche Schneidwerkzeuge“ versus „zwei paar Schneidwerkzeuge“), die jedoch nicht durch den konkreten Äußerungskontext, sondern durch die Konventionalisierung schon spezifiziert wurde. Insofern stehen die Gebärden SCISSORS und CRAB bezüglich ihrer Ikonizität in einer sehr engen Beziehung. Die entscheidende Frage ist, ob diese erste Stufe der Konventionalisierung (Johnston/Schembri 1999) in der lexikologischen und lexikographischen Beschreibung konventioneller Gebärden unberücksichtigt bleiben soll. Der von uns gewählte Ansatz, produktive wie konventionelle Gebärden hinsichtlich ihres ikonischen Gehalts zu beschreiben und zu analysieren und die formseitigen ikonisch-motivierten Beziehungen zwischen Gebärden zu dokumentieren, schlägt eine andere Richtung ein, da wir der Überzeugung sind, dass nur so der Stellenwert der Ikonizität angemessen berücksichtigt werden kann (s. ➚ 4.2). 6.3.3 Fehlerdokumentation, Fehlerkorrektur und Hierarchie der Bearbeitungsrechte Johnston/de Beuzeville (2008:8-9) weisen darauf hin, dass Fehler in der Annotation oder der Token-Type-Zuordnung nicht sofort behoben werden sollten. Statt dessen sollten sie in einer Kommentar-Spur eindeutig benannt werden, z.B. immer beginnend mit „error:“, damit sie gezielt über die Suchfunktion des Programms (ELAN) gefunden werden können, und in einem separaten Überarbeitungsschritt geprüft werden. Dadurch soll vermieden werden, dass vermeintliche Fehlerkommentare von einem anderen Transkribenten wieder gelöscht werden, der die betreffende Annotation nicht als Fehler einstuft, und so Fehler nicht entdeckt werden. Weiterhin kann eine Fehlerkorrektur weitere Folgen nach sich ziehen, die der Transkribent im Moment der Korrektur nicht überblickt. Dieses Verfahren folgt der Logik der Trennung zwischen Transkript und lexikalischer Ressource, die im Falle von Auslan durch die Auslan SignBank55 oder das Auslan55 URL: http://www.auslan.org.au/. Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank 97 Wörterbuch (Johnston 1998a/b) zur Verfügung steht und vom Transkribenten nicht verändert werden kann. Da ELAN dokumentenzentriert ist, d.h. die Bearbeitung und Verwaltung verschiedener Transkripte ermöglicht, aber keine Anbindung an eine Datenbank bietet, steht diese Option auch nicht zur Verfügung. Weiterhin wird davon ausgegangen, dass die Kommentare von einem Supervisor oder Korpus-Manager durchgesehen werden, der mehr Hintergrundwissen und mehr Rechte hat als der Transkribent. Werden von ihm Änderungen vorgenommen, dann nicht in demselben Transkript, sondern in einer Kopie dieses Transkripts, das damit die aktuellste Version darstellt. Dadurch ist gewährleistet, dass die verschiedenen Bearbeitungsschritte dokumentiert sind und Änderungen jederzeit nachvollzogen werden können durch den Vergleich der verschiedenen Transkriptversionen. Der Nachteil dieses Vorgehens liegt darin, dass ein automatisierter Abgleich verschiedener Transkriptversionen, ähnlich wie bei einem Textprogramm, das zwei Dokumente vergleicht und die Änderungen anzeigt, von ELAN nicht unterstützt wird, d.h. der Abgleich ist zeitaufwändig. Die Korrekturen dürfen nur von wenigen Personen ausgeführt werden, die i. d. R. nur wenig Zeit für diese Arbeiten haben, d.h. es ist sehr wahrscheinlich, dass es zu einem Bearbeitungsstau kommt, der dazu führt, dass die Aktualisierung der Transkripte wesentlich später geschieht als vorgesehen. Sind Transkript und Datenbank wie in iLex miteinander verbunden, sodass sich Änderungen in der Datenbank direkt auf das Transkript auswirken, dann ist die Frage der Fehlerdokumentation noch dringender als in einem dokumentenzentrierten Ansatz. Zwar lässt sich eine SQL-Datenbank auf ein beliebiges Datum zurücksetzen und zeigt die Annotationen zum gewünschten Zeitpunkt. Diese Möglichkeit ist jedoch nur für Notfälle vorgesehen, wenn Datenverluste eintreten, z.B. durch unsachgemäße updateoder delete-Befehle. Die Möglichkeit, ein Transkript zu duplizieren und darin Änderungen vorzunehmen, besteht auch in iLex. Allerdings sind dadurch nur diejenigen Annotationen konserviert, die als freier Text eingetragen wurden. Alle Annotationen, die lediglich eine Referenz (eine ID-Nummer) enthalten, werden aktualisiert, sobald in der entsprechenden Zeile der Tabelle, auf die diese ID-Nummer verweist, Änderungen vorgenommen werden. Um verschiedene Bearbeitungsstände zu dokumentieren, müssten diese Referenzen von der Datenbank abgetrennt werden, z.B. indem die Tags in Textfelder umgewandelt werden und nicht mehr die ID-Nummer, sondern den damit verbundenen Wert als Text enthalten. Ein abgestuftes Vorgehen, das nicht das Transkript als Ganzes konserviert, besteht darin, bestimmte Annotationswerte, z.B. die Token-Type-Zuordnung, zu schützen. Eine Datenbank hat den Vorteil, dass die Bearbeitungsrechte für die einzelnen Benutzer feiner abgestuft werden können als in einem dokumentenzentrierten Ansatz. So können Zugriffs-, Lese- und Schreibrechte bezogen auf Filme, Transkripte oder Spurarten individuell oder gruppenspezifisch vergeben werden. Ebenso können Veränderungen in Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank bestimmten Tabellen benutzerspezifisch erlaubt oder verboten werden. Es wäre z.B. möglich, dass ein Transkribent nur von ihm selbst angelegte Tags verändern kann, nicht jedoch Tags, die ein anderer Transkribent angelegt hat. Ein Supervisor dagegen könnte die Glossen-Tags verändern und die vom Transkribenten angelegten Kommentare überarbeiten bzw. löschen. 98 Auswahl geeigneter DGS-Übersetzungen 7 99 Auswahl geeigneter DGS-Übersetzungen Die Segmentierung und Transkription der elizitierten Antworten sowie selektiver Ausschnitte aus den vorstrukturierten Gesprächen diente der Dokumentation der Daten und folgt einem rein deskriptiven Ansatz. Mit der Auswahl geeigneter DGS-Entsprechungen als Übersetzungen für die Fachbegriffe kommt zwangsläufig ein präskriptives Moment hinzu, da allein durch das Weglassen von Antworten eine Wertung vorgenommen wird. Die Reduktion auf möglichst eine Antwort ist im Sinne eines L2-Lerners, der mit einer Vielzahl möglicher Übersetzungen überfordert wäre. Andererseits möchte ein gehörloser Benutzer in den DGS-Übersetzungen die Gebärden wiederfinden, die zu seinem eigenen Wortschatz gehören. Der Kompromiss, den wir seit dem Fachgebärdenlexikon Hauswirtschaft (HLex; Konrad et al. 2000) anstreben, besteht darin, dass wir möglichst viele Varianten und Synonyme einer Gebärde in der Auswahl berücksichtigen, die Auswahl aber auf durchschnittlich zwei Antworten pro Begriff begrenzen (s. Kap. 3, Tab. 2). Ziel der Auswahl ist es, auf der Grundlage der transkribierten Antworten diejenigen auszuwählen, die den Fachbegriff angemessen wiedergeben, d.h. die Gebärden müssen einerseits mit den Gebärdenbildungsregeln der DGS im Einklang stehen (vgl. Becker 2003), andererseits müssen sie sich entweder auf den Inhalt des Fachbegriffs oder das Fachwort beziehen lassen. Dazu ein Beispiel: Für den Begriff ‚Bluthochdruck‘ wurden im Fachgebärdenlexikon Gesundheit und Pflege (GLex, Konrad et al. 2007) drei DGSEntsprechungen ausgewählt. Die ersten beiden bestehen aus jeweils zwei Gebärden, AUFSTEIGEN1A () BLUTDRUCK2 () und AUFSTEIGEN1B () BLUTDRUCK2. Die Gebärden werden von den Ablesewörtern ‚hoch‘ und ‚blutdruck‘ begleitet, eine wörtliche Übersetzung dieser Gebärden wäre „hoher Blutdruck“. Eine dritte DGS-Entsprechung besteht aus drei Gebärden und ist eine Lehnübersetzung, d.h. die Reihenfolge der Gebärden entspricht der Reihenfolge der drei Bestandteile des deutschen Kompositums: BLUT1B () OBEN2A () BLUTDRUCK2. Diese Übersetzung wurde zusätzlich zu den beiden anderen ausgewählt, da sechs von 13 Informanten sowohl zwei- als auch dreikomponentige Antworten gezeigt hatten. Außerdem bietet diese Auswahl die Möglichkeit, drei verschiedene Gebärden für die Bedeutung „hoch“ zu zeigen. Komposita müssen jedoch nicht immer durch mehrere Gebärden übersetzt werden. Die Gebärde HUSTEN2 () zusammen mit dem Ablesewort ‚keuchhusten‘ genügt, um diesen Fachbegriff zu übersetzen. Es handelt sich hierbei nicht um eine spontane, produktive Gebärde-Ablesewort-Kombination, sondern um eine konventionelle Verwendung dieser Gebärde in dieser Bedeutung (s. ➚ 4.1.5.1). Auswahl geeigneter DGS-Übersetzungen 100 Durch die Transkription ist es möglich, die Häufigkeit gleicher Antworten von verschiedenen Informanten als ein wichtiges Auswahlkriterium einzusetzen. Dazu werden die Antworten zu einem Begriff nach Glossen sortiert (s. Abb. 17). Abb. 17: Auswahl-Fenster (Auschnitt, sortiert nach Glossenkette) Diese Sicht auf die Daten56 zeigt zusätzlich zur Glossierung die Formabweichungen, die im Token eingetragen wurden, das Ablesewort („Mundbild“), den Kode des Informanten, den Stimulus bzw. den Begriff, zu dem die Gebärde erhoben wurde, die Ergebnisse der Sichtung („Fremdeinschätzung“, „Selbsteinschätzung“; s. Kap. 5.2) sowie die Erhebungsart. Der Kode für die Erhebungsart genügt, um anzuzeigen, ob ein Informant sowohl bei der Elizitation (Erhebungsart = 13) als auch im vorstrukturierten Gespräch (Erhebungsart = 1) und bei der freien Erklärung zu einer Bildtafel (Erhebungsart = 14) dieselbe(n) Gebärde(n) verwendet. Anstelle der Kodes könnten ebenso der Name des Informanten bzw. ein Kürzel oder die Bezeichnung der Erhebungsart eingezeigt werden. Die vorgenommene Auswahl wird durch die beiden Glossenzeilen auf der linken Seite des Auswahl-Fensters angezeigt. Die Auswahl geschieht dadurch, dass eine Zeile in der rechten Fensterseite markiert und per drag&drop in die linke Fensterseite gezogen wird. Die Auswahl wird jedoch nicht allein auf der Grundlage der Glossierung und der Sichtung vorgenommen, sondern es werden alle Videoausschnitte nochmals angeschaut – in diesem Fall 119 Videosequenzen von 12 Informanten –, um die Sichtung sowie weitere Annotationen wie z.B. die Ablesewörter zu überprüfen. Durch den direkten Vergleich kann es sein, dass Entscheidungen korrigiert und weitere Antworten transkribiert werden oder bereits transkribierte Antworten von der Auswahl ausgeschlossen werden. Zeigen verschiedene Informanten dieselbe Antwort, dann ist dies ein starker Hinweis auf eine in der DGS akzeptable Übersetzung des Fachbegriffs. Dies gilt selbstverständ56 Durch angepasste SQL-Abfragen (select-Befehle) können unterschiedliche Kombinationen von Daten in Listen zusammengestellt werden. Über das Kontext-Menü können diese Listen in dem geöffneten Fenster aufgerufen werden. Auswahl geeigneter DGS-Übersetzungen 101 lich mit der Einschränkung, dass es sich insbesondere bei nichtkonventionellen Gebärden sowie Lehnübersetzungen nicht um natürlichsprachliche Daten handelt, die den tatsächlichen Sprachgebrauch wiedergeben, sondern um Belegsammlungen (s. Hundt 2005). Die Auswertung der Antworten zeigt jedoch, welche Übersetzungsstrategien die gehörlosen Informanten anwenden und inwieweit diese zu einem übereinstimmenden Ergebnis führen. Bestehen die Antworten aus konventionellen Gebärden, die den Fachbegriff benennen bzw. einen geeigneten Kontextualisierungshinweis für das abzulesende Wort geben, dann handelt es sich i. d. R. um geeignete Übersetzungen. In einigen Fällen wurde zusätzlich eine Umschreibung ausgewählt wie z.B. beim Begriff ‚Tumormarker‘. Die wörtliche Übersetzung der ausgewählten Antwort ist: „ein Laborbefund, der eingetragen wird und bestätigt, dass es sich um Krebs handelt“. Als Alternative zu einer wortbezogenen Übersetzung, wie sie bei Lehnübersetzungen, Initialisierungen oder gefingerten Wörtern gegeben ist,57 werden produktive Gebärden ausgewählt, die die begriffliche Bedeutung in ein unmittelbar einleuchtendes Bild fassen wie z.B. bei Herzkatheter. Die Gebärde $MAN-INSTRUMENT-EINFÜHREN123_HERZ () zeigt, wie sich ein Herzkatheter von der Leiste zum Herzen bewegt. Obwohl die Gebärde SCHMAL138A () mit der konventionellen Bedeutung „Schlauch“ auch für „Katheter“ verwendet werden kann, zeigen neun von 12 Informanten eine produktive Gebärde, deren konkrete Ausführung mit der bereits genannten identisch ist oder nur leicht variiert. Lediglich drei Informanten verwenden modifizierte Formen der Gebärde SCHLAUCH1 mit den wörtlichen Bedeutungen „Schlauch, der zum Herzen führt“, „Schlauch, der vom Herzen wegführt“ oder „Schlauch, der sich im Herzen befindet“. Ebenso wie produktive Gebärden ausgewählt werden, werden auch Modifikationen konventioneller Gebärden ausgewählt, um zu zeigen, wie diese Gebärden entsprechend der Spezifizierung der Bedeutung verwendet werden. Zum Beispiel wurden für den Begriff ‚absaugen‘ eine Modifikation der Gebärde ABSAUGEN1 () sowie zwei Modifikationen der Gebärde SAUGEN2 () ausgewählt: ABSAUGEN11 () für das Absaugen aus dem Mund, SAUGEN2558 () für das Absaugen aus den oberen Atemwegen und SAUGEN2459 () für das Absaugen aus dem Magen. In den meisten Fällen ist es möglich, eine der gezeigten Antworten als geeignete DGSÜbersetzung auszuwählen. Nur wenn die Informanten keine Antwort auf den Stimulus 57 58 59 Vgl. die Kritik von Rasmus/Allen (1988) an den vom NTID veröffentlichten ASL-Fachgebärden (s. ➚ 2.4.1). Als Produktionsglosse wurde ABSAUGEN21 gewählt. Als Produktionsglosse wurde ABSAUGEN22 gewählt. Auswahl geeigneter DGS-Übersetzungen 102 geben oder selbst nicht zufrieden sind mit ihren Vorschlägen, müssen neue Übersetzungsvorschläge entwickelt werden. Eine Möglichkeit besteht darin, im Korpus vorhandene Gebärden neu zu kombinieren. Zum Beispiel wurden die Gebärden AUGE1 () und VERRINGERN1B (), kombiniert mit dem Ablesewort ‚makuladegeneration‘ als Übersetzungsvorschlag für den Begriff ‚Makuladegeneration‘ aufgenommen. Solche neu kombinierten Übersetzungen machen im Fachgebärdenlexikon Gesundheit und Pflege weniger als 5 % der gesamten Übesetzungen aus. Neu entwickelte Gebärden, die im Korpus nicht enthalten sind, wurden nur für 33 Übersetzungen benötigt, das sind weniger als 1,5 % der 2326 im Lexikon enthaltenden DGS-Übersetzungen. Um einen Kompromiss zu finden zwischen dem Anspruch, möglichst viele Varianten und Synonyme einer Gebärde zu zeigen, und der Häufigkeit der Antworten, werden nach dem ersten Durchgang die Gebärden geprüft, die erhoben wurden, jedoch nicht in den ausgewählten Antworten enthalten sind. Ebenso kann man sich mithilfe einer Abfrage gleiche Antworten von mindestens zwei Informanten anzeigen lassen, die nicht ausgewählt wurden. Über die Nesterbildung ist es möglich, die Anzahl der Antworten zu reduzieren, indem z.B. beim Begriff ‚Herz‘ alle verschiedenen Gebärdenvarianten und Synonyme für die Bedeutung „Herz“ ausgewählt werden. In allen anderen Begriffen, die dieses Wort enthalten, wird nur noch die jeweils häufigste Antwort ausgewählt. Die Entscheidung für eine noch nicht ausgewählte Gebärde kann zu Lasten der Antworten fallen, die häufig erhoben wurden, aber nicht ausgewählt werden, um die Anzahl der Antworten gering zu halten. Lexikographische Beschreibung der Einzelgebärden 8 103 Lexikographische Beschreibung der Einzelgebärden Seit dem Fachgebärdenlexikon Tischler/Schreiner (TLex; Arbeitsgruppe Fachgebärdenlexika 1998) enthalten die Fachgebärdenlexika ein separates Gebärdenverzeichnis mit allen Einzelgebärden, die in den DGS-Entsprechungen verwendet werden. Dadurch sollen die Ergebnisse der Transkription und lexikalischen Analyse dokumentiert werden. Neben dem Anspruch einer korpusbasierten lexikographischen Beschreibung der Gebärden hat diese Transparenz auch die Intention, den Eindruck zu vermeiden, dass es sich bei den DGS-Übersetzungen um etablierte Fachgebärden handelt (s. ➚ 2.4), die bereits konventionalisiert sind, bei mehrkomponentigen Übersetzungen z.B. als Gebärdenkomposita oder etablierte Mehrwort-Äußerungen. Die Angaben zu Form, Bedeutung, ikonischem Gehalt einer Gebärde, ihren Modifikationen und Varianten sowie ihrer grammatischen Verwendung im Gebärdenraum geben dem interessierten Benutzer die Mittel in die Hand, die Gebärden als lexikalische Bausteine für Äußerungen zu benutzen, die weit über ihre Verwendung im Rahmen der DGSÜbersetzung eines Fachbegriffs hinausgehen. Der Blick auf die Bestandteile dieser Übersetzungen macht deutlich, welche Übersetzungsstrategien es in der DGS gibt und welche lexikalischen Mittel eingesetzt werden. Die Gebärden sind in den Fachgebärdenlexika als Glossen unter den DGS-Übersetzungen ausgewiesen, die im Gebärdenverzeichnis nachgeschlagen werden können.60 Dort sind die Gebärden, eingeteilt in produktive, konventionelle und sonstige Gebärden, detailliert beschrieben. Die Einträge sind nach den Glossen sortiert, wodurch ein Blick auf die unmittelbare Umgebung einer Gebärde, ermöglicht wird, da Zitierform, Modifikationen, Varianten und Synonyme aufeinanderfolgen.61 Durch das Gebärdenverzeichnis wird eine bidirektionale Nutzung der Fachgebärdenlexika ermöglicht, da Gebärden aufgrund von Formeigenschaften nachgeschlagen bzw. gezielt gesucht werden können.62 Weiterhin können konventionelle Gebärden über ihre Bedeutungen gesucht werden, unabhängig vom Fachbegriff.63 60 61 62 63 Die elektronische Version der Fachgebärdenlexika ist mit ihren vielschichtigen Verweisen, die per Mausklick aktiviert werden können, wesentlich benutzerfreundlicher als die Buchversion. Abgesehen davon sind die Gebärden als Videofilme abrufbar. Die Form einer Gebärde ist wesentlich leichter zu erfassen als anhand von zweidimensionalen Standbildern mit Bewegungspfeilen. In der elektronischen Version werden diese Form- und/oder Bedeutungsbeziehungen in jedem Eintrag durch die Rubrik „Gebärdenumgebung“ angezeigt. In der elektronischen Version der Fachgebärdenlexika ist zusätzlich zu einem Handformenregister eine Suche nach Gebärdenform implementiert, die es dem Benutzer ermöglichst, Gebärden anhand der Anzahl der Hände sowie der Formparameter Handform, Handstellung, Ausführungsstelle und Bewegung zu suchen. In der Buchversion steht dafür lediglich das Handformenregister zur Verfügung. Seit dem Fachgebärdenlexikon Gesundheit und Pflege steht dafür ein Bedeutungsregister zur Verfügung, das die deutschen Wörter enthält und auf die Gebärden verweist. In der elektronischen Version können diese Wörter anhand eines Registers oder einer Textsuche gefunden werden. Diese Bedeutungsangaben enthalten alle in der lexikalischen Datenbank verzeichneten konventionellen Bedeutungen einer Gebärde, d.h. sie sind nicht nur auf das für dieses Projekt bearbeitete Korpus beschränkt. Bedeutungsangaben konventioneller Gebärden finden sich in den beiden vorhergehenden Fachgebär- Lexikographische Beschreibung der Einzelgebärden 104 Die Abbildungen 18 und 19 zeigen die Einträge im Gebärdenverzeichnis zur Gebärde WACHSEN2A () und ihrer Modifikation WACHSEN21A (). Abb. 18: Eintrag WACHSEN2 im Gebärdenverzeichnis Abb. 19: Eintrag WACHSEN21 im Gebärdenverzeichnis Die Angaben zu Form, Bedeutungen und ikonischem Gehalt (s. „Beschreibung“), die Unterscheidung zwischen Zitierform, Modifikation und Varianten sowie Synonymen (s. „Gebärdenumgebung“) sind Ergebnis der Transkription und der Lemmarevision. Die Klassifizierung der konventionellen Gebärden hinsichtlich der Gebärdenraumnutzung ist ein neuer Bearbeitungsschritt, der zur weiteren Konsistenzsicherung beiträgt, da die bestehende Lemmaselektion auch mit dieser Einteilung übereinstimmen muss. Weiterhin wird bei Modifikationen die Bedeutung der Gebärde und damit die semantische Motiviertheit der Formveränderung im Sinne einer wörtlichen Übersetzung ausgearbeitet. denlexika Hauswirtschaft und Sozialarbeit/Sozialpädagogik jeweils nur bezogen auf die für die Übersetzung des Fachbegriffs relevante Bedeutung. Eine Suche nach Bedeutungen bzw. ein Bedeutungsregister gab es noch nicht. Lexikographische Beschreibung der Einzelgebärden 105 Die folgende Tabelle gibt einen Überblick über die Bearbeitungsschritte und die Informationen, die als Annotationen im Transkript oder als Type-Informationen in der lexikalischen Datenbank eingetragen werden. Sie bezieht sich nur auf die konventionellen Gebärden. Bearbeitungsschritt Token-Information (Annotationen im Transkript) Glosse [beinhaltet Tokenisierung und Lemmatisierung] 1. Rohtranskription Transkribent A Formabweichung Ablesewort oder Mundgestik Mimik Gestik (Überprüfung der Angaben) Bedeutung der Einzelgebärde Komplexbedeutung (z.B. bei Lehnübersetzungen) Interpretation des Verhältnisses Ablesewort 64 Gebärde (Korrektur der Token-TypeZuordnung, Überprüfung der Annotationen) Transkribent B 2. Lemmarevision 3. Lexikographische Beschreibung der Einzelgebärden Type-Information (Angaben zum Gebärdeneintrag) Zitierform konventionelle Bedeutungen (Verweise auf formgleiche und formähnliche Gebärden) (Erweiterung der Bedeutungen) (Überprüfung der Form-Bild-BedeutungsBeziehung der Types und der Lemmaselektion) Bildanalyse (ikonischer Gehalt): • systematisierte Beschreibung • Analyse der Bilderzeugungstechnik Verweise auf formgleiche und formähnliche Gebärden (Überprüfung: Bildanalyse, Verweise, Bedeutungen) Gebärdenraumnutzung Bedeutungsangabe bei Modifikationen im Sinne einer wörtlichen Übersetzung (semantische Motivation der Ausführung) Kommentare zu Gebärdenbildung, Ausführung, regionaler Variation Tabelle 6: Reihenfolge und Inhalte der Bearbeitungsschritte Im Folgenden werde ich den Aspekt der Gebärdenraumnutzung sowie die Bedeutungsangabe bei Modifikationen vorstellen. Auf die Ausarbeitung der Kommentare, im Gebärdenverzeichnis als „Bemerkung“ ausgewiesen, sowie projekt- bzw. produktspezifische Angaben wie Produktionsglossen, Erhebungsstatus der ausgewählten Antworten und der Einzelgebärden sowie phonetisch differenzierte und syntaktisch richtige HamNoSys-Notationen wird hier nicht eingegangen. 8.1 Gebärdenraumnutzung Die Idee, nicht nur lexikalische Informationen zu Form und Bedeutung der Gebärden zu geben, sondern auch auf ihre Veränderbarkeit hinzuweisen, die sich durch die Aus64 Diese Interpretation, die exemplarisch im Rahmen der Transkription der Daten der Fachgebärdenlexika Hauswirtschaft und Sozialpädagogik/Sozialarbeit durchgeführt wurde, bezieht sich auf die verschiedenen Verweisfunktionen des Ableseworts (s. ➚ 4.1.5.3). Lexikographische Beschreibung der Einzelgebärden 106 nutzung des Gebärdenraums, einschließlich des Körpers des Gebärdenden, ergibt, gab es schon bei der Erstellung des Fachgebärdenlexikons Psychologie (PLex; Arbeitsgruppe Fachgebärdenlexika 1996). Damals wurde zwar noch kein Gebärdenverzeichnis mit veröffentlicht – die Transkription diente im Wesentlichen zur Überprüfung der Auswahl der DGS-Entsprechungen und war eine wichtige Vorübung für die kommenden Projekte –, in einem grauen Kasten gab es jedoch „Hinweise zur Form“. Neben Anmerkungen zur Ausführung einer Gebärde oder ihrer dialektalen Einordnung wurden Gebärden in Anlehnung an Johnstons Typologie der Verbgebärden in Auslan in verschiedene Klassen eingeteilt. Johnston (1991b/1993a) macht in seinem Aufsatz deutlich, dass eine Unterscheidung in eine syntaktische und topographische Verwendung des Gebärdenraums, wie sie Padden (1988) durch die Unterscheidung in Raumverben und Kongruenzverben vorgeschlagen hat, problematisch ist. Dies liegt daran, dass bei flektierenden Verbgebärden die räumlichen Bezugspunkte immer sowohl topographisch, d.h. lokativ, als auch syntaktisch interpretiert werden können, d.h. als Kongruenzphänomen, um syntaktische Funktionen oder semantische Rollen auszudrücken. Eine Unterscheidung der beiden Lesarten ist in der Regel nur durch den Kontext oder die Verbbedeutung möglich. Daraus wird auch deutlich, dass Gebärden, deren Ausführung im Gebärdenraum modifiziert wird, immer als Modifikation beschrieben werden können, da die Veränderung der Form nicht beliebig ist, sondern immer eine grammatische oder semantische Funktion hat. Die Einteilung räumlich flektierender Gebärden im PLex stützte sich im Wesentlichen auf das sprachliche Wissen der gehörlosen Mitarbeiter. Die Aufteilung in Richtungsgebärden, Positionsgebärden und Orientierungsgebärden wurde von Johnston übernommen, jedoch nicht vollständig. So wurden die freien Positionsgebärden, die an einem beliebigen Ort im Gebärdenraum positioniert werden können, nicht ausgewiesen, da dies auf alle Gebärden zutrifft, die keine feste Ausführungstelle am Körper haben. Selbst Zweihandgebärden, bei denen die Ausführungsstelle der dominanten Hand die nichtdominante Hand ist, können im Gebärdenraum positioniert werden, um auszudrücken, dass ein Objekt sich an einem bestimmten Ort befindet oder eine Tätigkeit an einem bestimmten Ort ausgeführt wird. Lediglich die körperbezogenen Positionsgebärden, bei denen eine Veränderung der Bedeutung durch die Veränderung der Ausführungsstelle am Körper erreicht wird wie z.B. bei BLUT1A (), wurden gekennzeichnet. Einige Gebärden wie z.B. PERSON1 () wurden als „körperbezogene Richtungsgebärden“ (Arbeitsgruppe Fachgebärdenlexika 1996:XXIV) bezeichnet, da sie in ihrer unmarkierten Form am Körper, in ihrer markierten Form im Gebärdenraum ausgerichtet ausgeführt werden. Im Fachgebärdenlexikon Tischler/Schreiner (TLex) wurde diese Einteilung beibehalten. Gebärden wie PERSON1 wurden für die Übersetzung der Fachbegriffe nicht benötigt, daher fehlt diese Kategorie. Bedingt durch das handwerklich ausgerichtete Lexikographische Beschreibung der Einzelgebärden 107 Berufsfeld beziehen sich viele Fachbegriffe auf Tätigkeiten, die in der DGS ebenfalls durch Gebärden übersetzt werden, die eine Handlung oder Tätigkeit ausdrücken. Solche Verbgebärden, die im Gebärdenraum positioniert werden, um z.B. auszudrücken, dass eine Decke oder ein Fußboden gestrichen wird, wurden in die Klasse der positionierten Verbgebärden eingeteilt (Arbeitsgruppe Fachgebärdenlexika 1998:784). In der elektronischen Version können in der Kopfzeile unter dem Stichwort „Gebärdenklassen“ die Gruppen aufgerufen werden. Per Mausklick werden alle Gebärden einer Gruppe aufgelistet. Die Bezeichnung ‚Gebärdenklassen‘ ist jedoch nicht i. S. v. Wortklassen zu verstehen, sondern wird explizit mit Bezug auf Johnston (1991b/1993a) benutzt, um Gebärden hinsichtlich ihrer Modifikation im Gebärdenraum zu kennzeichnen. Erst im Fachgebärdenlexikon Hauswirtschaft (HLex) wurde die von Johnston vorgeschlagene Einteilung in Richtungsgebärden, Orientierungsgebärden und Positionsgebärden mit der Untergruppe der körperbezogenen Positionsgebärden direkt übernommen. Die uneindeutige Bezeichnung ‚Gebärdenklassen‘ wurde geändert in „grammatische Kategorie“ (Konrad et al. 2000:623). Dadurch konnte jedoch die intendierte Kennzeichnung von Gebärden hinsichtlich ihrer Veränderbarkeit im Gebärdenraum missverstanden werden als syntaktische Klassifizierung auf der Grundlage einer nicht explizit gemachten Theorie. Außer Johnstons Verbtypologie liegt dieser Klassifizierung jedoch keine Theorie zugrunde. Die größtenteils elizitierten Korpusdaten sind nicht geeignet, daraus eine empirisch abgesicherte Theorie abzuleiten. Außerdem wäre im gegebenen Zeitrahmen eine solche Untersuchung nicht leistbar gewesen. Als Konsequenz daraus wurde im Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003) die Bezeichnung geändert in ‚Gebärdenraumnutzung‘, ein vortheoretischer Begriff. Die Gebärden wurden in variierbare und invariante Gebärden unterteilt, als Untergruppe der variierbaren Gebärden wurden die körperbezogen variierbaren Gebärden ausgewiesen, die den bisherigen körperbezogen variierbaren Positionsgebärden entsprechen. Die Unterscheidung in variierbare und invariante Gebärden entspricht Johnstons (1991b:4/ 1993a:347) Einteilung der Verbgebärden in räumlich flektierende und nicht räumlich flektierende Gebärden. Im Unterschied zu Johnston ist unsere Einteilung ausschließlich phänomenorientiert zu verstehen. Sie bezieht sich nicht nur auf verbal verwendete Gebärden, sondern auf alle Gebärden. Kann eine Gebärde im Gebärdenraum, d.h. auch am Körper des Gebärdenden, in ihrer Bewegung (und Orientierung) ausgerichtet, orientiert oder positioniert werden, dann ist sie variierbar. Gebärden, deren Ausführung an eine bestimmte Stelle des Körpers fixiert ist, sind invariant. Als besondere Gruppe wurden die körperbezogen variierbaren Gebärden ausgewiesen, da diese Modifikationen ausschließlich semantisch motiviert sind – die Veränderung der Ausführungsstelle am Körper gibt einen Hinweis auf die im Vergleich zur Zitierform veränderte Bedeutung – und keine syntaktischen Funktionen Lexikographische Beschreibung der Einzelgebärden 108 übernehmen. Der bewusst fehlende theoretische Bezug sowie das Ziel dieser Einteilung werden in den Hintergrundinformationen (König et al. 2003:461) deutlich gemacht: Die im SoLex vorgenommene Einteilung folgt keiner bestimmten linguistischen Sichtweise oder theoretisch fundierten Klassifizierung von Gebärden. Bei den meisten im Lexikon gezeigten Gebärden handelt es sich um Gebärden in ihrer neutralen, unmarkierten Form. Da nur isolierte Gebärden als Antworten auf einzelne Fachbegriffe erhoben wurden, bietet das für das SoLex erhobene Datenkorpus keine ausreichende Grundlage für empirisch gesicherte Aussagen über das Verhalten einer Gebärde im Gebärdenraum. Daher beruhen die Angaben zur Gebärdenraumnutzung überwiegend auf dem Sprachgefühl der gehörlosen Mitarbeiter. Die Angabe, ob eine Gebärde im Gebärdenraum variiert werden kann oder nicht, ist als pragmatische Hilfestellung bei der Verwendung der Gebärden im Kontext zu verstehen. Eine zukünftige, empirische Überprüfung der hier gemachten Angaben ist wünschenswert. Eine korpusbasierte Überprüfung bereits vorhandener Klassifikationen, die durch die Erstellung eines Referenzkorpus im Rahmen des DGS-Korpus-Projekts ermöglicht wird, kann mithilfe von Frequenzanalysen auch die Frage beantworten, welche der postulierten Variationsmöglichkeiten tatsächlich genutzt werden, um daraus Regeln für den Gebrauch räumlich modifizierter Gebärden abzuleiten, die z.B. Konsequenzen für die Gebärdensprachlehre haben. Bei variierbaren Gebärden, die eine Beziehung zwischen zwei beliebigen Orten im Gebärdenraum herstellen können – i. S. v. Johnstons vollständig gerichteten Gebärden, ein typisches Beispiel aus der DGS ist die Gebärde GEBEN1A () –, werden die semantischen Funktionen, die diese beiden Orte erfüllen, ebenfalls ausgeführt. Modifikationen werden hinsichtlich ihrer Gebärdenraumnutzung als „positioniert“ oder „ausgerichtet“ beschrieben. Wird durch die Modifikation der Plural ausgedrückt, so wird dies ebenfalls ausgewiesen. Für das Fachgebärdenlexikon Gesundheit und Pflege (GLex; Konrad et al. 2007) wurde diese Einteilung übernommen und lediglich um die Gruppe der raum-und körperbezogen variierbaren Gebärden erweitert. Damit soll eine genauere Unterscheidung zwischen körperbezogen variierbaren Gebärden, die nur am Körper ausgeführt und variiert werden wie z.B. ORGAN1A (), und Gebärden, die sowohl im Gebärdenraum als auch am Körper variiert werden können wie z.B. SPRITZEN1A (), erreicht werden. Zu den invarianten Gebärden werden auch indexikalische Gebärden gezählt, die aufgrund der anatomischen Verhältnisse leicht verschieden ausgeführt werden, z.B. kann die Gebärde AUGE1 () am linken oder rechten Auge ausgeführt werden, der Unterschied kann intendiert sein oder zufällig. Entscheidend ist, dass eine Variation der Ausführung an einem anderen Körperteil nicht zu einer Modifikation im Sinne einer Bedeutungserweiterung oder Bedeutungsspezifizierung führt, sondern zu einer völlig anderen Bedeutung. Wird die indexikalische Gebärde z.B. am Zahn ausgeführt, so ändert sich die Bedeutung von „Auge“ in „Zahn“. Gemeinsam ist diesen Gebärden nur die indizierende Technik (s. ➚ 4.2.1.6). Die folgende Tabelle zeigt die Entwicklung, die im Laufe der Lexikographische Beschreibung der Einzelgebärden 109 verschiedenen Fachgebärdenlexikon-Projekte ausgehend von Johnstons Verbtypologie eingeschlagen wurde. räumlich flektierende Gebärden Klassifikation Johnston (1991b/1993a) Bezeich- Typologie der nung Verbgebärden Richtungsgebärden Orientierungsgebärden freie Positionsgebärden körperbezogene Positionsgebärden PLex (1996) TLex (1998) HLex (2000) SLex (2003) GLex (2007) [ohne] Gebärdenklassen Richtungsgebärden Grammatische Kategorien Richtungsgebärden Gebärdenraumnutzung variierbare Gebärden Gebärdenraumnutzung variierbare Gebärden Richtungsgebärden körperbezogene Richtungsgebärden Orientierungsgebärden Orientierungsgebärden Orientierungsgebärden Positionsgebärden körperbezogene körperbezogene körperbezogene körperbezogen körperbezogen PositionsPositionsPositionsvariierbare variierbare gebärden gebärden gebärden Gebärden Gebärden positionierte Verbgebärden raum- und körperbezogen variierbare Gebärden nicht räuml. flekt. Geb. invariante Gebärden invariant Tabelle 7: Klassifizierung von Gebärden in Bezug auf die Gebärdenraumnutzung 8.2 Bedeutungsangabe bei Modifikationen In Kapitel 6.1.1.4 wurde bereits ausgeführt, dass für die Identifikation einer modifizierten Gebärde die Ikonizität eine entscheidende Rolle in unserer lexikalischen Analyse spielt. Eine bedeutungsrelevante Formveränderung hängt immer mit der Veränderung des zugrunde liegenden Bildes einer Gebärde zusammen. Wie bei produktiven Gebärden lässt sich bei Modifikationen konventioneller ikonischer Gebärden das zugrunde liegende Bild bestimmen. Durch die Bilderzeugungstechnik sind die Modifikationsmöglicheiten festgelegt. Viele Modifikationen sind jedoch in dem Sinne unsystematisch, dass ihre Bedeutung nicht auf der Grundlage morphologischer Regeln ableitbar ist, d.h. sie sind nicht morphologisch durchsichtig. Die Motivation, d.h. die Ableitbarkeit ihrer Bedeutung aufgrund formaler Merkmale, liegt in ihrer Ikonizität begründet. Während körperbezogen variierbare Gebärden (s. Kap. 8.1) ikonisch transparent sind, ist die Bedeutung anderer Gebärden nicht ohne Weiteres vorhersagbar. Der Grund dafür liegt im ikonischen Potential der Gebärden. Eine Gebärde wie ORGAN1A () hat die konventionalisierten Bedeutungen „Organ“ und „Tumor“. Diese Bedeutungen sind spezifischer als die allgemeine Bedeutung, die durch die Form der Gebärde visualisert wird: „eine kugelförmige Struktur oder ein kugelförmiger Gegenstand am oder im Körper“. Diese allgemeine Bedeutung entspricht der 1. Stufe der Konventionalisierung (Johnston/Schembri 1999:119), die produktive wie ikonisch konventionelle Lexikographische Beschreibung der Einzelgebärden 110 Gebärden umfasst. In den Bedeutungen „Organ“ und „Tumor“ ist diese allgemeine Gebärde lexikalisiert, d.h. nach Johnston/Schembri (1999:126) handelt es sich um Lexeme, die innerhalb der 2. Stufe der Konventionalisierung anzusiedeln und damit Kandidaten für Einträge in ein allgemeinsprachliches Wörterbuch sind. Die Modifikation ORGAN18A65 () unterscheidet sich auf der Bildebene von der Zitierform dadurch, dass nicht eine Struktur oder ein Gegenstand am oder im Körper visualisiert wird, sondern mehrere an verschiedenen Stellen am oder im Körper.66 Bezogen auf die lexikalisierte Bedeutung „Organ, Organe“ ist diese Modifikation transparent, die Bedeutungsangabe lautet daher: „Verschiedene Organe im Körper“. Durch die Bedeutungsangabe wird versucht, die Bildinterpretation mit der jeweils intendierten Bedeutung zu verbinden. Sie ist in gewisser Weise eine wörtliche Übersetzung, d.h. eine Interpretation des Bildes, die die Brücke schlägt zwischen dem allgemeinen ikonischen Gehalt (1. Ebene der Konventionalisierung) und der konkreten Verwendung, hier immer bezogen auf die Übersetzung eines Fachbegriffs bzw. dessen Teilbedeutungen. Das zugrunde liegende Bild kann, muss aber nicht aktiviert sein, d.h. diese Gebärde kann sowohl die Bedeutungen „Organ“ wie auch „Organe“ ausdrücken. Es ist denkbar, dass es sich bei ORGAN1A und ORGAN18A auch um Ausführungsvarianten handelt. Dann wäre die Beziehung zwischen Zitierform und Modifikation lediglich eine etymologische Information, die die Ableitung der einen aus der anderen Form erklärt. Dies kann jedoch nur durch empirisch breiter angelegte Untersuchungen festgestellt werden, die durch Frequenz- und Kontextanalysen den Grad der Konventionalisierung statistisch belegen können. Da die Gebärde ORGAN18A jedoch auch in der Bedeutung „Metastase, Metastasen“ verwendet wird, die semantisch nichts mit der Bedeutung „Organ“ zu tun hat, fällt die Bedeutungsangabe für diese Verwendung anders aus. Die in der Bildbeschreibung verwendete Umschreibung (Struktur, Gegenstände) wird soweit wie möglich konkretisiert. Da Metastasen verschiedene Organe befallen oder selbst Wucherungen im Gewebe darstellen, ist die Bedeutungsangabe bezogen auf diese Verwendung: „Verschiedene Organe oder Gebilde im Körper“. Die Bedeutungsangabe bei Modifikationen gibt einen Hinweis auf die ikonische Motivation der Gebärdenform und bezieht diese auf die intendierte Bedeutung. Tabelle 8 gibt einen Überblick über die Entwicklung, die im Laufe der verschiedenen Fachgebärdenlexikon-Projekte in Bezug auf die Bedeutungsangaben bei Modifikationen stattgefunden hat. Während beim TLex und HLex die Bedeutungsangabe noch missverständlich als „Bedeutung der Modifikation“ (Konrad et al. 2000:634, 65 66 Dies ist die Glosse für den Type in der Datenbank. Im Gebärdenverzeichnis des GLex’ wurde diese Modifikaton mit der Produktionsglosse ORAGN11A etikettiert. Da die versetzte Wiederholung in der DGS als ein morphologisches Merkmal zur Pluralbildung eingesetzt wird, kann in diesem Fall auch eine morphologische Motiviertheit angesetzt werden. Lexikographische Beschreibung der Einzelgebärden 111 Arbeitsgruppe Fachgebärdenlexika 1998:784) beschrieben wurde, ist beim SLex die Beschreibung dieser Informationseinheit klar: „Bei Modifikationen wird zusätzlich der Verweis auf die Grundform und die Beschreibung der Bildveränderung in Bezug auf die Bedeutung angegeben“ (Konrad et al. 2003:476). Beim GLex wird der Aspekt der Motiviertheit wie in der vorangegangenen Ausführung stärker betont: „Bei Modifikationen wird zusätzlich der Verweis auf die Grundform und die Motivation der Ausführung in Bezug auf die Bedeutung angegeben“ (Konrad et al. 2007:1009). In der folgenden Tabelle wird farblich die Veränderung in der Bildbeschreibung zwischen Zitierform und Modifikation hervorgehoben (rot) sowie die Konkretisierung der Bildbeschreibung in Bezug auf die Verwendung (blau). Zitierform • Glosse u. HamNosys • Bildbeschreibung • Bedeutungen GLex • ORGAN1A Modifikation • Glosse u. HamNosys • Bild Bedeutungsangabe Verwendung Fachbegriffe Konventionell verwen- Organ det für „Organ“. Modifikation von • Eine kugelförmige Struk-tur • Mehrere kugelförmige oder ein kugelförmiger Ge- Strukturen oder Gegenstände ORGAN1A; Motivation genstand (z.B. ein Or-gan an verschiedenen Stellen am der Ausführung: „Veroder ein Tumor) am oder im oder im Körper; rechte Hand: schiedene Organe im Körper“. Körper; rechte Hand: Substitutor. Substitutor. • „Organ“, „Tumor“ Produktive VerwenMetastase dungen; Modifikation von ORGAN1A; Motivation der Ausführung: „Verschiedene Organe oder Gebilde im Körper“. SLex • GLEICH1 () • GLEICH11** Konventionell verwen- Chancendet für „gleich“, „Gleich- gleichheit, • Zwei Dinge nähern sich an () und kommen auf gleicher • Zwei Dinge bewegen sich heit“, „Gleichstellung“; GleichstelModifikation von lungsgesetz, Höhe zusammen. auf eine gleiche Höhe und GLEICH1: „Auf gleicher Gleichstel• „Ausgleich“, „(sich) ausglei- kommen zusammen. Höhe zusammenlungsbeaufchen“ kommen“. tragte Produktive Verwendun- kompensatogen; Modifikation von rische GLEICH1: „Ein Unter- Erziehung schied wird ausgeglichen“. HLex • AUSPRESSEN1B • AUSPRESSEN12B Konventionell verwen- auspressen det für „auspressen“, (Zitrone) () ( „Presse“; Modifikation • Frucht festhalten und auf ) von AUSPRESSEN1B: einer Presse (linke Hand) • Frucht (z. B. Zitronenhälfte) „Zitrone auf Zitronenauspressen; festhalten und auf dem Mittel- presse (linke Hand) • „auspressen“, „Presse“ teil einer Zitronenpresse aufsetzen und aus(Presswiderstand; linke pressen“. Hand) auspressen TLex • STRAHLEN1 • STRAHLEN11*** Modifikation von Schallschutz STRAHLEN1: „Schall() () wellen dringen ins • [ohne Bildbeschreibung] • [ohne Bildbeschreibung] Ohr“. • [ohne Bedeutungsangabe] () • OGAN11A* () * Produktionsglosse im Gebärdenverzeichnis des GLex’; in der Datenbank: ORAGN18A. ** Produktionsglosse im Gebärdenverzeichnis des SLex’; in der Datenbank: GLEICH11B. *** Produktionsglosse im Gebärdenverzeichnis des TLex’; in der Datenbank noch nicht erfasst. Tabelle 8: Bedeutungsangaben bei Modifikationen Zusammenfassung 9 112 Zusammenfassung In dieser Arbeit wird die Vorgehensweise bei der Erstellung von sechs Fachgebärdenlexika am IDGS in der Zeit von 1993 bis 2010 von der Datenerhebung bis zur Ausarbeitung bestimmter Informationseinheiten im Gebärdenverzeichnis dargestellt. Der Schwerpunkt liegt dabei auf der Transkription, die in mehreren Schritten durchgeführt wird mit dem Ziel, eine konsistente Token-Type-Zuordnung zu gewährleisten im Sinne einer Tokenisierung und Lemmatisierung der Token. Neben den Transkriptionskonventionen werden der Aufbau und die ständige Aktualisierung der lexikalischen Datenbank an die Erfordernisse der Transkription sowie die abschließende Lemmarevision beschrieben. Als Reaktion auf den Bedarf an adäquaten DGS-Übersetzungen für Fachbegriffe aus den verschiedensten Berufsfeldern erstellte das IDGS von 1990 bis 2010 Fachgebärdenlexika, die Fach- und Sprachwissen kombinieren. Damit sollen Grundlagen geschaffen werden für gehörlose Auszubildende und Studierende, die für Hörende selbstverständlich sind. Die gezeigten DGS-Entsprechungen sind als Angebot zu verstehen, die die Fachkommunikation zwischen Gehörlosen, Dolmetschern und Ausbildern erleichtern sollen. Sie sind nicht in der Absicht entstanden, die Fachkommunikation auf standardisierte Gebärden zu beschränken. Dazu ist das empirisch-deskriptive, korpusbasierte Vorgehen, das seit dem Fachgebärdenlexikon Psychologie (Arbeitsgruppe Fachgebärdenlexika 1996) ständig weiter entwickelt wurde, nicht geeignet. Im Vordergrund steht das Bemühen, die bereits vorhandenen Gebärden zu erheben und zu dokumentieren. Die Methode der Elizitation ist unverzichtbar, um in einem begrenzten Zeitrahmen für alle im Voraus festgelegten Fachbegriffe eine DGS-Übersetzung zu erarbeiten. Sie ist nicht die Methode der Wahl, um Gebärden im natürlichsprachlichen Kontext zu erheben, zeigt jedoch, welche Übersetzungsstrategien gehörlose Fachleute anwenden, um einen Fachbegriff in DGS zu übersetzen. Die Transkription ermöglicht es, die Antworten hinsichtlich ihrer lexikalischen Bestandteile zu vergleichen und die Häufigkeit gleicher oder ähnlicher Antworten als Kriterium bei der Auswahl zu berücksichtigen. Die Beschränkung auf ein Korpus von ca. 7000 (SLex) bis 15000 (GLex) transkribierten Antworten schließt andere Übersetzungsmöglichkeiten aus, hat jedoch den Vorzug, dass Entscheidungen überprüfbar, korrigierbar und nachvollziehbar sind. Im Laufe der Projekte, die seit 1996 mit einem konstanten Team aus vier bis sechs gehörlosen und drei hörenden Mitarbeitern durchgeführt werden konnten, wurde die Datenerhebung, insbesondere die Elizitationsmethoden und die Dokumentation der Gesprächssituation, ständig verbessert. Gleich geblieben ist dagegen die Aufteilung in drei Teile: • ein standardisiertes Interview zur Erhebung der sozialen Daten, die als Teil der Metadaten ausgewertet werden; Zusammenfassung • • 113 ein vorstrukturiertes Gespräch, um möglichst natürlichsprachliche, zusammenhängende Äußerungen zu erheben sowie DGS-Entsprechungen von Fachbegriffen im Kontext, als Korrektiv zu den elizitierten Antworten; die Elizitation von DGS-Entsprechungen der Fachbegriffe; die als Stimuli verwendeten geschriebenen Wörter wurden, soweit möglich, durch geeignete Illustrationen ergänzt. Bei der Dokumentation und Aufbereitung der Daten wurde neben der technischen Qualität und der Bereitstellung von Metadaten auch auf die Nachhaltigkeit der Rohdaten geachtet. Die Segmentierung dient dazu, das Rohmaterial inhaltlich zu erschließen, ohne jedoch schon eine Wertung i. S. v. „geeignet – ungeeignet“ vorzunehmen. Dies geschieht erst durch die Sichtung, durch die festgelegt wird, welche Ausschnitte transkribiert werden sollen. Damit wird gleichzeitig die Größe des Korpus bestimmt. In den Transkriptionskonventionen ist festgelegt, nach welchen Kriterien Token annotiert werden. Ziel dieser Konventionen ist es, dass alle gebärdensprachlichen Phänomene im Korpus nach einheitlichen Kriterien in derselben Weise konsistent beschrieben und klassifiziert werden. Die grobe Aufteilung in konventionelle und produktive Gebärden folgt einer gängigen Einteilung des Lexikons von Gebärdensprachen in lexikalisierte Gebärden, sogenannte frozen signs, und ein produktives Lexikon. Johnston/Schembri (1999:136) listen phonologische, morphosyntaktische, semantische und nonmanuelle Merkmale auf, nach denen konventionelle und produktive Gebärden unterschieden werden können. Dennoch ist es im Einzelfall schwierig, den Grad der Lexikalisierung einer Gebärde ohne verlässliche Korpusdaten zu bestimmen.67 Die aus lexikographischer Sicht notwendige Trennung zwischen Lexemen und Nicht-Lexemen – denn nur über ausreichend konventionalisierte Gebärden lassen sich verlässliche Aussagen zu Form und Bedeutung machen – blendet jedoch die Tatsache aus, dass die meisten konventionellen Gebärden ikonisch sind. Diese „schlafende“ Ikonizität kann reaktiviert werden, um z.B. die Bedeutung einer Gebärde graduell zu modifizieren. Sie ist weiterhin der Grund dafür, warum das Bedeutungsspektrum, das eine Gebärde abdecken kann, wesentlich größer ist als bei Wörtern. Denn die Ikonizität spielt auch eine wesentliche Rolle bei der wechselseitigen Kontextualisierung von Wörtern und Gebärden. Auch hier, bei der gleichzeitigen Artikulation von Ablesewort und Gebärde, ist eine Unterscheidung möglich zwischen konventionell und produktiv eingesetzten Ablesewörtern. Die Frage der Lemmaselektion ist daher nicht nur eine Frage der Unterscheidung zwischen konventionellen und produktiven Gebärden (s. ➚ 4.1.5). 67 Johnston (1998b) gibt daher in der CD-ROM-Ausgabe des Auslan-Wörterbuchs den Grad der Lexikalisierung auf einer Skala von 1-7 an. Zusammenfassung 114 Durch Zusätze im Glossennamen können konventionelle Gebärden weiter aufgeteilt werden in lexikalisierte Ausführungsvarianten und Modifikationen. Weiterhin können Besonderheiten wie Fremdwörter, regionale Variation, aus dem LBG stammende Gebärden, Namensgebärden oder sogenannte Spezialgebärden im Glossennamen ausgewiesen werden. Neben den produktiven Gebärden, die in der lexikalischen Datenbank entweder als verschiedene Types beschrieben oder alle einem Type zugeordnet werden – die Token werden durch eine sogenannte Sammelglosse etikettiert –, gibt es noch weitere Zeichen wie das Fingeralphabet, Zahlgebärden, indexikalische Gebärden oder Gesten, die ebenfalls in den Transkriptionskonventionen berücksichtigt werden müssen. Ein Überblick über die am IDGS entwickelten Transkriptionskonventionen wird gleichzeitig dazu genutzt, diese Konventionen mit anderen zu vergleichen. Dazu wurden gut dokumentierte Transkriptionskonventionen herangezogen, die anhand großer Datenmengen erprobt wurden und deren Autoren die Notwendigkeit einer konsistenten Identifizierung lexikalischer Gebärden im Sinne einer Lemmatisierung betonen. Die Konsistenzprobleme zeigen sich im Detail, etwa wenn versucht wird, die Bedeutungen eines Lexems im Glossennamen wiederzugeben oder die Glossierung in Standardwerken zu berücksichtigen. Ebenso wird das Problem der zirkulären Argumentation deutlich, wenn mit dem Hinweis auf ein vorhandenes Wörterbuch verschiedene Lexeme für dieselbe Gebärde angenommen werden, die sich nur durch das Ablesewort unterscheiden. Der Vergleich zeigt, dass abhängig vom Forschungsschwerpunkt die Annotation der Token nach syntaktischen Kategorien verschieden stark ausgeprägt ist. Dementsprechend sind die im Transkript angelegten Spuren mehr oder weniger stark ausdifferenziert. Segmentierung von Einzelgebärden (Tokenisierung) und Lemmatisierung sind die Voraussetzungen, um Rohdaten mit korpuslinguistischen Methoden auswerten zu können. Bei der Glossentranskription werden Token mithilfe eines eindeutigen Glossennamens einem Type zugeordnet. Diese Token-Type-Zuordnung entspricht der Lemmatisierung, die bei Korpora verschrifteter Lautsprachen oft zusammen mit oder nach der Tokenisierung vorgenommen wird. Bei einer orthographischen Transkription, d.h. einer Verschriftlichung gesprochener Sprache in der Standardschrift, müssen zunächst die Token bestimmt werden, da bedingt durch die Orthographie (Getrenntschreibung von Namen, Verwendung von Abkürzungen, Bindestrich oder Satzzeichen) die Wortformen im Transkript nicht eindeutig als Buchstabenfolge zwischen zwei Leerzeichen definiert sind und damit nicht automatisiert erfasst werden können. Durch die Tokenisierung wird dieser Mangel behoben, sodass die Lemmatisierung fast vollständig automatisiert vorgenommen werden kann. Dabei werden die Wortformen im Transkript den lexikalischen Einheiten zugeordnet. Dem entspricht die Token-Type-Zuordnung durch die Glossierung. Zusammenfassung 115 Die Lemmatisierung setzt jedoch die Bestimmung der lexikalischen Einheiten einer Sprache voraus, die üblicherweise in Wörterbüchern beschrieben sind. Die wenigsten Gebärdensprachwörterbücher wurden ausgehend von der Gebärdensprache erstellt und/oder basieren auf einem Korpus. Bei den meisten muss man davon ausgehen, dass die Lemmaselektion inkonsistent ist, da sie durch die Lautsprache beeinflusst wurde („lemma dilemma“; Johnston/Schembri 1999:178-181). Gibt es kein verlässliches lexikalisches Standardwerk, dann besteht die einzige Möglichkeit, eine konsistente Glossierung im Sinne einer zuverlässigen Lemmatisierung zu erreichen, darin, parallel zur Transkription eine lexikalische Datenbank aufzubauen. Dies bedeutet, dass die in der Korpuslinguistik ansonsten übliche Trennung zwischen lexikalischer Ressource und Transkript aufgehoben wird, da nicht vorhandene Types in der Datenbank erst angelegt werden müssen, bevor ihnen Token zugewiesen werden können. Die dem Bottom-upAnsatz entsprechende Veränderung der lexikalischen Ressource durch Anlegen neuer Types wird bereits in der Phase der Rohtranskription vorgenommen. Dieses Vorgehen bringt eine erheblich Zeitersparnis, da Type-Informationen nicht immer neu beim Token eingetragen werden müssen, hat aber den methodischen Nachteil, dass die auf der Lemma-Ebene getroffenen Entscheidungen empirisch noch nicht abgesichert sind. Erforderlich ist daher eine Lemmarevision nach Abschluss der Rohtranskription. Zum einen muss die Token-Type-Zuordnung auf der Grundlage aller Token, die einem Type zugeordnet sind, überprüft werden. Im Vordergrund dabei steht die Übereinstimmung von Form und Bedeutung zwischen Token und Type. Diese Lemmarevision kann beim Token zu einer Korrektur der Token-Type-Zuordnung führen. Zum anderen muss die bis dahin vorläufige Lemmaselektion überprüft werden, d.h. die Type-Umgebung. Es kann sein, dass die eingetragenen Types unterdifferenziert sind und stärker aufgeteilt werden müssen in Ausführungsvarianten und Modifikationen, oder dass sie überdifferenziert sind und Types wieder gelöscht werden müssen, da die Token z.B. Modifikationen eines anderen Types sind oder idiosynkratische Ausführungen und nicht als konventionalisierte Ausführungsvarianten zählen. Neben Form und Bedeutung wird zusätzlich die Ikonizität bei der Identifikation gebärdensprchlicher Einheiten berücksichtigt. Die Konsequenzen, die sich dadurch für die Lemmaselektion ergeben, sind in Konrad (in Vorb., Kap. ➚ 4.2.2) beschrieben. Erst nach Abschluss der Lemmrevision ist die Lemmatisierung abgeschlossen. Für alle Transkriptionen, die nicht in diesem Sinne lemmatisiert sind, gilt, dass Analysen, die aufgrund dieser Transkriptionen erstellt werden, im korpuslinguistischen Sinn nicht abgesichert sind. Johnston (2008a/b) benennt das Problem noch grundsätzlicher, indem er es auf die einfache Formel bringt: no lemmata, no corpus. An die Transkription schließen sich die Auswahl geeigneter DGS-Übersetzungen sowie die Ausarbeitung der lexikographischen Beschreibung der Einzelgebärden im Gebärdenverzeichnis jedes Fachgebärdenlexikons an, bevor die Produktionsphase beginnt. Zusammenfassung 116 Zur Auswahl gehört auch eine Überprüfung der während der Sichtung getroffenen Entscheidung, eine elizitierte DGS-Entsprechung eines Fachbegriffs aus der Transkription auszuschließen. Die Auswahl wird nach bestimmten Kriterien vorgenommen, in erster Linie nach der formalen und inhaltlichen Angemessenheit der Antwort sowie ihrer Häufigkeit. Dabei wird ein Kompromiss angestrebt, der einerseits möglichst viele Ausführungsvarianten von Gebärden berücksichtigt, andererseits die Zahl der ausgewählten Antworten dadurch nicht unnötig vergrößert. Die Beschreibung der Einzelgebärden hinsichtlich Form, Bedeutung und ikonischem Gehalt ergibt sich aus den durch die Transkription und Lemmarevision zusammengetragenen Daten, die vor der Produktion nochmals überprüft werden. Nicht auf die Korpusdaten, sondern auf das sprachliche Wissen der gehörlosen Mitarbeiter gestützt sind die Angaben zur Gebärdenraumnutzung. Damit soll dem Benutzer ein grober Hinweis gegeben werden, wie die Gebärden unabhängig von der Übersetzung von Fachbegriffen in der DGS verwendet werden können. Nach der anfänglichen Orientierung an Johnstons (1991b) Typologie der Verbgebärden wurde seit dem Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (Konrad et al. 2003) bewusst auf einen theoretischen Bezug verzichtet. Die von Johnston unterschiedenen Richtungs-, Orientierungs- und Positionsgebärden wurden als variierbare Gebärden ausgewiesen, in Abgrenzung zu den invarianten Gebärden. Weiterhin wurden Gebärden, deren Ausführung nur am Körper variiert wird, um die Ausführungsstelle mit in die Bedeutung aufzunehmen, als körperbezogen variierbaren Gebärden gekennzeichnet, entsprechend Johnstons körperbezogen variierbaren Positionsgebärden. Die Bedeutungsangabe bei Modifikationen gibt einen Hinweis auf die ikonische Motivation der Gebärdenform, die im Hinblick auf die Bedeutung des Fachbegriffs beschrieben wird. Sie ist eine Interpretation des Bildes, die die Brücke schlägt zwischen dem allgemeinen ikonischen Gehalt und der konkreten Verwendung, ähnlich wie bei produktiven Gebärden, die eine allgemeine, mehr oder weniger unspezifische Bedeutung haben, die je nach Äußerungskontext verschieden interpretiert wird. In den bisherigen Ausführungen wurde an verschiedenen Stellen darauf hingewiesen, dass es für die Erforschung und Beschreibung des Lexikons von Gebärdensprachen notwendig ist, die Ikonizität der Gebärden sowie die Verwendung von Ablesewörtern angemessen zu berücksichtigen. Angemessen heißt, dass auch die Frage, warum eine Gebärde wie ORGAN18A sowohl die Bedeutung „Organ“ als auch „organisch“, „Organismus“ und „Metastase“ ausdrücken kann und ebenso für die Pluralformen „Organe“ und „Metastasen“ verwendet werden kann, befriedigend geklärt werden kann. Dazu ist es wichtig zu wissen, dass das ikonische Potential der Gebärde in der Bedeutung „Organ“ nicht genutzt wird, sondern lediglich nach dem Prinzip der spezifizierten Bedeutung (Johnston/Schembri 1999:146) eine ikonische Gebärde, die „mehrere kugelförmige Zusammenfassung 117 Gegenstände im oder am Körper“ visualisiert, konventionell für die Bedeutung „Organ“ verwendet wird. Die Pluralform „Organe“ ist jedoch durch die wiederholte Ausführung motiviert. Die versetzte Wiederholung ist insbesondere dann wichtig, wenn es um eine Kontrastierung geht i. S. v. „nicht ein Organ, sondern mehrere Organe“. Weiterhin ist es wichtig zu wissen, dass diese Gebärde üblicherweise mit dem Ablesewort ‚organ‘ ausgeführt wird. Die Kombination mit anderen Ablesewörtern wie ‚organisch‘, ‚organismus‘ oder ‚metastase‘ ist möglich, jedoch nicht besonders häufig. Sie ist im Fall von „Metastase“ deshalb möglich und sinnvoll, weil das ikonische Potential einen Bedeutungsrahmen absteckt, innerhalb dessen das lautlos artikulierte Ablesewort zu finden ist, d.h. die ikonisch motivierte Gebärde gibt einen Kontextualisierungshinweis für das Ablesen. Im Fall von „organisch“ und „Organismus“ steht eher der Wortbezug im Vordergrund. Da diese Gebärde in der Bedeutung „Organ“ konventionalisiert ist, sind ähnlich geschriebene und artikulierte Wörter ebenfalls leichter abzulesen. In diesem Fall muss die Bedeutung nicht innerhalb des Bedeutungsrahmens liegen, der durch die Ikonizität der Gebärde abgesteckt wird. Sutton-Spence/Woll (1999:165-166) stellten schon vor zehn Jahren fest, dass mittlerweile die Konventionalität von Gebärden in den Vordergrund gerückt ist und sich die Erkenntnis durchgesetzt hat, dass die Arbitrarität sprachlicher Zeichen der oral-akustischen Modalität geschuldet ist. Würden Gebärdensprachen als visuell-gestische Sprachen keine visuellen Symbole benutzten, dann wäre dies unnatürlich. Linguists used to focus disproportionately on the fact that sign languages could use arbitrary signs. The existence of visually motivated signs suggested that sign languages were not real languages, as the lexicon was not totally arbitrary. Now we know that symbols do not have to be arbitrary to be part of a language. They are mostly arbitrary in spoken languages because spoken languages are not designed to represent visual forms in the real world. They are able to reflect some sounds, but the names of sounds are only a small part of any language’s lexicon, so most symbols are arbitrary. Sign languages do not need to rely so heavily on arbitrary symbols because they use the visual form. It would be unnatural for sign languages not to use visual symbols. The fact that all meanings are conventionalised is now considered more important than issues of arbitrariness. Es stellt sich jedoch die Frage, ob es für die lexikologische und lexikographische Beschreibung von Gebärdensprachen ausreicht, nur die vorgefertigten Form-BedeutungsEinheiten zu beschreiben und die „visuelle Motiviertheit“ von Gebärden gänzlich in den Bereich des produktiven Lexikons zu verbannen, das eher im Rahmen der Grammatik, wie Johnston/Schembri (1999:115) es vorschlagen, der Gebärdenbildung oder des Sprachwandels beschrieben werden sollte. Die Aussage am Ende des Zitats, dass alle Bedeutungen konventionalisiert seien, ist verkürzt und bezieht sich lediglich auf all diejenigen Bedeutungen konventionalisierter Gebärden, die in einem Gebärdenwörterbuch aufgeführt werden bzw. werden sollten. Die im Sprachgebrauch tatsächlich kommunizierten Inhalte sind dadurch bei weitem nicht abgedeckt. Die nicht konventionalisierten Bedeutungen lassen sich wiederum nicht allesamt durch die Verwendung Zusammenfassung 118 produktiver Gebärden erklären. Wird eine konventionalisierte Gebärde mit Ablesewörtern artikuliert, die nicht der konventionalisierten Bedeutung dieser Gebärde entsprechen, dann wird daraus nicht automatisch eine produktive Gebärde. Ebenso ist es problematisch, mehrere Lexeme anzusetzen bei formgleichen Gebärden, die sich lediglich durch das Ablesewort unterscheiden. Ein solches Vorgehen setzt die Annahme voraus, dass das Ablesewort Bestandteil der phonologischen oder morphologischen Struktur einer Gebärde und ebenso wie die manuelle Form konventionalisert ist. Es legt die Bedeutung des Lexems fest und grenzt es gegenüber anderen Gebärden ab. Das Wissen um das ikonische Potential von Gebärden sowie die Möglichkeiten, wie dieses Potential genutzt werden kann zur Kodierung von Bedeutung, ist Teil der metasprachlichen Kompetenz der Sprecher einer Gebärdensprache. Dies explizit zu machen, sollte ebenso Aufgabe der lexikologischen und lexikographischen Beschreibung von Gebärdensprachen sein wie die traditionelle Bestimmung von Lexemen. Das Beispiel der Modifikation zeigt, dass ikonische Gebärden, die als fertige Form-BedeutungsEinheiten dem Benutzer zur Verfügung stehen, nach denselben Prinzipien verändert werden können wie produktive Gebärden. Wer das zugrunde liegende Bild einer Gebärde kennt, kann dies entsprechend der intendierten Bedeutung verändern. Wie stark diese Visualisierungsmöglichkeiten genutzt werden, zeigen Gebärdenneubildungen68 und Sprachspiele sowie Gebärensprachtexte im Rahmen der Gebärdensprachpoesie, die die Grenzen der visuellen Motivierung ausloten oder bewusst überschreiten. In der Alltagskommunikation weiß der kompetente Gebärdensprachbenutzer um die Grenzen dieser Veränderbarkeit, die durch das Bild und die zur Visualisierung eingesetzte Bilderzeugungstechnik festgelegt sind. Umgekehrt erschließt sich jedem, der das zugrunde liegende Bild einer modifizierten Gebärde kennt, deren Bedeutung. 68 Ein nicht nur in der DGS, sondern auch in der LSF bekanntes Beispiel ist die Gebärde, die zu Beginn der 1990er Jahre für an BSE erkrankte Kühe aufkam, bei der eine der beiden Y-Hände, die die Hörner der Kuh visualisieren, nach unten gedreht wird i. S. v. „vache folle“ (verrückte Kuh). 119 Literatur 10 Literatur Akamatsu, Carol T. 1985: Fingerspelling formulae: a word is more or less than the sum of its letters. In: Stokoe, William C. / Volterra, Virginia (eds.): Sign Language Research ‘83. Silver Spring: Linstok Press, 126-132. Arbeitsgruppe Fachgebärdenlexika (Hg.). 1994: Fachgebärdenlexikon Computer. 2 Bde. Hamburg: Signum. Arbeitsgruppe Fachgebärdenlexika (Hg.). 1996: Fachgebärdenlexikon Psychologie. 2 Bde. Hamburg: Signum. Arbeitsgruppe Fachgebärdenlexika (Hg.). 1998: Fachgebärdenlexikon Tischler/Schreiner. 2 Bde. Hamburg: Signum. Baker, Charlotte / Cokely, Dennis Richard. 1988: American Sign Language. A teacher’s resource text on grammar and culture. 4. ed. Silver Spring, MD: T.J. Publishers. [1. Aufl. 1980]. Battison, Robin. 1974: Phonological deletion in American Sign Language. In: Sign Language Studies 5, 1-19. Bechinger, Hiltrud. 1969: Phonembestimmtes Manualsystem (PMS) und Lautsprache. In: Berufsverband Bayerischer Taubstummenlehrer e.V. (Hg.): Ist die Lautsprache für Gehörlose noch zeitgemäß? Bericht über die Bodenseeländertagung in Würzburg. München: 1969, 62-69. Becker, Claudia. 2003: Verfahren der Lexikonerweiterung in der Deutschen Gebärdensprache. Hamburg: Signum. [Dissertation]. Bergenholtz, Henning. 1994: Fachsprache und Gemeinsprache: Lemmaselektion im Fachwörterbuch. In: Schaeder, Burkhard / Bergenholtz, Henning (Hg.): Fachlexikographie. Fachwissen und seine Repräsentation in Wörterbüchern. Tübingen: Narr, 285-304. Blanche-Benveniste, Claire. 1987: Le français parlé. Transcription et édition. Paris: Didier Érudition. Bonnal-Vergès, Françoise. 2005: Sémiogenèse de la langue des signes française LSF. Étude critique des signes attestés sur support papier depuis le XVIIIe siècle et nouvelles perspectives de dictionnaires. 2 vol. Toulouse: Université de Toulouse 2. [Unveröffentl. Dissertation]. Boyes Braem, Penny. 1995: Einführung in die Gebärdensprache und ihre Erforschung. 3. überarb. Aufl. Hamburg: Signum. Breiner, Herbert L. 1984: Die Gemik – sprechgebundene motorische Ausdruckserscheinungen im Sinnesvikariat. Frankenthal: Pfalzinstitut für Hörsprachgeschädigte. Brennan, Mary. 1992: The visual world of BSL. An introduction. In: Brien, David (ed.): Dictionary of British Sign Language/English. London: Faber and Faber, 2-133. Brennan, Mary. 2005: Conjoining Word and Image in British Sign Language (BSL): An Exploration of Metaphorical Signs in BSL. In: Sign Language Studies 5, 3, 360-382. Brien, David (ed.). 1992: Dictionary of British Sign Language/English. London: Faber and Faber. Cogill-Koez, Dorothea. 2000: Signed language classifier predicates. Linguistic structures or schematic visual representation? In: Sign Language & Linguistics 3, 2, 153-207. Literatur 120 Crasborn, Onno / Hanke, Thomas. 2003: Additions to the IMDI metadata set for sign language corpora. Agreements at an ECHO workshop, May 8-9, 2003, Nijmegen University. [Word-Dokument im Internet; URL: http://www.let.ru.nl/sign-lang/echo/docs/ECHO_Metadata_SL.pdf; letzter Zugriff: 2010-12-14]. Crasborn, Onno / Zwitserlood, Inge. 2008: Annotation of the video data in the Corpus NGT. Nijmegen: Radboud University. [Online im Internet; URL: http://www.ru.nl/aspx/download.aspx?File=/contents/pages/515436/corpusngt_anno tationconventions.pdf; letzter Zugriff: 2010-12-14]. Crasborn, Onno / Zwitserlood, Inge / Ros, Johan. 2008. Corpus NGT. An open access digital corpus of movies with annotations of Sign Language of the Netherlands. Centre for Language Studies, Radboud University Nijmegen. [Online im Internet; URL: http://www.ru.nl/corpusngt/; letzter Zugriff: 2010-12-14]. Croft, William. 2001: Radical Construction Grammar. Oxford u.a.: Oxford University Press. Cuxac, Christian. 2000: La langue des Signes Française (LSF). Les voies de l’iconicité. Paris: Ophrys. Cuxac, Christian. 2004: «Phonétique» de la LSF: Une formalisation problématique. In: Silexicales 4. (Linguistique de la LSF: recherches actuelles. Actes du colloque de Villeneuve d’Ascq, 23-24 sept. 2003), 93-113. Danielzik, Nicole. 2003: Die hörende Hochschule: Möglichkeiten und Grenzen eines integrierten Studiums für Gehörlose. In: Hillert, Gudrun / Heßmann, Jens (Hg.): Mehr lernen: Gehörlose in der nachschulischen Bildung. Beiträge zur internationalen Fachtagung des EU-Leonardo-da-Vinci-Projekts MAS in Berlin, 6./7. September 2002. Magdeburg: Verlag der Erich-Weinert-Buchhandlung, 129-137. Darwin, Charles. 1871: The descent of man and selection in relation to sex. 2 vol. London: John Murray. Darwin, Charles. 1872: The expression of emotion in man and animals. London: John Murray. DeMatteo, Asa. 1977: Visual imagery and visual analogues in American Sign Language. In: Friedman, Lynn A. (ed.): On the other hand: New perspectives on American Sign Language. New York: Academic Press, 109-136. Deutsche Forschungsgemeinschaft. 1998: Vorschläge zur Sicherung guter wissenschaftlicher Praxis: Empfehlungen der Kommission „Selbstkontrolle in der Wissenschaft“ (Proposals for safeguarding good scientific practice/Recommendations of the Commission on Professional Self Regulation in Science. Denkschrift). Weinheim: Wiley-VCH. [Pdf-Dokument im Internet: URL: http://www.dfg.de/aktuelles_presse/reden_stellungnahmen/download/empfehlung_ wiss_praxis_0198.pdf; letzter Zugriff: 2010-12-14]. Dipper, Stefanie / Hinrichs, Erhard / Schmidt, Thomas / Wagner, Andreas / Witt, Andreas. 2006: Sustainability of Linguistic Resources. In: Hinrichs, Erhard / Ide, Nancy / Palmer, Martha / Pustejovsky, James (eds.): Proceedings of the LREC 2006 Workshop on Merging and Layering Linguistic Information, Genoa, Italy, 48-54. [Pdf-Dokument im Internet; URL: http://www.linguistics.ruhr-unibochum.de/~dipper/papers/merge06_webVersion.pdf; letzter Zugriff: 2010-12-14]. Ebbinghaus, Horst. 1996: Direktionale Verben in gebärdensprachlichen Handlungsszenarien – Zum Verhältnis von Syntax, Topographie und szenischem Gehalt gebärdensprachlicher Räume. In: Das Zeichen 38, 544-553. Literatur 121 Ebbinghaus, Horst. 1998: Warum deutsche Wörter wesentliche Bestandteile der Deutschen Gebärdensprache sind. Teil 1. In: Das Zeichen 45, 443-451; Teil 2. In: Das Zeichen 46, 594-611. Ebbinghaus, Horst / Heßmann, Jens. 1989: Gehörlose, Gebärdensprache, Dolmetschen. Chancen der Integration einer sprachlichen Minderheit. Hamburg: Signum. Ebbinghaus, Horst / Heßmann, Jens. 1991: Gebärdensprachen Gehörloser als Gegenstand der Semiotik. Von den Grenzen der Nützlichkeit linguistischer Beschreibungsmodelle. In: Das Zeichen 15, 55-65. Ebbinghaus, Horst / Heßmann, Jens. 1994a: Formen und Funktionen von Ablesewörtern in gebärdensprachlichen Äußerungen. Teil I. In: Das Zeichen 30, 480-487. Ebbinghaus, Horst / Heßmann, Jens. 1994b: Identifikation gebärdensprachlicher Einheiten als Problem der Datenaufbereitung. [Unveröffentl. Arbeitspapier]. Ebbinghaus, Horst / Heßmann, Jens. 2000: Leben im Kommunikationskonflikt. Zur Ungleichsprachigkeit Hörender und Gehörloser. In: Hess-Lüttich, Ernest W. B. / Schmitz, H. Walter (Hg.): Botschaften Verstehen. Kommunikationstheorie und Zeichenpraxis. Festschrift für Helmut Richter. Frankfurt a.M.: Lang, 47-66. Ebbinghaus, Horst / Heßmann, Jens. 2001: Sign language as multidimensional communication: Why manual signs, mouthings, and mouth gestures are three different things. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth: The mouth as articulator in sign language. Hamburg: Signum, 133-151. Ekman, Paul / Friesen, Wallace V. 1969: The repertoire of nonverbal behavior: Categories, origins, usage, and coding. In: Semiotica 1, 49-98. Emde, Doris. 2005: Ikonizität und der Wandel ihres Stellenwertes innerhalb der neueren Gebärdensprachforschung. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Emmorey, Karen. 1999: Do signers gesture? In: Messing, L. / Campbell, R. 1999: Gesture, speech, and sign. New York: Oxford University Press, 133-159. Engberg-Pedersen, Elisabeth. 1993: Space in Danish Sign Language. The semantics and morphosyntax of the use of space in a visual language. Hamburg: Signum. Engberg-Pedersen, Elisabeth / Pedersen, Annegrethe. 1985: Proforms in Danish Sign Language, their use in figurative signing. In: Stokoe, William / Volterra, Virginia (eds.): SLR ’83 – Sign Language Research. Silver Spring, MD: Linstok Press, 202-210. Erlenkamp, Sonja. 2000: Syntaktische Kategorien und lexikalische Klassen. Typologische Aspekte der Deutschen Gebärdensprache. München: Lincom Europa. Fischer, Renate / Kollien, Simon. 2006: Constructed action in DGS: Roses Aktions= Fragmente. Teil I. In: Das Zeichen 72, 96-106; Teil II. In: Das Zeichen 74, 448-463. Friedman, Lynn A. (ed.). 1977: On the other hand: New perspectives on American Sign Language. New York: Academic Press. Frishberg, Nancy. 1975: Arbitrariness & Iconicity: Historical change in American Sign Language. In: Language 51, 696-719. Garcia, Brigitte / Boutet, Dominique / Roch, Gaëlle. 2008: The morpho-phonetic structuring of LSF (French Sign Language). In: de Quadros, Ronice M. (ed.): Sign Languages: spinning and unraveling the past, present and future. TISLR9, forty five papers and three posters from the 9th. Theoretical Issues in Sign Language Research Conference, Florianopolis, Brazil, December 2006. Editora Arara Azul. Literatur 122 Petrópolis/RJ. Brazil, 125-139. [Online im Internet; URL: http://editora-araraazul.com.br/ebooks/catalogo/complete.pdf; letzter Zugriff: 2010-12-14]. Gielen, Klaus / Thöne, Meinolf. 1974: Artikulation mit PMS: Artikulationslehrgang mit Hilfe des Phonembestimmten Manualsystems. Marburg: Medizinische Verlagsgesellschaft. Girod, Michel (éd.). 1997: La Langue des Signes. Dictionnaire Bilingue LSF/Français. Tome 2 et 3. Paris: I.V.T. Edition. Goldberg, Adele E. 2006: Constructions at Work: The Nature of Generalization in Language. Oxford: Oxford University Press. Grundgebärden 1. Für Einsteiger. 1999. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM]. Grundgebärden 2. 2000. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM]. Günther, Klaus-Burkhard. 1990: Zweisprachigkeit von Anfang an durch Gebärden- und Schriftsprache. Neue Perspektiven für die Gehörlosenpädagogik. Teil I. In: Das Zeichen 13, 293-306. Hanke, Thomas. 2001: Sign language transcription with syncWRITER. In: Sign Language & Linguistics 4, 1/2, 275-283. Hartmann, Merle. 2006: „Constructed Action“ in Deutscher Gebärdensprache. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Henke, Margret / Heßmann, Jens. 1995: Schritte aufeinander zu. In: Das Zeichen 32, 170-172. Heßmann, Jens. 2001a: GEHÖRLOS SO! Materialien zur Gebärdensprache. Bd. 1: Grundlagen und Gebärdenverzeichnis; Bd. 2: Gebärdensprachtexte. Hamburg: Signum. Heßmann, Jens. 2001b: GEHÖRLOS SO! Materialien zur Gebärdensprache. Hamburg: Signum. [Video]. Hoiting, Nini / Slobin, Dan I. 2007: From gestures to signs in the acquisition of sign language. In: Levy, Elena / Duncan, Susan / Cassell, Justine (eds.): Gesture and the dynamic dimension of language: essays in honor of David McNeill. Amsterdam/Philadelphia: Benjamins, 51–65. Humphries, Tom / Padden, Carol / O’Rourke, Terrence J. 1994: A basis course in American Sign Language. (Second edition). Silver Spring: T.J. Publishers. Hundt, Markus. 2005: Grammatikalität – Akzeptabilität – Sprachnorm. Zum Verhältnis von Korpuslinguistik und Grammatikalitätsurteilen. In: Lenz, Friedrich / Schierholz, Stefan (Hg.): Korpuslinguistik in Lexik und Grammatik. Tübingen: Stauffenburg, 15-40. IMDI (ISLE Metadata Initiative; 2003). IMDI Metadata Elements for Session Descriptions, Version 3.0.4, MPI Nijmegen. [Pdf-Dokument im Internet; URL: http://www.mpi.nl/IMDI/documents/Proposals/IMDI_MetaData_3.0.4.pdf; letzter Zugriff: 2010-12-14]. Johnston, Trevor. 1989: AUSLAN Dictionary. A Dictionary of the Sign Language of the Australian Deaf Community. Maryborough, Victoria: Australian Print Group. Johnston, Trevor. 1991: Spatial syntax and spatial semantics in the inflection of signs for the marking of person and location in AUSLAN. In: International Journal of Sign Linguistics 2, 1, 29-62. Johnston, Trevor. 1993a: Räumliche Syntax und Semantik in der Australischen Gebärdensprache. Zur personen- und positionsmarkierenden Flexion von Gebärden. Teil I: Typen von Verbgebärden in der Australischen Gebärdensprache. In: Das Zeichen 25, 344-360. Literatur 123 Johnston, Trevor. 1993b: Räumliche Syntax und Semantik in der Australischen Gebärdensprache. Zur personen- und positionsmarkierenden Flexion von Gebärden. Teil II: Ikonizität in räumlicher Syntax und räumlicher Semantik. In: Das Zeichen 26, 484-491. Johnston, Trevor (ed.). 1998a: Signs of Australia. A new dictionary of Auslan the sign language of the Australian deaf community. Rev. ed. North Rocks, NSW: North Rocks Press. Johnston, Trevor (ed.). 1998b: Signs of Australia on CD-ROM. A Dictionary of Auslan (Australian Sign Language). North Rocks, NSW: Royal Institute for Deaf and Blind Children. [CD-ROM]. Johnston, Trevor. 2001: The lexical database of Auslan (Australian Sign Language). In: Sign Language & Linguistics 4, 1/2, 145-169. Johnston, Trevor. 2008a: Corpus linguistics and signed languages: no lemmata, no corpus. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.): LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora, 82-87. Paris: ELRA. [Pdf-Dokument im Internet; URL http://www.lrec-conf.org/proceedings/lrec2008/workshops/W25_Proceedings.pdf; letzter Zugriff: 2010-12-14]. Johnston, Trevor. 2008b: Corpus linguistics and signed languages: no lemmata, no corpus. Paper presented at the 3rd Workshop on the Representation and Processing of Sign Languages, June, 1. LREC, Marrakech, Morocco, May 26-June 1, 2008. [Unveröffentl. Handout zum Vortrag]. Johnston, Trevor. 2010a: Guidelines for annotation of the video data in the Auslan Corpus. [Manuskript in ständiger Überarbeitung, Stand: Nov. 2010; aktuelle Version online im Internet; URL: http://www.auslan.org.au/about/annotations/; letzter Zugriff: 2010-12-14]. Johnston, Trevor. 2010b. From archive to corpus: Transcription and annotation in the creation of signed language corpora. In: International Journal of Corpus Linguistics, 15, 1, 106-131. Johnston, Trevor / de Beuzeville, Louise. 2008: The Auslan corpus: background and guidelines for annotators. [Manuskript in ständiger Überarbeitung, Stand: Mai 2008]. Johnston, Trevor / Ferrara, Lindsay. 2010: Lexicalization in signed languages: when is an idiom not an idiom? Paper presented at the 3rd UK Cognitive Linguistics Conference, University of Hertfordshire, 6-8 July 2010. Johnston, Trevor / Schembri, Adam. 1996: On Defining and Profiling Lexis in AUSLAN (Australian Sign Language). [Unveröffentl. Manuskript]. Johnston, Trevor / Schembri, Adam. 1998: On Defining Lexeme in a Sign Language. [Unveröffentl. Manuskript]. Johnston, Trevor / Schembri, Adam. 1999: On Defining Lexeme in a Signed Language. In: Sign Language & Linguistics 2, 2, 115-185. Johnston, Trevor / Schembri, Adam. 2010: Variation, lexicalization and grammaticalization in signed languages. In: Langage et société n° 131, mars 2010, 19-35. Kaufmann, Peter. 1991: LBG, LUG und TRUG? – Eine Stellungnahme aus der Gehörlosenschule Zürich. In: Das Zeichen 16, 207-211. Literatur 124 Kendon, Adam. 2008: Some reflections on the relationship between ‘gesture’ and ‘sign’. In: Gesture, Vol. 8, No. 3, 348-366. Kiesling, Scott / Dilley, Laura / Raymond, William D. 2006: The Variation in Conversation (ViC) Project: Creation of the Buckeye Corpus of Conversational Speech (Buckeye Corpus Manual, 11/30/06). [Pdf-Dokument im Internet; URL: http://buckeyecorpus.osu.edu/BuckeyeCorpusmanual.pdf?PHPSESSID=96c891419 5f79135f80f8c45301d883f/; letzter Zugriff: 2010-12-14]. Klima, Edward S. / Bellugi, Ursula (eds.). 1980: The signs of language. 3rd printing. Cambridge, MA/London: Harvard University Press. [1. Aufl. 1979]. König, Susanne / Reiner Konrad / Gabriele Langer. 2003: Hintergrundinformationen. In: Konrad, Reiner / Schwarz, Arvid / König, Susanne / Langer, Gabriele / Hanke, Thomas / Prillwitz, Siegmund. 2003: Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik. Hamburg: Signum, 444-475. König, Susanne / Reiner Konrad / Gabriele Langer. 2008: What’s in a sign? Theoretical lessons from practical sign language lexicography. In: Quer, Josep (ed.): Signs of the time. Selected papers from TISLR 2004. Hamburg: Signum. König, Susanne / Konrad, Reiner / Langer, Gabriele (in Vorb.): Lexikon – Der Wortschatz der DGS. In: Eichmann, Hanna / Hansen, Martje / Heßmann, Jens: Handbuch Deutsche Gebärdensprache: Sprachwissenschaftliche und anwendungsbezogene Perspektiven. Hamburg: Signum. KOMVA (ed.). 1988: Handen uit de mouwen. Gebaren uit de Nederlandse Gebarentaal in kaart gebracht. Vol. 1 & 2. Amsterdam: NSDSK. KOMVA (ed.). 1989: Basis-Gebarenschat. En beknopt gebarenwoordenboek. Amsterdam: NSDSK. Konrad, Reiner. 2010a: Transkriptionskonventionen im Vergleich. Universität Hamburg. [Online im Internet; URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/ TranskrKonv_Vergleich.pdf; letzter Zugriff: 2010-12-14]. Konrad, Reiner. 2010b: Gebärdensprach-Korpora. Universität Hamburg. [Online im Internet; URL: http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gs-korpora.html; letzter Zugriff: 2010-12-14]. Konrad, Reiner. (in Vorb.): Die lexikalische Struktur der DGS im Spiegel empirischer Fachgebärdenlexikographie. Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell. Tübingen: Narr Verlag. [Dissertation]. Konrad, Reiner / Hanke, Thomas / Schwarz, Arvid / Prillwitz, Siegmund / Bentele, Susanne. 2000: Fachgebärdenlexikon Hauswirtschaft. 2 Bde. Hamburg: Signum. Konrad, Reiner / Langer, Gabriele / König, Susanne / Schwarz, Arvid / Hanke, Thomas / Prillwitz, Siegmund (Hg.). 2007: Fachgebärdenlexikon Gesundheit und Pflege. 2 Bde. Seedorf: Signum. Konrad, Reiner / Langer, Gabriele / König, Susanne / Hanke, Thomas / Rathmann, Christian. 2010: Fachgebärdenlexikon Gärtnerei und Landschaftsbau. 2 Bde. Seedorf: Signum. Konrad, Reiner / Schwarz, Arvid / König, Susanne / Langer, Gabriele / Hanke, Thomas / Prillwitz, Siegmund. 2003: Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik. Hamburg: Signum. Literatur 125 Laatz, Wilfried. 1993: Empirische Methoden. Ein Lehrbuch für Sozialwissenschaftler. Thun, Frankfurt a.M.: Harri Deutsch. Lakoff, Georg / Johnson, M. 1980. Metaphors we live by. Chicago/London: University of Chicago Press. Langer, Gabriele. 2005: Bilderzeugungstechniken in der Deutschen Gebärdensprache. In: Das Zeichen 70, 254-270. Lauck, Toni. 1981: Das phonembestimmte Manualsystem als Sprechlehrhilfe. In: Die Sprachheilarbeit: Fachzeitschrift für Sprachgeschädigten- und Schwerhörigenpädagogik 26, 110-114. Liddell, Scott K. 1977: An investigation into the syntactic structure of American Sign Language. University of California, San Diego. [Unveröffentl. Dissertation (Ph.D)]. Liddell, Scott K. 2003a: Grammar, gesture and meaning in American Sign Language. Cambridge: Cambridge University Press. Liddell, Scott K. 2003b: Sources of meaning in ASL classifier predicates. In: Emmorey, Karen (ed.): Perspectives on classifier constructions in sign languages. Mahwah, NJ: Erlbaum, 199-220. Lucas, Ceil / Bayley, Robert / Valli, Clayton. 2001a: Sociolinguistic Variation in American Sign Language. Washington, DC: Gallaudet University Press. Lucas, Ceil / Bayley, Robert / Reed, Ruth / Wulf, Alyssa. 2001b: Lexical variation in african american and white signing. In: American Speech 76, 4, 339-360. Machabée, Dominique / Dubuisson, Colette. 1995. Initialized Signs in (or outside of?) Quebec Sign Language. In: Bos, Heleen F. / Schermer, Gertrude M. (eds.): Sign Language Research 1994: Proceedings of the Fourth European Congress on Sign Language Research, Munich, September 1-3, 1994. Hamburg: Signum, 69-84. Macken, Elizabeth / Perry, John / Haas, Cathy. 1993: Richly grounding symbols in ASL. In: Sign Language Studies 81, 375-394. MacWhinney, Brian. 2008: The CHILDES Project: Tools for Analyzing Talk – Electronic Edition. Part 1: The CHAT Transcription Format. Carnegie Mellon University, oct. 26, 2008. [Pdf-Dokument im Internet; URL: http://childes.psy.cmu.edu/manuals/chat.pdf; letzter Zugriff: 2010-12-14]. Maisch, Günter / Wisch, Fritz-Helmut. 1988-1994: Gebärdenlexikon. 4 Bde. Hamburg: Verlag hörgeschädigte kinder. [Bd. 1. 1988. Grundgebärden; Bd. 2. 1988. Mensch; Bd. 3. 1989. Natur; Bd. 4. 1994. Aufbaugebärden]. Mally, Gertrud. 1992: Redewendungen der Deutschen Gebärdensprache. Münchner Dialekt 1-3. Hamburg: Signum. [3 Videos]. Mally, Gertrud. 1993: Redewendungen der Deutschen Gebärdensprache. Münchner Dialekt. Hamburg: Signum. Mandel, Mark A. 1977: Iconic devices in American Sign Language. In: Friedman, Lynn A. (ed.): On the other hand. New perspectives on American Sign Language. New York: Academic Press, 57-107. Marchark, M. 1994: Gesture and sign. In: Applied Psycholinguistics 15, 2009-236. McNeill, David. 1985: So you think gestures are nonverbal? In: Psychological Review 92, 3, 350-371. Literatur 126 McNeill, David. 1992: Hand and mind: what gestures reveal about thought. Chicago: University of Chicago Press. McNeill, David. 2005: Gesture and Thought. Chicago, London: University of Chicago Press. Metzger, Melanie. 1995: Constructed dialogue and constructed action in American Sign Language. In: Lucas, Ceil (ed.): Sociolinguistics in deaf communities. Washington, DC: Gallaudet University Press, 255-271. Metzger, Christiane / Herrmann, Bettina. 2005: eLearning in der Gebärdensprachlehre. In: Das Zeichen 70, 248-252. Miller, Christopher. 2001: Some reflections on the need for a common sign notation. In: Sign Language & Linguistics 4, 1/2, 11-28. Mittelberg, Irene. 2007: Methodology for multimodality. One way of working with speech and gesture data. In: Gonzalez-Marquez, Monica / Mittelberg, Irene / Coulson, Seana / Spivey, Michael J.: Methods in Cognitive Linguistics. Amsterdam/Philadephia: Benjamins, 225-248. Neidle, Carol. 2002: SignStream™ Annotation: Conventions used for the American Sign Language Linguistic Research Project. (American Sign Language Linguistic Research Project. Report No. 11). Boston University. [Pdf-Dokument im Internet; URL: http://www.bu.edu/asllrp/asllrpr11.pdf; letzter Zugriff: 2010-12-14]. Neidle, Carol. 2007: SignStream™ Annotation: Addendum to Conventions used for the American Sign Language Linguistic Research Project. (American Sign Language Linguistic Research Project. Report No. 13). Boston University. [Pdf-Dokument im Internet; URL: http://www.bu.edu/asllrp/asllrpr13.pdf; letzter Zugriff: 2010-12-14]. Obando, I. / Vega, E. / Javier, E. / Ellis, M., / Kegl, J. 2000: Lip pointing in Idioma de Senas de Nicaragua. Paper presented at 7th International Conference on Theoretical Issues in Sign Language Research, Amsterdam. [Unveröffentl. Handout zum Vortrag]. Padden, Carol A. 1988: Interaction of Morphology and Syntax in American Sign Language. New York: Garland Publ. Patterson, Brian R. / Neupauer, Nicholas C. / Burant, Patricia A. / Koehn, Steven C. / Reed, April T. 1996: A preliminary examination of conversation analytic techniques: Rates of inter-transcriber reliability. In: Western Journal of Communication 60, 1, 76-91. Pitt, Mark A. / Johnson, Keith / Hume, Elizabeth / Kiesling, Scott / Raymond, William: 2005: The Buckeye corpus of conversational speech: Labeling conventions and a test of transcriber reliability. In: Speech Communication 45, 89-95. Popist, Frauke-Maria. 2002: Erhebungsmethoden in der Gebärdensprachlexikographie. Dokumentation und Vergleich am Beispiel des Fachgebärdenlexikons ‚Hauswirtschaft‘. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Projektgruppe München. 1989: Das lautsprachbegleitende Gebärdenverfahren. München: [ohne Verlag]. Rammel, Georg. 1989: Das lautsprachbegleitende Gebärdenverfahren – Aufgabenstellung und Probleme. In: Bausch, Karl H. / Grosse, Siegfried (Hg.): Spracherwerb und Sprachunterricht für Gehörlose. Zielsetzungen und Probleme. Tübingen: Niemeyer, 61-68. Rasmus, Brian A. / Allen, Donald M. 1988: Testing new signs for teaching biology. In: Sign Language Studies 60, 313-330. Literatur 127 Raymond, William D. 2003: An analysis of coding consistency in the transcription of spontaneous speech from the Buckeye corpus. Proceedings of the Workshop on Spontaneous Speech: Data and Analysis. August, 2002. Tokyo. [Pdf-Dokument im Internet; URL: http://buckeyecorpus.osu.edu/pubs/SSDA.proof.pdf?PHPSESSID=a7349c246c53d2 2f00f6a445acacb553; letzter Zugriff: 2010-12-14]. Russo, Tommaso. 2004: Iconicity and Productivity in Sign Language Discourse: An Analysis of Three LIS Discourse Registers. In: Sign Language Studies 4, 2, 164-197. Sallandre, Marie-Anne. 2001: Va et vient de l’iconicité en Langue des Signes Française. In: Acquisition et Interaction en Langue Étrangère (A.I.L.E.) 15, 37-59. Sallandre, Marie-Anne. 2003: Les unités du discours en Langue des Signes Française. Tentative de catégorisation dans le cadre d’une grammaire de l’iconicité. 2 vol. Paris: Université Paris 8. [Unveröffentl. Dissertation]. [Pdf-Dokumente im Internet; URL: http://tel.archives-ouvertes.fr/tel-00185376/en/; letzter Zugriff: 2010-12-14]. Schembri, Adam. 2000: Nachdenken über Klassifikatoren in Gebärdensprachen. Teil 1 in: Das Zeichen 53, 470-483; Teil 2 in: Das Zeichen 54, 629-639. Schembri, Adam. 2003: Rethinking “classifiers” in signed languages. In: Emmorey, Karen (ed.): Perspectives on classifier constructions in sign languages. Mahwah, NJ: Erlbaum, 3-34. Scherer, Klaus. 1974: Ausgewählte Methoden der empirischen Sprachforschung. In: Koolwijk, Jürgen van / Wieken-Mayser, Maria (Hg.): Techniken der empirischen Sozialforschung. Ein Lehrbuch in 8 Bänden. Bd. 3. München, Wien: Oldenbourg Verlag, 110-157. Schmidt, Thomas. 2005: Computergestützte Transkription: Modellierung und Visualisierung gesprochener Sprache mit texttechnologischen Mitteln. Frankfurt a.M.: Lang. [Dissertation]. Schmidt-Brücken, Sabine. 2001: Das Sozialgesetzbuch IX. Behinderte Menschen erhalten Recht auf Rehabilitation und soziale Teilhabe. In: Das Zeichen 57, 400-403. Schnell, Rainer / Hill, Paul B. / Esser, Elke. 1993: Methoden der empirischen Sozialforschung. 4. Aufl. München, Wien: Oldenbourg Verlag. Schulte, Klaus. 1980: Sprechlehrhilfe PMS. Informationen des Phonembestimmten Manualsystems zur Sprachtherapie und Artikulation. Heidelberg: Groos. Skant, Andrea / Orter, Reinhold / Okorn, Ingeborg / Dotter, Franz / Bergmeister, Elisabeth. 2001: Die Bearbeitung des Klagenfurter Fragebuchs zum Grundwortschatz der Österreichischen Gebärdensprache. In: Grazer Linguistische Studien 56, Herbst, 95-114. Slobin, Dan I. / Hoiting, Nini / Anthony, Michelle / Biederman, Yael / Kuntze, Marlon / Lindert, Reyna B. / Pyers, Jennie E. / Thumann, Helen / Weinberg, Amy M. 2001: Sign language transcription at the level of meaning components. The Berkeley Transcription System BTS. In: Sign Language & Linguistics 4, 1/2, 63-104. Standaard Lexikon Nederlandse Gebarentaal. Deel 1 & 2. 2002. Bunnik: Nederlands Gebarencentrum. [2 CD-ROM]. [Online im Internet; URL: http://www.gebarencentrum.nl/woordenboek.asp?color=y&idrelease=31; letzter Zugriff: 2010-12-14]. Starcke, Hellmuth / Maisch, Günter. 1977: Die Gebärde der Gehörlosen. Ein Hand-, Lehr- und Übungsbuch. Hamburg: Deutsche Gesellschaft zur Förderung der Gehörlosen und Schwerhörigen. Literatur 128 Sternberg, Martin L. 1981: American Sign Language dictionary: A comprehensive dictionary. New York: Harper & Row. Supalla, Ted. 1978: Morphology of verbs of motion and location. In: Caccamise, Frank / Hicks, Doin (eds.): Proceedings of the Second National Symposium on Sign Language Research and Teaching. Siver Spring, MD: National Association of the Deaf, 27-45. Supalla, Ted. 1986: The classifier system in American Sign Language. In: Craig, Colette (ed.): Noun classes and categorization. Amsterdam: Benjamins, 181-214. Supalla, Ted / Newport, Elissa L. 1978: How many seats in a chair? The derivation of nouns and verbs in ASL. In: Siple, Patricia (ed.): Understanding language through sign language research. New York, San Francisco, London: Academic Press, 91-132. Sutton-Spence, Rachel / Woll, Bencie. 1999: The Linguistics of British Sign Language. An Introduction. Cambridge: Cambridge University Press. Troelsgård, Thomas / Kristoffersen, Jette H. 2008: An Electronic dictionary of Danish Sign Language. In: Quadros, Roncie M. de (ed.): Sign Languages: spinning and unraveling the past, present and future. TISLR 9, forty five papers and three posters from the 9th Theoretical Issues in Sign Language Research Conference, Florianopolis, Brazil, December 2006. Petrópolis/RJ, Brazil: Editora Arara Azul, 652-663. [Pdf-Dokument im Internet; URL: http://www.editora-araraazul.com.br/ebooks/catalogo/complete.pdf; letzter Zugriff: 2010-12-14]. Wallin, Lars. 1996: Polysynthetic signs in Swedish Sign Language. Stockholm: University of Stockholm. [Englische Ausg. der Dissertation, Orig. in Schwedisch, 1994]. Wiegand, Herbert E. 1994: Zur Unterscheidung von semantischen und enzyklopädischen Daten in Fachwörterbüchern. In: Schaeder, Burkhard / Bergenholtz, Henning (Hg.): Fachlexikographie. Fachwissen und seine Repräsentation in Wörterbüchern. Tübingen: Narr, 104-132. Winston, Elizabeth A. 1991: Spatial referencing and cohesion in an American Sign Language text. In: Sign Language Studies, 73, 20, 397-410. Anhang 129 Anhang: Abkürzungen ASL BSL BTS CA CHAT CHILDES CL CLAN CLex CODA DGS ECHO ELAN American Sign Language British Sign Language Berkeley Transcription System Constructed Action Codes for the Human Analysis of Transcripts Child Language Data Exchange System Classifier Computerized Language Analysis Fachgebärdenlexikon Computer Child of Deaf Adult Deutsche Gebärdensprache European Cultural Heritage Online Eudico Linguistic Annotator (EUDICO = European Distributed Corpora Project) GaLex Fachgebärdenlexikon Gärtnerei und Landschaftsbau GLex Fachgebärdenlexikon Gesundheit und Pflege HLex Fachgebärdenlexikon Hauswirtschaft HamNoSys Hamburger Notationsystem für Gebärdensprachen ID Identifier (engl. für Identifikator zur Kennzeichnung eines Datensatzes einer Datenbank, s. Datenbanik-ID) IDGS Institut für Deutsche Gebärdensprache IMDI ISLE Metadata Initiative (ISLE = International Standards for Language Engineering)" IPA International Phonetic Alphabet oder International Phonetic Association LBG Lautsprachbegleitendes Gebärden LingLex Fachgebärdenlexikon Linguistik LIS Lengua Italiana des Signas (Italienische Gebärdensprache) LSF Langue des Signes Française (Französische Gebärdensprache) LUG Lautsprachunterstützendes Gebärden NGT Nederlandse Gebarentaal (Nierderländische Gebärdensprache) PLex Fachgebärdenlexikon Psychologie PM Property Marker PMS Phonembestimmtes Manualsystem SEE 1 Seeing Essential English SEE 2 Signing Exact English SLex Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik SQL Structured Query Language (engl. für standardisierte Datenbanksprache zum Anlegen, Abfragen und Ändern von Daten in relationalen Datenbanken) TLex Fachgebärdenlexikon Tischler/Schreiner TRUG Tonreceptionsunterstützende Gebärden TSP Technical Signs Project (Project zur Verbreitung und Standardisierung von Fachgebärden in ASL) XML Extensible Markup Language (engl. für erweiterbare Auszeichnungssprache) Anhang Anhang: Fingeralphabet der DGS 130