Diss_Korr_Teil 2_14 - Institut für Deutsche Gebärdensprache

Transcription

Diss_Korr_Teil 2_14 - Institut für Deutsche Gebärdensprache
Inhalt
1
Reiner Konrad
Die Erstellung von Fachgebärdenlexika am Institut für Deutsche
Gebärdensprache (IDGS) der Universität Hamburg
(1993-2010)
Universität Hamburg
Institut für Deutsche Gebärdensprache und Kommunikation Gehörloser
im Dezember 2010
Die vorliegende Arbeit ist eine aktualisierte Fassung des 4. Kapitels der im März 2009 bei der
Fakultät für Geisteswissenschaften (Fachbereiche Sprache, Literatur, Medien & Europäische
Sprachen und Literaturen) der Universität Hamburg eingereichten Dissertation Die lexikalische
Struktur der DGS im Spiegel empirischer Fachgebärdenlexikographie. Zur Integration der
Ikonizität in ein korpusbasiertes Lexikonmodell.
Zugehörige Veröffentlichungen:
• Konrad, Reiner. (in Vorb.): Die lexikalische Struktur der DGS im Spiegel empirischer
Fachgebärdenlexikographie. Zur Integration der Ikonizität in ein korpusbasiertes
Lexikonmodell. Tübingen: Narr Verlag.
[Inhaltliche Bezüge auf diese Veröffentlichung sind in dieser Arbeit mit folgendem roten
Pfeil ➚ vor der Angabe des Kapitels gekennzeichnet.]
• Konrad, Reiner. 2010a: Transkriptionskonventionen im Vergleich. Universität Hamburg.
[Online im Internet; URL: http://www.sign-lang.unihamburg.de/projekte/mfl/transkrkonv_vergleich.pdf]
• Konrad, Reiner. 2010b: Gebärdensprach-Korpora. Universität Hamburg. [Online im
Internet; URL: http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gskorpora.html]
Inhalt
2
Inhalt
1
2
3
4
5
6
7
8
Vorwort................................................................................................................... 4
Einführung .............................................................................................................. 7
Korpusbasiertheit und empirisch-deskriptives Vorgehen ......................................... 9
Datenerhebung ...................................................................................................... 14
4.1 Setting ........................................................................................................... 15
4.2 Erhebungsarten .............................................................................................. 16
4.2.1 Standardisiertes Interview ........................................................................... 17
4.2.2 Vorstrukturiertes Gespräch.......................................................................... 17
4.2.3 Elizitierte Antworten................................................................................... 18
4.3 Dokumentation und Aufbereitung der Daten..................................................... 21
Segmentierung und Sichtung................................................................................. 23
5.1 Vorstrukturierte Gespräche ............................................................................ 23
5.2 Elizitierte Antworten...................................................................................... 25
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank........... 28
6.1 Rohtranskription und Lemmatisierung: vom Token zum Type ....................... 29
6.1.1 Transkriptionskonventionen........................................................................ 31
6.1.1.1 Konventionelle Gebärden......................................................................... 35
6.1.1.2 Produktive Gebärden................................................................................ 43
6.1.1.3 Sonstige Zeichen und Zeichensysteme ..................................................... 49
• Fingeralphabet ................................................................................. 49
• Initialisierte Gebärden...................................................................... 51
• Phonembestimmtes Manualsystem (PMS) ....................................... 51
• DGS-Gebärden für deutsche Prä- und Suffixe.................................. 53
• Neu entwickelte Gebärden ............................................................... 53
• Zeigegebärden ................................................................................. 53
• Zahlgebärden................................................................................... 54
• Gesten ............................................................................................. 56
• Repräsentierender ganzheitlicher Körperausdruck............................ 61
• Artikulation eines Ableseworts ohne manuelle Form ....................... 63
• Überlagerung verschiedener Gebärden (Koartikulation)................... 63
6.1.1.4 Modifikation lexikalischer Gebärden........................................................ 64
6.1.1.5 Variation lexikalischer Gebärden ............................................................. 69
• Phonologische Varianten (Ausführungsvarianten)............................ 69
• Lexikalische Varianten (Synonyme) ................................................ 71
6.1.1.6 Überblick über Glossierungskonventionen und Vergleich ........................ 72
6.2 Aufbau einer lexikalischen Datenbank ........................................................... 80
6.2.1 Bottom-up- versus Top-down-Ansatz.......................................................... 82
6.2.2 Überdifferenzierung versus Unterdifferenzierung........................................ 85
6.2.3 Komplexität, Differenzierung und effiziente Suchfunktionen ...................... 87
6.2.4 Qualitätssicherung: Paralleltranskription (inter-transcriber reliability)
versus mehrstufiges Verfahren .................................................................... 89
6.3 Lemmarevision: vom Type zum Token und Type-Umgebung ........................ 93
6.3.1 Vom Type zum Token ................................................................................ 93
6.3.2 Type-Umgebung ......................................................................................... 94
6.3.3 Fehlerdokumentation, Fehlerkorrektur und Hierarchie der
Bearbeitungsrechte...................................................................................... 96
Auswahl geeigneter DGS-Übersetzungen .............................................................. 99
Lexikographische Beschreibung der Einzelgebärden ........................................... 103
8.1 Gebärdenraumnutzung ................................................................................. 105
8.2 Bedeutungsangabe bei Modifikationen......................................................... 109
Inhalt
3
9 Zusammenfassung............................................................................................... 112
10 Literatur .............................................................................................................. 119
Anhang:
Abkürzungen....................................................................................................... 129
Fingeralphabet der DGS ...................................................................................... 130
Vorwort
1
4
Vorwort
Seit Beginn der 1990er Jahre wurden am Institut für Deutsche Gebärdensprache und
Kommunikation Gehörloser (IDGS) der Universität Hamburg sogenannte Fachgebärdenlexika erstellt. Das Fachgebärdenlexikon Computer (CLex)1 war das erste Projekt,
das 1994 mit der Veröffentlichung eines zweibändigen Buches (Arbeitsgruppe Fachgebärdenlexika 1994) sowie einer VHS- und CD-ROM-Version2 abgeschlossen wurde.
Das 1992 begonnene Projekt Fachgebärdenlexikon Linguistik (LingLex) wurde nicht
abgeschlossen.3 Von 1993-2010 wurden sechs Fachgebärdenlexika zu verschiedenen
Berufsfeldern erstellt, die eine Berufsausbildung oder ein akademisches Studium
erfordern: Psychologie (PLex), Tischler/Schreiner (TLex), Hauswirtschaft (HLex),
Sozialarbeit/Sozialpädagogik (SLex), Gesundheit und Pflege (GLex), Gärtnerei und
Landschaftsbau (GaLex).4
Ziel der vorliegenden Arbeit ist es, die in diesem Zeitraum entwickelten Methoden der
Gebärdenerhebung und Auswertung der Daten zu beschreiben. Das methodische Vorgehen umfasst die Datenerhebung (Kap. 4), die Segmentierung und Sichtung der Daten
(Kap. 5) sowie die Transkription (Kap. 6), die in mehreren Schritten vorgenommen
wird. Nach der Segmentierung der Einzelgebärden, aus denen sich eine elizitierte
Antwort oder Äußerung zusammensetzt (Tokenisierung), wurden diese Einzelgebärden
(Token) lexikalischen Einheiten zugeordnet (lemmatisiert). Dieser Schritt der Lemmatisierung geht einher mit dem Aufbau einer lexikalischen Datenbank, da es noch kein
umfassendes Wörterbuch der Deutschen Gebärdensprache (DGS) gibt, das die
lexikalischen Einheiten (Types) enthält, denen die Token hätten zugeordnet werden
können. Die Auswahl geeigneter DGS-Übersetzungen (Kap. 7) sowie die Ausarbeitung
weiterer Informationseinheiten zu den Einzelgebärden (Kap. 8), die seit dem TLex in
einem separaten Gebärdenverzeichnis lexikographisch beschrieben werden, schließen
diese Arbeit ab. Nicht erwähnt werden die Arbeiten, die sich auf die Ausarbeitung der
Informationen zu den Fachbegriffen beziehen. Nähere Angaben dazu finden sich im
Vorwort oder in den Hintergrundinformationen des jeweiligen Fachgebärdenlexikons.
1
2
3
4
Im Folgenden werden in runden Klammern die Abkürzungen der verschiedenen Projekte eingeführt,
die in dieser Arbeit für das Projekt bzw. das daraus entstandene Produkt verwendet werden.
Die CD-ROM-Version wurde mithilfe des Programms Hypercard, das nur für Apple MacintoshComputer nutzbar war, entwickelt und ist nicht mehr verfügbar. Als HTML-Version und online verfügbar ist lediglich ein Beispieleintrag, der die verschiedenen Informationseinheiten zeigt (URL:
http://www.sign-lang.uni-hamburg.de/CLex/A/Abakus.HTML).
Eine Projektbeschreibung findet man unter der URL:
http://www.sign-lang.uni-hamburg.de/projekte/linglex/linglex-uebersicht.html.
Die Fachgebärdenlexika wurden als Buch- und elektronische Version (CD- bzw. DVD-ROM) produziert und im Signum-Verlag veröffentlicht (Arbeitsgruppe Fachgebärdenlexika 1996, Arbeitsgruppe
Fachgebärdenlexika 1998, Konrad et al. 2000, Konrad et al. 2003, Konrad et al. 2007, Konrad et al.
2010). Die DGS-Übersetzungen der Fachbegriffe wurden zusätzlich als VHS-Kassetten oder DVDVideo produziert. Die elektronische Version ist HTML-basiert und damit plattformunabhängig im
Internet frei verfügbar; s. URL: http://www.sign-lang.uni-hamburg.de/projekt/abg_projekte.html.
Vorwort
5
Kapitel 3 gibt zu Beginn einen zahlenmäßigen Überblick über die Projekte (s. Tab. 2)
und eine quantitative Auswertung der erhobenen Daten. Für jedes dieser sechs
Fachgebärdenlexika wurde ein eigenes Korpus erhoben, das im Wesentlichen aus
elizitierten spontanen Übersetzungen der Fachbegriffe besteht. Die darin enthaltenen
Gebärden wurden segmentiert, lexikalischen Einheiten zugeordnet (lemmatisiert) und
mit weiteren Angaben zu Form und Bedeutung versehen (annotiert). Dadurch konnten
die spontanen Übersetzungen eines Fachbegriffs überprüft und miteinander verglichen
werden. Diese Korpora sind die Grundlage für die Auswahl geeigneter DGSEntsprechungen eines Fachbegriffs.
Der Schwerpunkt dieser Arbeit liegt in der detaillierten Beschreibung und Diskussion
der Transkriptionskonventionen, die der Lemmatisierung und Annotation der Gebärden
zugrunde liegen. Einen Überblick über die von uns entwickelten Glossierungen im
Vergleich mit anderen Konventionen für Lemmatisierung und Annotation gibt die
Tabelle „Transkriptionskonventionen im Vergleich“5 Diese Konventionen werden
fortlaufend weiterentwickelt. Zum einen sind es die Daten, die neue Kategorisierungen
im Rahmen der Token-Type-Zuordnung sowie der konsistenten Klassifizierung
sonstiger nichtlexikalisierter gebärdensprachlicher Phänomene nahelegen, zum anderen
sind es neue Forschungsziele, die Konventionen für zusätzliche Annotationen erfordern.
Der hier beschriebene Stand bezieht sich auf die Transkriptionskonventionen, die bis
zum Beginn der Basistranskription im Rahmen des DGS-Korpus-Projekts6 (Sommer
2010) angewandt wurden. Wesentliche Veränderungen sind zurzeit im Bereich der
Erfassung von Modifikationen geplant (s. Kap. 6.1.1.4).
Die Notwendigkeit, parallel zur Transkription und Lemmatisierung eine lexikalische
Datenbank aufzubauen, macht es erforderlich, dass nach Abschluss der Rohtranskription alle Token eines Types miteinander verglichen werden, um die Konsistenz der
Token-Type-Zuordnung und der Annotationen zu gewährleisten. Dadurch wird die
Lemmatisierung, die im Wesentlichen ein Top-down-Prozess ist, durch die Daten
abgesichert (bottom-up; s. Kap. 6.2.1). Diese Überarbeitung der Rohtranskription wird
in dieser Arbeit als Lemmarevision bezeichnet und in Kapitel 6.3 näher beschrieben.
Dieser Teil der Dissertation wird separat veröffentlicht, um denjenigen, die in der
Gebärdensprachforschung empirisch arbeiten, konkrete praktische wie auch technische
Informationen möglichst einfach zugänglich zu machen. Wer sich jedoch eher für die
theoretischen Fragen der Transkription und Lemmatisierung sowie für die Relevanz
ikonischer und lautsprachlicher Einflüsse im Gebärdenlexikon interessiert, sei auf
Konrad (in Vorb.) verwiesen. Verweise auf entsprechende Kapitel dieser Veröffent5
6
S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/transkrkonv_vergleich.pdf.
S. URL: http://www.dgs-korpus.de/.
Vorwort
6
lichung sind immer durch folgenden roten Pfeil ➚ vor der Angabe des Kapitels gekennzeichnet.
Die Webseite „Gebärdensprach-Korpora“7 wurde eingerichtet, um einen aktuellen und
umfassenden Überblick über bereits erstellte oder noch laufende Korpusprojekte zu
geben. Dieser Überblick war ursprünglich ebenfalls Teil der Dissertation.
Die Form der Gebärdenbeispiele ist mithilfe des Hamburger Notationssystems für
Gebärdensprachen (HamNoSys) notiert. Die Gebärden sind unter dem Glossennamen
als Videofilme auf folgender Webseite abrufbar: „Materialien zu den
Fachgebärdenlexika (1996-2010): Gebärden-Filme“8.
Die im Folgenden beschriebenen Projekte wären nicht durchführbar ohne die aktive
Beteiligung Gehörloser sowohl als Informanten als auch als Projektmitarbeiter, die die
Gebärden erheben, dokumentieren, sichten, transkribieren und eine Auswahl der DGSÜbersetzung treffen. Die gehörlosen Mitarbeiter waren von der Vorbereitung der Erhebung bis zur Fertigstellung der Lexika an fast allen Arbeitsschritten maßgeblich beteiligt. Seit dem TLex konnten die Projekte mit einem Stamm von vier gehörlosen und drei
hörenden Mitarbeitern durchgeführt werden. Dies zahlte sich insbesondere darin aus,
dass Methoden der Datenerhebung und -auswertung gemeinsam entwickelt und ständig
verbessert werden konnten. Dabei profitierten die Gehörlosen vom linguistischen und
methodischen Wissen der Hörenden, die Hörenden waren auf die Sprachkompetenz der
Gehörlosen angewiesen, die für die Erhebung und Auswertung der Daten unerlässlich
ist. Insbesondere möchte ich mich für die langjährige und intensive Zusammenarbeit
bedanken bei Gabriele Langer und Susanne König sowie bei den gehörlosen
Mitarbeiterinnen und Mitarbeitern Dolly Blanck, Ilona Hofmann, Lutz König und Arvid
Schwarz. Ohne sie wäre dieser Fortschritt in der Gebärdensprachlexikographie, der die
Voraussetzungen für das DGS-Korpus-Projekt geschaffen hat, nicht möglich gewesen.
7
8
S. URL: http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gs-korpora.html.
S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/gebaerden_filme.html.
Einführung
2
7
Einführung
Die o.g. Projekte wurden, mit Ausnahme der Projekte Fachgebärdenlexikon Linguistik
sowie Gesundheit und Pflege, vom Bundesministerium für Arbeit und Sozialordnung
gefördert. Ziel dieser Fachgebärdenlexika ist es, Grundlagen für eine qualifizierte
Ausbildung Gehörloser zur Verfügung zu stellen. Dahinter steht die Erkenntnis, dass die
berufliche Ausbildung Gehörloser erheblich verbessert werden kann, wenn Gebärden
bzw. DGS in die Kommunikation mit einbezogen werden. Denn ohne Gebärden bzw.
Gebärdensprache ist der Zugang zu den fachlichen Inhalten für Gehörlose im Vergleich
zu Hörenden ungleich schwieriger, da sie sich die Ausbildungsinhalte in einer ihnen
fremden, zweiten Sprache, dem geschriebenen Deutsch, aneignen müssen. Gehörlose
haben jedoch nach abgeschlossener Schulausbildung eine im Vergleich zu Hörenden
schlechte Schriftsprachkompetenz (s. ➚ 2.4.2) und sind dadurch doppelt benachteiligt.
Der stetig wachsende Bedarf an Gebärden, die eine effiziente Kommunikation in einem
bestimmten Fachgebiet gewährleisten sollen, ist zum einen dadurch zu erklären, dass
Gehörlose durch den Einsatz von Dolmetschern oder Arbeitsassistenz sich neue Berufsfelder erschließen oder sich für eine akademische Ausbildung entscheiden. Zum anderen sind es die Veränderungen in der Arbeitswelt, z.B. durch den verstärkten Einsatz
von EDV, die eine ständige Weiterbildung oder eine berufliche Neuorientierung notwendig machen. Dies war einer der wesentlichen Gründe, warum das erste Fachgebärdenlexikon zum Thema Computer erstellt wurde.
Mit der Anerkennung der Gebärdensprache haben Gehörlose zwar Anspruch auf die
Vermittlung von Ausbildungs- und Arbeitsinhalten in ihrer eigenen Sprache, der DGS9,
das Kommunikationsproblem bleibt jedoch, da es für viele Fachbegriffe keine adäquaten DGS-Entsprechungen gibt. In der konkreten Dolmetschsituation wird dieses Manko
unter anderem dadurch ausgeglichen, dass gehörloser Klient und Dolmetscher sich auf
gebärdensprachliche Umschreibungen oder neu eingeführte Gebärden einigen, die speziell für diese Dolmetschsituation gelten. Erst nach mehrmaligem Gebrauch kann es
sein, dass sich bestimmte Gebärden einschleifen, die für eine bestimmte Bedeutung verwendet werden. Wechselt der Kommunikationspartner, müssen wieder von neuem Gebärden für eine spezifische Bedeutung vereinbart werden. Die Fachgebärdenlexika stellen für
Gehörlose, Dolmetscher und Ausbilder DGS-Übersetzungen der grundlegenden Fachbegriffe zur Verfügung und ermöglichen es, die Kommunikation zwischen Hörenden und
Gehörlosen, aber auch zwischen Gehörlosen untereinander effizienter zu machen.
Das Ziel, Grundlagen für die berufliche Ausbildung Gehörloser bereitzustellen, war
9
S. Behindertengleichstellungsgesetz (BGG), § 6, Absatz 1-3. Das Gesetz ist am 1.5.2002 in Kraft
getreten. Das Recht auf soziale Teilhabe für behinderte und chronisch kranke Menschen ist seit dem
1.7.2001 im Sozialgesetzbuch (SGB) IX geregelt, u.a. in Artikel 1, § 102 (Arbeitsassistenz) und
Artikel 36 (Berufsbildung); vgl. Schmidt-Brücken (2001).
Einführung
8
auch ausschlaggebend für die Struktur der Fachgebärdenlexika, die nicht nur eine Übersetzung der Fachbegriffe in die DGS anbieten, sondern darüber hinaus jeden Fachbegriff entsprechend dem Fachgebiet und Ausbildungsniveau definieren und, wo möglich,
mit einer geeigneten Illustration versehen. Damit sind die Fachgebärdenlexika eine Mischung aus Fachbuch und zweisprachigem Wörterbuch10, wobei die Übersetzung immer
vom deutschen Fachbegriff ausgeht. Nach Wiegand (1994:107) ist dieser Wörterbuchtyp
als „fachliches Allbuch“ einzuordnen. Die Kombination aus Fach- und Sprachwissen ist
nach Bergenholtz (1994:44) gerade für Benutzer, die keine Fachleute sind, sinnvoll.
Für die Erstellung der fachlichen Inhalte, die die Auswahl der Begriffe, u.a. auf der
Grundlage einer bestehenden Ausbildungsordnung, die Begriffserklärung und die Illustration durch geeignete Abbildungen, Fotos oder Zeichnungen umfasst, wurde in jedem
Projekt eine Kooperation mit einem Berufsbildungswerk, einer Hochschule oder anderen externen Fachleuten vereinbart. Die Auswahl der Fachbegriffe war durch den Projektzeitraum, die Vorgehensweise bei der Erarbeitung der DGS-Übersetzungen und die
finanziellen Mittel begrenzt. Bedingt durch die korpusbasierte Erstellung der Fachgebärdenlexika, die mit dem Psychologie-Lexikon eingeführt wurde, ergab sich für einen
Projektzeitraum von maximal drei Jahren eine Obergrenze von ca. 1000 Begriffen.
10
Berücksichtigt man die englischen Übersetzungen der Fachbegriffe, für die ein eigenes Register erstellt wird, dann sind sie korrekterweise als dreisprachig zu bezeichnen. Die englischen Bezeichnungen sind gerade für die akademischen Disziplinen Psychologie, Sozialarbeit/Sozialpädagogik sowie
für Gesundheit und Pflege eine sinnvolle Ergänzung für den Benutzer. Weiterhin ermöglichen diese
Übersetzungen englischsprachigen Benutzern der Online-Version eines Fachgebärdenlexikons, DGSÜbersetzungen der Fachbegriffe zu finden.
Korpusbasiertheit und empirisch-deskriptives Vorgehen
3
9
Korpusbasiertheit und empirisch-deskriptives
Vorgehen
Das Fachgebärdenlexikon Psychologie war das erste Projekt, das unter meiner Verantwortung durchgeführt wurde. Die Entscheidung, die Auswahl der DGS-Übersetzungen
auf der Grundlage eines eigens dafür erstellten Korpus vorzunehmen, war in erster Linie
motiviert durch die Absicht, die bereits vorhandenen Gebärden zu dokumentieren. Denn
entweder existieren bereits etablierte Gebärden für bestimmte Fachbegriffe oder gehörlose Fachleute haben Strategien entwickelt, wie sie Fachbegriffe, mit denen sie sich
während der Ausbildung oder ihrer beruflichen Tätigkeit auseinandersetzen müssen, in
die DGS übersetzen. Nur wenn diese Fachgebärden oder bekannte Übersetzungsstrategien auch im Lexikon gezeigt werden, können sich gehörlose Nutzer mit ihrer sprachlichen Erfahrung darin wiederfinden. Auch wenn, besonders bei hörenden Nutzern, die
die DGS als Fremdsprache erwerben (L2-Lerner), die Erwartung groß ist, dass ein
Fachgebärdenlexikon allgemein verbindliche, standardisierte DGS-Übersetzungen von
Fachbegriffen liefern sollte, haben die Fachgebärdenlexika nicht die Intention, auf eine
Standardisierung einer bestimmten DGS-Übersetzung hinzuwirken. Sie sind jedoch
insofern präskriptiv, dass durch die Veröffentlichung bestimmte Übersetzungen stärker
verbreitet und recherchierbar sind und sich als Grundlage für eine zu erwartende
Standardisierung anbieten. Ob es jedoch zu einer Standardisierung kommt, entscheidet
sich allein durch den Sprachgebrauch.
Im Unterschied zum Vorgehen einer Arbeitsgruppe um R. Caccamise am RIT (Washington), die seit 1975 im Rahmen des Technical Signs Project (TSP) Fachgebärden der
Amerikanischen Gebärdensprache (ASL) für die verschiedensten Berufsfelder zusammengestellt haben11, steht bei unserem Vorgehen die Erhebung möglichst vieler Übersetzungsmöglichkeiten im Vordergrund, die im Rahmen der Transkription und lexikalischen Analyse ausgewertet werden. Diese Auswertung ist die Grundlage für die Auswahl der Übersetzungen, die im Produkt gezeigt werden. Die Auswahl ist korpusbezogen
und wird nicht daraufhin geprüft, ob diese Übersetzungen bereits standardisierte Fachgebärden sind. Um dem Benutzer die verschiedenen Übersetzungsstrategien deutlich zu machen,
sind seit dem Fachgebärdenlexikon Tischler/Schreiner (TLex; Arbeitsgruppe Fachgebärdenlexika 1998) die Einzelgebärden, aus denen diese Übersetzungen bestehen, durch
Glossen gekennzeichnet und in einem separaten Gebärdenverzeichnis lexikographisch
beschrieben. Dadurch wird nachvollziehbar, welche Gebärden – konventionelle Gebärden,
sogenannte produktive Gebärden oder eine Kombination aus konventionellen und/oder produktiven Gebärden – zur Übersetzung eines Fachbegriffs verwendet werden, mit welchen
Ablesewörtern oder Mundgestiken diese Gebärden kombiniert werden, ob diese Gebärden
modifiziert wurden und welche Gebärdenvarianten es gibt.
11
Zum methodischen Vorgehen s. ➚ 2.4.1.
Korpusbasiertheit und empirisch-deskriptives Vorgehen
10
Dieses Vorgehen, das im Folgenden näher erläutert wird, unterscheidet sich deutlich von
den Methoden, die für die Erstellung des Computer- und Linguistik-Lexikons eingesetzt
wurden. Um geeignete Übersetzungen für die vorher festgelegten Fachbegriffe aus dem
Bereich Computer zusammenzutragen, trafen sich in regelmäßigen Abständen Mitarbeiter
des Projekts mit elf hörgeschädigten oder gehörlosen Computerfachleuten aus dem
gesamten Bundesgebiet (s. Arbeitsgruppe Fachgebärdenlexika 1994:5-6). Die Sitzungen
wurden jedoch nicht dokumentiert, d.h. es gibt weder Belegstellen für die ausgewählten
Gebärden noch Metadaten über die Teilnehmer der Sitzungen und deren Verlauf. Im
Nachhinein kann u.a. nicht mehr nachvollzogen werden, wer die Übersetzung vorgeschlagen hat, warum eine Übersetzung einer anderen vorgezogen wurde, ob eine bereits etablierte Gebärde direkt übernommen oder in ihrer Form verändert wurde, um den jeweiligen
Fachbegriff wiederzugeben, oder ob eine völlig neue Gebärde geschaffen wurde.
Die Ausgangslage für das Fachgebärdenlexikon Linguistik war völlig anders, da es
außer den gehörlosen Lektoren des IDGS nur sehr wenige Gehörlose gab, die sich mit
linguistischen Themen beschäftigten. Die meisten der ca. 1000 ausgewählten Fachbegriffe waren Gehörlosen unbekannt. Die DGS-Übersetzungen wurden im Rahmen
von Arbeitssitzungen erarbeitet, indem die Leiterin des Projekts den drei gehörlosen
Lektoren die Bedeutung der Begriffe erklärte und diese dann mögliche DGS-Gebärden
diskutierten. Zu jeder Sitzung, an der Anfangs auch Dolmetscher teilnahmen, wurde ein
schriftliches Protokoll angefertigt. Diese Protokolle waren die Grundlage für die Wahl
einer bestimmten Übersetzung, die als vorläufige Version im Studio aufgenommen wurde. Diese Gebärden sollten etliche Jahre später von einer größeren Gruppe Gehörloser,
die Erfahrungen mit linguistischen Grundbegriffen hatten, z.B. durch ihre Tätigkeit als
DGS-Dozenten, diskutiert und überarbeitet werden. Diese Bemühungen führten jedoch
nicht zu einem erfolgreichen Abschluss.
Weder die Vorgehensweise im Technical Signs Project (TSP; s. ➚ 2.4.1), die ihren
Schwerpunkt in der Evaluation einer relativ geringen Anzahl intern erhobener ASLÜbersetzungen hatte und auf eine Standardisierung von Fachgebärden ausgerichtet war,
noch die bereits am IDGS durchgeführten Projekte waren methodisch zufriedenstellend.
Die Erstellung weiterer Fachgebärdenlexika sollte auf der Grundlage eines eigens dafür
erstellten Korpus vorgenommen werden, um die bereits vorhandenen gebärdensprachlichen Entsprechungen der ausgewählten Fachbegriffe zu dokumentieren und Entscheidungen nachvollziehbar zu machen. Mit Beginn des Fachgebärdenlexikons Psychologie
(PLex) wurde für jedes Fachgebärdenlexikon eine empirische Erhebung durchgeführt.
Die Sichtung des erhobenen Materials diente dazu, das Korpus zu erstellen, das
ausgewertet werden sollte. Kern der Auswertung war die Transkription und Annotation,
die es ermöglichte, die Antworten der Informanten zu vergleichen und quantitativ
auszuwerten. Erst auf dieser Grundlage wurde die Auswahl der DGS-Übersetzungen
vorgenommen sowie, falls erforderlich, fehlende Übersetzungen erarbeitet. Die Ent-
Korpusbasiertheit und empirisch-deskriptives Vorgehen
11
scheidung, möglichst viele Gebärdenvarianten und Übersetzungsmöglichkeiten eines
Fachbegriffs in der Auswahl zu berücksichtigen, war letztendlich motiviert durch die
Datenlage, die ein sehr heterogenes Bild ergab, wie folgende Tabelle zeigt12.
HLex
Zahl der transkribierten Informanten
SLex
GLex
GaLex
11
10
10
11
Zahl der Stimuli
702
450
1006
708
Zahl der Begriffe mit gültigen Antworten
691
450
991
712
Begriffe mit gültigen Antworten in %
98,4
100
98,5
100,6
Summe der gültigen Antworten
8999
6691
15351
14152
Max. Zahl der Antworten pro Begriff
66
30
76
67
Max. Zahl verschiedener Antworten pro Begriff
48
29
34
38
Durchschnittliche Zahl der Antworten pro Begriff pro
Informant
Durchschnittliche Zahl der Antworten pro Begriff pro
Informant: Min-Max
1,4
1,6
2
2,3
1,3-1,6
1,3-2,0
1,5-2,5
1,6-2,8
Tabelle 1: Verteilung der gültigen Antworten pro Begriff
Die Gesamtzahl der nach der Sichtung (s. Kap. 5) für die Transkription vorgesehenen
gültigen Antworten pro Begriff variiert in den verschiedenen Projekten zwischen 30 und
76. Die maximale Anzahl verschiedener Antworten pro Begriff variiert zwischen 29
und 48. Die starke Zunahme der absoluten Anzahl der Antworten lag an der Veränderung der Erhebungsmethode ab dem Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003; s. Kap. 4.2.3). Die durchschnittliche Zahl der Antworten,
die ein Informant gegeben hat, lag zwischen 1,3 und 2,8, wobei auffällt, dass die Zahl
mit jedem Projekt zunimmt. Dies liegt ebenfalls an den fortlaufenden Veränderungen
der Erhebungssituation mit dem Ziel, mehr Kommunikation zwischen Informant und
Interviewer zuzulassen.
Das folgende Diagramm zeigt das Verhältnis der Übereinstimmung verschiedener Informanten in ihren Antworten13.
12
13
In dieser Auswertung sind die Projekte ab dem Fachgebärdenlexikon Hauswirtschaft (HLex) berücksichtigt, da die Transkriptionen der beiden vorhergehenden Projekte nicht in der Datenbank enthalten
sind.
Als gleiche Antworten wurden alle Gebärden bzw. aneinandergereihte Gebärden gezählt, die dieselbe
Zitierform haben, d.h. die Modifikationen einer Gebärde (s. 6.1.1.4) wurden nicht berücksichtigt.
Korpusbasiertheit und empirisch-deskriptives Vorgehen
12
Abb. 1: Übereinstimmung in den Antworten der Informanten
Die Zahlen auf der Horizontalen geben die Häufigkeit gleicher Antworten an, wobei ab
einer Übereinstimmung von zwei Antworten gezählt wurde. Die Zahlen auf der Vertikalen geben die Anzahl der übereinstimmenden Antworten an. Deutlich erkennbar ist,
dass HLex und GaLex eine ähnliche Verteilungsstruktur haben, während SLex und
GaLex eine gegenläufige Tendenz aufweisen. Während das SLex-Korpus deutlich
höhere Zahlen gleicher Antworten enthält, sind im GLex-Korpus deutlich niedrigere
Zahlen gleicher Antworten vorhanden. Die Verteilungsstruktur des GLex’ ist jedoch
nicht deutlich verschieden von der des HLex- und SLex-Korpus. Gründe für die
auffallende Abweichung beim SLex sind vermutlich die relativ homogene Begriffsstruktur durch die hohe Zahl an Verwaltungs- und Rechtsbegriffen sowie die Tatsache,
dass etliche Informanten zuvor an dem Modellprojekt PotsMods an der Fachhochschule
Potsdam teilgenommen hatten (s. Henke/Heßmann 1995, Danielzik 2003). Dies hat
vermutlich zu einer stärkeren Konventionalisierung der DGS-Entsprechungen geführt.
Dem natürlichen Prozess der Standardisierung sollte nicht dadurch vorgegriffen werden, dass
jeweils nur eine Übersetzung veröffentlicht wird. Da die Auswahl korpusbezogen vorgenommen wurde, entschieden wir uns seit dem PLex dafür, den Erhebungsstatus für jede
gezeigte Übersetzung mit anzugeben, sodass der Benutzer sehen kann, ob eine Übersetzung von
verschiedenen Informanten („belegt“) oder von nur einem Informanten („bekannt“) stammt, ob
sie aus erhobenen Gebärden zusammen mit dem entsprechenden Ablesewort neu „kombiniert“
wurde oder ob es sich um eine „neue“ Gebärde handelt. An die Auswahl schloss sich die
lexikalische Analyse der Einzelgebärden an, die in den DGS-Übersetzungen verwendet werden.
Korpusbasiertheit und empirisch-deskriptives Vorgehen
13
Die Begrenzung der Auswahl auf die im Korpus enthaltenen DGS-Entsprechungen hat den
Nachteil, dass das Korpus nur einen begrenzten Sprachausschnitt darstellt und daher nicht
alle möglichen Übersetzungen enthalten kann. Außerdem ist die Transkription gebärdensprachlicher Daten sehr zeitaufwändig, da im Unterschied zu lautsprachlichen, insbesondere
geschriebenen Texten, auf keine automatisierten Verfahren zurückgegriffen werden kann.
Diese Nachteile überwiegen jedoch nicht die entscheidenden Vorteile eines Korpus:
1. Die Auswahl kann auf der Grundlage elizitierter Antworten oder DGS-Textstellen
in Interviews vorgenommen werden. Dadurch, dass die erhobenen DGS-Entsprechungen miteinander verglichen und deren Häufigkeit ermittelt werden kann, ist
die Auswahl objektivierbar und unterliegt nicht nur der sprachlichen Intuition
gehörloser Mitarbeiter.
2. Entscheidungen können anhand der Rohdaten nachvollzogen und während des
Transkriptionsprozesses oder der lexikalischen Analyse revidiert werden.
3. Durch die Auswahl der Informanten können regionale und dialektale Varianten
mit berücksichtigt werden.
Die folgende Tabelle gibt einen zahlenmäßigen Überblick über die einzelnen Projekte.
Fachgebiet
Psychologie
Tischler/ Hauswirt- Sozialarbeit/ Gesundheit Gärtnerei
Schreiner
schaft
Sozialpäda- und Pflege und Landgogik
schaftsbau
Projektzeitraum
1993-1995
1996-1998
1998-2000
2001-2003
900
800
700
450
1000
650
1270
2800
1560
940
2330
1406
900
800
550
700
340
450
1000
250
710
410
5
5
16
10
17
11
15
10
18
10
11
11
2
12
7
3,5
19
32,5
2
15
37,5
5
9
40,5
5
8,5
93,5
3,5
5,5
37
Antworten (gesamt)
Antworten (transkribiert)
3600
13500
8900
12500
9800
9600
6800
43200
15200
22400
10900
DGS-Entsprechungen in
vorstrukt. Gesprächen
500
–
–
–
2184
382
18700
2800
26400
1640
15900
50
29400
2630
21900
1220
1370
370
405
950
740
Anzahl der Fachbegriffe
DGS-Übersetzungen
Stimuli:
• Wörter
• Abbildungen
Informanten (erhoben)
Informanten (transkribiert)
Rohdaten (Std.)
• Interviews
• vorstrukt. Gespräche
• Abfrage (Fachbegriffe)
Vorkommen (Token)
• gesamt
• produktiver Gebärden
Konventionelle Gebärden
(Types)
2004-2007 2006-2010
Tabelle 2: Fachgebärdenlexika und zugehörige Korpora in Zahlen
Das methodische Vorgehen, beginnend mit der Datenerhebung über die Sichtung, Transkription, Auswahl der DGS-Übersetzungen bis hin zur Analyse und Beschreibung der
Einzelgebärden wird im Folgenden näher erläutert. Dabei wird die fortschreitende Entwicklung der Methoden der Datenerhebung, -dokumentation und -auswertung im Laufe
der verschiedenen Projekte mit berücksichtigt.
Datenerhebung
4
14
Datenerhebung
Zu Beginn der Datenerhebung steht die Suche nach geeigneten Informanten, die sowohl
fach- als auch DGS-kompetent sind. Um möglichst verschiedene regionale Gebärden zu
erheben, sollten Informanten aus dem gesamten Bundesgebiet gefunden werden. Die folgende Tabelle gibt einen Überblick über die Zusammensetzung der Informanten in den
einzelnen Projekten, deren Antworten im jeweiligen Korpus berücksichtigt wurden.14
Projekt
Zahl der
Informanten
(transkribiert)
Herkunft prälingual post- schwer- hörend Eltern Eltern
Eltern
(Zahl der ertaubt lingual hörig (CODA) gehör- hörend gehörlos u.
Bundes- (0-1;6 J.) ertaubt
los
hörend/
länder)
(> 6 J.)
schwerhörig
PLex
5
3
4
1
2
2
1 (g+h)
TLex
10
7
7
3
1
8
1 (g+sh)
HLex
11
8
8
3
3
8
SLex
10
6
9
3
6
GLex
10
5
6
2
8
GaLex
11
7
11
1
9
1
1
2
1
1
1 (g+sh)
1 (g+h)
Tabelle 3: Sozialer und sprachlicher Hintergrund der Informanten
Für das PLex konnten lediglich fünf Informanten für die Erhebung gewonnen werden,
was in erster Linie daran lag, dass es zum damaligen Zeitpunkt noch sehr wenige Gehörlose gab, die eine entsprechende akademische Ausbildung oder einschlägige Berufserfahrung hatten. Hinzu kam, dass zwei Gehörlose, die das Studium der Psychologie
begonnen hatten, selbst Mitarbeiter des Projekts waren und daher als Informanten nicht
zur Verfügung standen. Ihre Gebärden und Übersetzungsvorschläge wurden jedoch bei
der Auswahl mit berücksichtigt. Für die darauf folgenden Projekte konnten über Anzeigen (Deutsche Gehörlosenzeitung, Das Zeichen, lokale Gehörlosenzeitungen), mithilfe
der Unterstützung durch den Deutschen Gehörlosenbund und die Landesverbände der
Gehörlosen sowie durch persönliche Kontakte gehörlose Fachleute gefunden werden,
die bereit waren, sich für die Erhebung zur Verfügung zu stellen. Pro Projekt wurden
25-35 Personen angefragt und auf der Grundlage eines Fragebogens eingeschätzt. Da
einige Personen aufgrund ihrer Fach- oder DGS-Kenntnis nicht geeignet waren und andere
nicht zur Datenerhebung nach Hamburg kommen wollten oder konnten, kam bei jedem
Projekt eine Zahl zwischen 11 und 18 Informanten zustande, die in Anbetracht der begrenzten Zeit auch nicht überschritten werden konnte. Innerhalb von zweieinhalb bis drei Jahren
pro Projekt konnten die Antworten von 10-11 Personen transkribiert werden.
Das PLex war das erste Projekt, bei dem die DGS-Übersetzungen der Fachbegriffe auf
Grundlage eines eigens dafür erhobenen Korpus ausgewählt wurden. Der Schwerpunkt
14
Detaillierte Angaben zum sozialen und sprachlichen Hintergrund der Informanten finden sich in den
verschiedenen Lexika jeweils im Vorwort (s. PLex, TLex) oder in den Begleittexten (HLex: „Transkription und Analyse“, SLex und GLex: „Hintergrundinformationen“), in denen das methodische
Vorgehen beschrieben wird.
Datenerhebung
15
lag daher auf der Datenerhebung. Für die Vorbereitung und Durchführung der Interviews wurden die Erkenntnisse der empirischen Sozialforschung zugrunde gelegt
(s. Scherer 1974, Schnell et al. 1993). Die gehörlosen Interviewer wurden vor Beginn
der Erhebung geschult und führten Probeinterviews durch. Um in relativ kurzer Zeit für
alle Fachbegriffe Übersetzungen zu erheben, war die Elizitation möglichst spontaner
Übersetzungen erforderlich. Als Stimulus konnten lediglich die geschriebenen Fachwörter gezeigt werden, da sich die ausgewählten Begriffe fast ausschließlich auf abstrakte
Inhalte beziehen, die sich nicht bzw. nicht eindeutig durch eine Illustration darstellen
lassen. Aus den folgenden Ausführungen wird deutlich, dass das Erhebungssetting und
die Vorgehensweise fortlaufend verbessert wurden, um eine möglichst umfassende
Dokumentation zu gewährleisten. Denn nur so ist eine zuverlässige Auswertung und
Interpretation der Daten möglich.
Die Erhebung wurde bis auf eine Ausnahme im Rahmen des PLex’ am IDGS in Hamburg durchgeführt und dauerte eineinhalb bis zwei Tage. Die Informanten wurden in der
Regel einzeln eingeladen, in einigen Fällen war es möglich, zwei Erhebungen parallel
durchzuführen, d.h. die Informanten wurden getrennt interviewt. Dadurch wurde sichergestellt, dass sich die Informanten nicht gegenseitig beeinflussen und Gebärden des anderen übernehmen können. Von diesem Verfahren wurde im GaLex abgewichen, bei
dem acht Informanten mit Ausnahme des standardisierten Interviews paarweise interviewt wurden. Die Gründe für diese Entscheidung lagen nicht in dem geringeren Zeitaufwand, sondern in dem vielfach geäußerten Wunsch der Informanten, sich mit anderen Fachleuten über die Inhalte der Fachbegriffe auszutauschen, sowie in der Möglichkeit für uns, Erfahrungen mit Gruppenerhebungen zu sammeln. Den Informanten
wurden Fahrt- und Übernachtungskosten erstattet und sie erhielten eine Aufwandsentschädigung. Sie erklärten sich schriftlich damit einverstanden, dass ihre Aufnahmen
für die Erstellung des Fachgebärdenlexikons und zu wissenschaftlichen Zwecken
genutzt werden können.
4.1
Setting
Beim PLex wurden Interview und Gespräch mit zwei Kameras aufgenommen, bei der
Elizitation wurde nur der Informant gefilmt. Dies erschwerte jedoch bei manchen
Antworten die Einschätzung der gezeigten Gebärde, sodass seit dem SLex sämtliche
Erhebungssituationen mit zwei Kameras aufgenommen wurden, um eine vollständige
Dokumentation der Interaktion zu erhalten.
Die folgende Abbildung zeigt schematisch den Studioaufbau, wie er für die Elizitation
der Antworten auf die Fachbegriffe verwendet wurde. Die Kamera, die möglichst
frontal auf den Informanten gerichtet ist, zeichnet dessen Äußerungen sowie die auf
Datenerhebung
16
dem Monitor neben ihm gezeigten Stimuli auf. Diese Stimuli sieht der Informant auf
einem Monitor, der neben dem Interviewer aufgestellt ist, sodass der Informant
möglichst wenig hin- und herschauen muss. Der seit dem SLex eingesetzte Protokollant,
der i. d. R. nichts zum Ablauf des Interviews beiträgt, wird nicht aufgezeichnet.
Abb. 2: Studiosetting
Seit dem TLex wurden die Kamerabilder von Interviewer und Informant in einem Mischer zusammengesetzt und als ein Videobild auf einer Kassette aufgezeichnet. Da dabei jedoch die digitalen Daten der DV-Kamera in analoge Signale umgewandelt werden, kommt es zu einem Datenverlust. Beim GaLex wurde daher das Zusammensetzen
der Bilder von zwei bzw. drei Kameras (2 Informanten, 1 Interviewer) am Rechner mithilfe des Videoschnitt-Programms FinalCut vorgenommen. Die Erhebungen für das
PLex und TLex wurden noch mit VHS-Kameras in Arbeitsräumen des IDGS durchgeführt. Dabei wurde bewusst auf eine optimale Ausleuchtung, wie sie im Videostudio
möglich gewesen wäre, verzichtet, um die für die Informanten ungewohnte Erhebungssituation nicht noch stärker zu verfremden. Seit dem HLex wurden lichtempfindlichere
DV-Kameras eingesetzt, sodass die für die Auswertung erstellten digitalen Videofilme
eine bessere Qualität hatten als die VHS-Kopien.
4.2
Erhebungsarten
Die Erhebung bestand aus einem standardisierten Interview, einem vorstrukturierten
Gespräch15 und einem Elizitationsteil. Sie wurde ausschließlich von den gehörlosen
Projektmitarbeitern durchgeführt, die die Informanten betreuten und sie zu Beginn in
die Ziele des Projekts sowie den Ablauf der Erhebung einführten. Zum Schluss führten
15
Diese vorstrukturierten Gespräche sind entsprechend der Einteilung der Methoden in den empirischen
Sozialwissenschaften (s. z.B. Laatz 1993) ebenfalls eine Form des Interviews. Um die beiden Erhebungsformen klar voneinander abzugrenzen, hat sich in der praktischen Arbeit die Sprachregelung
bewährt, zwischen Interview (standardisiertes Interview anhand eines Fragebogens zur sozialen und
sprachlichen Situation) und Gespräch (moderiertes Interview anhand vorbereiteter Fragen) zu unterscheiden.
Datenerhebung
17
die Interviewer mit den Informanten ein Abschlussgespräch über den Verlauf der
Erhebung und notierten Besonderheiten sowie subjektive Eindrücke in einem Protokoll.
4.2.1 Standardisiertes Interview
Die Fach- und DGS-Kompetenz der fünf Informanten beim PLex war den gehörlosen
Mitarbeitern bekannt, bei den anderen Projekten wurde den Informanten ein Fragebogen
zugeschickt mit Fragen zum sozialen und sprachlichen Hintergrund. Diese Fragen
wurden zu Beginn der Erhebung in einem standardisierten Interview wiederholt, da es
sich herausstellte, dass durch die direkte mündliche Befragung Missverständnisse, die
sich u.a. durch die Verwendung des Schriftdeutschen ergaben, beseitigt werden konnten
und die Zuverlässigkeit der Angaben dadurch erhöht wurde. Gleichzeitig diente dieses
erste Interview zum gegenseitigen Kennenlernen und Aufwärmen. Die Informanten
konnten sich an die für sie relativ ungewohnte Umgebung und die Ausstattung des
Raums mit Kameras, Computern und Monitoren gewöhnen.
4.2.2 Vorstrukturiertes Gespräch
Anschließend wurde ein vorstrukturiertes Gespräch durchgeführt, in dem jeder Informant zu seinen Erfahrungen während und nach der Berufsausbildung sowie zu
konkreten Teilaspekten seiner Arbeit befragt wurde. Die Aufgabe des Interviewers war
es, das Gespräch in Gang zu halten und den Informanten dazu zu bewegen, möglichst
spontan und natürlich über einige Minuten zusammenhängend zu gebärden. Diese
Gespräche dienten in erster Linie dazu, die DGS-Kompetenz und den individuellen
Gebärdenstil der Informanten einzuschätzen. Im Rahmen der Sichtung (s. Kap. 5)
wurden die Gespräche nach DGS-Entsprechungen für Fachbegriffe durchgesehen.
Die Gebärden wurden transkribiert und konnten so mit den elizitierten Gebärden verglichen werden. Schon beim PLex konnten ca. 500 Gebärden ermittelt werden, die DGSEntsprechungen von ca. 150 Fachbegriffen sind (16 %). Beim GLex waren es fast 2200
Gebärden, die über 400 Fachbegriffe abdeckten (40 %) und beim GaLex 1070 Gebärden, die 200 Fachbegriffe abdeckten (28 %). Der Vergleich mit den elizitierten Antworten im GLex ergibt eine Übereinstimmung16 von 38 % der Gebärden aus den freien
Gesprächen mit Antworten des Informanten aus der Elizitation, im GaLex beträgt die
Übereinstimmung 34 %. Berücksichtigt man, dass ein Informant durchschnittlich zwischen 1,5 und 2,8 Antworten gibt (s. Kap. 3), dann ist die Rate der Übereinstimmung
relativ hoch. Die Gebärden aus den Gesprächen standen ebenso wie die Antworten für
die Auswahl zur Verfügung.
16
Wie bei der Auswertung gleicher Antworten verschiedener Informanten (s. 1.2) wurden als gleiche
Antworten alle Gebärden bzw. aneinandergereihte Gebärden gezählt, die dieselbe Zitierform haben,
d.h. die Modifikationen einer Gebärde (s. 6.1.1.4) wurden nicht berücksichtigt.
Datenerhebung
18
Die Dauer dieser Gespräche reduzierte sich im Laufe der Projekte von über zwei Stunden (Plex) auf durchschnittlich ca. 30 min., da es sich herausstellte, dass längere Gespräche nicht ergiebiger hinsichtlich der Ausbeute an gebärdensprachlichen Entsprechungen waren und für die Einschätzung des Gebärdenstils des Informanten einige
zusammenhängende Textpassagen ausreichten.
4.2.3 Elizitierte Antworten
Der dritte, längste und aufwändigste Teil der Erhebung stellte die Elizitation möglichst
spontaner Antworten auf die gezeigten Fachbegriffe dar. Um die Abfrage den Fach- und
DGS-Kenntnissen der Informanten anzupassen, wurde den Informanten einige Monate
vor der Erhebung eine vorläufige Begriffsliste zugeschickt mit der Bitte, diejenigen
Begriffe zu kennzeichnen, die sie nicht kennen oder für die sie keine Gebärde haben
bzw. nicht wissen, wie diese in DGS übersetzt werden könnten. Fachbegriffe, die ein
Informant als unbekannt angekreuzt hatte bzw. für die er keine DGS-Übersetzung wusste, wurden nicht abgefragt. Bei den Erhebungen für die Fachgebärdenlexika Tischler/Schreiner (TLex), Hauswirtschaft (HLex) sowie Gärtnerei und Landschaftsbau
(GaLex) haben wir auf dieses Verfahren verzichtet, da wir davon ausgingen, dass die
Informanten mit der Bearbeitung der Begriffsliste überfordert sein würden. Zum einen
haben die Informanten keine akademische Ausbildung absolviert und daher eine relativ
geringe Schriftkompetenz (s. ➚ 2.4.2), zum anderen werden viele Fachbegriffe, die z.B.
in einem Lehrbuch stehen und für die Ausbildung relevant sind, in der
Alltagskommunikation anders oder überhaupt nicht verwendet.
Bei diesen Erhebungen, wie auch beim GLex, konnten jedoch zusätzlich zu den
Fachbegriffen Abbildungen als Stimuli gezeigt werden, da sich viele Begriffe auf
konkrete Gegenstände bezogen. Beim TLex wurden zu 550 von 900 Begriffen Bilder
gezeigt. Bei diesen Begriffen wurde dem Informanten zuerst die Abbildung gezeigt,
nach einigen Sekunden wurde der Begriff als Untertitel dazu eingeblendet. Die Personen sollten auf die Abbildung möglichst spontan mit einer Gebärde antworten, konnten aber auch abwarten, bis der Begriff eingeblendet wurde. Ebenso konnten sie eine
spontan gezeigte Gebärde korrigieren. Viele Informanten bevorzugten es abzuwarten,
bis Bild und Wort gezeigt wurden, um sicher zu gehen, dass sie den richtigen Begriff
erkannt haben. Als Konsequenz aus dieser Erfahrung wurden beim HLex 340 Bilder
getrennt von den Begriffen gezeigt, um zu testen, ob es einen signifikanten Unterschied
zwischen den Antworten auf die Bilder und den Antworten auf die Fachbegriffe gibt.
Eine Auswertung der Erhebungsmethoden im HLex im Rahmen einer Magisterarbeit
(Popist 2002) ergab, dass die standardisierten Verfahren der Text- und Bildabfrage nicht
dem Bedürfnis der Informanten nach Kommunikation Rechnung trugen und im Nachhinein die Beurteilung einer Antwort oft erschwerten. Die in der Nacherhebung gezielt
Datenerhebung
19
eingesetzte Kommunikation zwischen Informant und Interviewer trug dazu bei, Verständnisschwierigkeiten auszuräumen, dem Interviewten ein positives Feedback zu
geben und die Qualität der Antworten zu sichern. Die starke Ausrichtung Gehörloser
auf die lebendige, direkte Face-to-face-Kommunikation, die genügend Kontextualisierungsmittel bietet für eine sichere Verständigung, spiegelt sich hierin wieder
(s. ➚ 2.4.2). Dem Ergebnis wurde durch eine Veränderung der Vorgehensweise bei der
Elizitation im Folgeprojekt Rechnung getragen (s. u.). Weiterhin stellt Popist fest, dass
die Anzahl der produktiven Gebärden (s. Kap. 6.1.1.2) bei zwei der drei in der Untersuchung berücksichtigten Informanten nicht abhängig von der Art des Stimulus waren,
d.h. sowohl bei der Text- als auch bei der Bildabfrage blieb der Anteil der produktiven
Gebärden konstant bei 9-13 % aller Gebärden. Beim dritten Informanten konnte ein
signifikant höherer Wert der produktiven Gebärden (20 %) bei der Verwendung von
Abbildungen als Stimuli im Unterschied zur Verwendung der Fachbegriffe (5 %)
festgestellt werden.
Beim GLex wurden 190 Bilder und Begriffe gleichzeitig gezeigt. Beim GaLex wurden
zusätzlich zu den einzelnen Begriffen Übersichten gezeigt, und zwar getrennt nach
Bildern und Begriffen. Eine Übersicht enthielt entweder Bilder für inhaltlich zusammengehörige Begriffe oder verschiedene Fachbegriffe. Anschließend wurden die einzelnen Fachbegriffe gezeigt und auf Wunsch die passende Abbildung dazu.
Die Reihenfolge der Begriffe war nach Sachgruppen gegliedert, innerhalb der Sachgruppen alphabetisch. Die Sachgruppe wurde jeweils zuerst gezeigt, um den Informanten eine Orientierung zu geben, welche Fachbegriffe im Folgenden gezeigt werden. Bei
den Erhebungen zum PLex, TLex und HLex wurden die Begriffe bzw. Abbildungen
hintereinander weg gezeigt, beim PLex noch als DIN-A4-große Ausdrucke, ab dem
TLex auf einem Monitor. Mithilfe einer FileMaker-Datenbank konnten die Begriffe und
Abbildungen leicht sortiert sowie die Reihenfolge und das Layout festgelegt werden.
Ebenso wurden die Ergebnisse der Auswertung der Fragebögen zu den Fachbegriffen in
dieser Datenbank mit einbezogen, sodass im SLex und GLex mithilfe der Suchfunktion
individuelle Listen für jeden Informanten erstellt werden konnten. Beim PLex wurden
die ausgedruckten DIN A-4-Seiten für jeden Informanten neu zusammengestellt.
Während der Abfrage konnte der Interviewer auf verschiedene Sichten umstellen, z.B.
um die zum Begriff gehörende Abbildung oder Synonyme zu zeigen. Ebenso war es
möglich, Begriffe zu markieren, die der Informant im ersten Durchlauf verschoben
hatte, um sie am Ende der Erhebung aufzurufen und nochmals zu präsentieren.
Die Aufgabe, möglichst spontan zu dem gezeigten Fachbegriff bzw. der Abbildung eine
Gebärde zu zeigen, wurde von den Informanten sehr unterschiedlich gelöst. Während
einige Informanten recht sicher mit der für sie ungewohnten Situation umgehen konnten
und entweder Gebärden zeigten oder Begriffe ausließen, für die sie keine Gebärden
Datenerhebung
20
wussten, gaben andere Informanten dem Druck der sozialen Erwünschtheit nach und
bemühten sich, möglichst für jeden Begriff eine Gebärden zu zeigen. Die ursprüngliche
Aufgabenstellung, nur die Gebärden zu zeigen, die sie tatsächlich zur Übersetzung des
Fachbegriffs bzw. seines Inhalts in der DGS verwenden bzw. andere Gebärden als Vorschläge oder mögliche Übersetzungen zu kennzeichnen, geriet dabei aus dem Blickfeld.
Im Laufe der Erhebung, z.B. in den Pausengesprächen mit den gehörlosen Projektmitarbeitern, die die Erhebung durchführten, merkten einige Informanten an, dass sie einige von ihnen gezeigten Übersetzungen im Nachhinein als unpassend oder nicht DGStypisch einstufen würden.
Mit dem Ziel, die Erhebungsmethode zu verbessern, wurde von den gehörlosen Mitarbeitern bei drei Informanten des HLex’ eine nicht standardisierte Nacherhebung durchgeführt, bei der die Bedeutung jedes Begriffs vorher besprochen wurde, bevor die
Informantin sich für eine Übersetzung entschied. Dieses größere Kommunikationsangebot war der entscheidende Faktor für eine höhere Quote gültiger Antworten. Als
Konsequenz aus diesen Erfahrungen wurde seit dem SLex die Vorgehensweise geändert: Innerhalb der Sachgruppen wurden die Begriffe nicht mehr alphabetisch sortiert,
sondern in kleine thematische Gruppen von fünf bis sieben Fachbegriffen eingeteilt.
Diese Gruppen wurden in zwei Durchgängen gezeigt. Beim ersten Durchgang sollte der
Informant überlegen, ob er den Begriff kennt und wie er ihn in DGS gebärdet. Er wurde
ermuntert, „laut“ nachzudenken, d.h. er sollte dabei gebärden und konnte nachfragen.
Der Interviewer hatte jedoch nicht die Aufgabe, den Begriff zu erklären. Unbekannte oder
schwierige Begriffe sollten ausgelassen oder konnten auf das Ende der Erhebung
verschoben werden. Beim zweiten Durchgang sollte der Informant, wenn er sich für eine
oder mehrere Gebärden entschieden hatte, diese wiederholen. Der Informant konnte auch
Vorschläge machen, wie der Begriff am besten in DGS übersetzt werden könnte.
Aufgabe des Interviewers war es, auf eine mögliche Überforderung des Informanten zu
reagieren und entsprechend das Abfragetempo an den Informanten und die Situation
anzupassen. Da der Interviewer jedoch auch bei unklaren Antworten, bei verschiedenen
Gebärden im ersten und zweiten Durchlauf oder bei Unsicherheit des Informanten
nachfragen sollte, damit später in der Sichtung die Antwort eindeutig eingeschätzt und
interpretiert werden konnte, war er zum Teil selbst überfordert. Daher wurde seit dem
SLex die Elizitation mit einem zusätzlichen Protokollanten durchgeführt, der selbst
nicht mit der Kamera aufgezeichnet wurde. Der Protokollant sollte sich Notizen zum
Verlauf der Abfrage machen und die Aufgabe des Nachfragens übernehmen, sodass
sich der Interviewer ganz auf den Informanten und die Situation konzentrieren konnte.
Diese Notizen wurden später beim Sichten der Antworten mit berücksichtigt.
Datenerhebung
21
4.3 Dokumentation und Aufbereitung der Daten
Die wichtigste Aufgabe nach der Datenerhebung ist die Dokumentation der Rohdaten.
Dazu gehört einerseits die Datensicherung, andererseits die Beschreibung der Daten und
deren Zustandekommen durch ausreichende Metadaten. Mit der Aufbereitung der Daten
ist hier zunächst nur die technische Aufbereitung gemeint, d.h. die Bereitstellung der
Daten in einem geeigneten Format, in dem sie weiter verarbeitet werden können, nicht
die inhaltliche, die durch Sichtung, Transkription und Annotation geleistet wird.
Zur Datensicherung werden Kopien der Rohdaten gemacht, um gegen einen Verlust der
Daten oder deren Beschädigung abgesichert zu sein. Nach den Empfehlungen der DFG
zur „Sicherung guter wissenschaftlicher Praxis“ (Deutsche Forschungsgemeinschaft
1998) sollen „Primärdaten17 als Grundlagen für Veröffentlichungen […] auf haltbaren
und gesicherten Trägern in der Institution, wo sie entstanden sind, für zehn Jahre
aufbewahrt werden“ (Empfehlung 7: Datenhaltung, S. 7). Neben der Datensicherung
sollte jedoch auch für die Nachhaltigkeit der Daten gesorgt werden (vgl. Dipper et al.
2006).
Das Anfertigen von Arbeitskopien ist auch erforderlich, um mehreren Mitarbeitern die
Daten zur weiteren Bearbeitung zur Verfügung zu stellen, oder, falls kein zentraler Datenbankserver zur Verfügung steht, parallel und dezentral zu arbeiten. Liegen die Rohdaten bereits digital vor, so müssen diese in ein computerlesbares Format umformatiert
und komprimiert werden. Der Vorteil digital gespeicherter Rohdaten liegt darin, dass es
beim Kopieren zu keinem Qualitätsverlust kommt. Die Rohdaten können dazu verwendet werden, zu einem späteren Zeitpunkt mit verbesserter Sortware hochwertigere
Arbeitskopien zu erstellen.
Von den VHS-Kassetten aus den ersten beiden Projekten wurden Arbeitskopien erstellt,
die Originale dienten nur dazu, eine Kopie herzustellen. Um die Nachhaltigkeit der
Daten zu gewährleisten, sind mittlerweile alle VHS-Kassetten auch als digitale Videofilme auf einem zentralen Datenbankserver archiviert. Die DV-Kassetten, die seit dem
HLex verwendet wurden, wurden auf den Rechner überspielt, die Daten umformatiert,
in der Größe 320x240 dpi als QuickTime-Filme komprimiert und auf einem Server
gespeichert, auf den die zentrale Datenbank zugreift. Zusätzlich wurden, für den Fall,
dass der Server ausfallen sollte, DVD-ROMs erstellt. Weiterhin wurden zusätzliche
Kopien in der Größe 640x480 dpi erstellt, um z.B. das Ablesewort leichter abzulesen zu
können. Auf dieses größere Format musste jedoch nur sehr selten zurückgegriffen
werden. Seit dem SLex wurden die Aufnahmen direkt auf dem Rechner gespeichert.
Zur Sicherheit und um ein Master zu haben, das eventuell später unter Verwendung
neuester Technik besser komprimiert werden kann, wurden die Aufnahmen zusätzlich
auf DV-Kassetten aufgezeichnet. Da beim GaLex auch zwei Informanten gleichzeitig
17
In der in dieser Arbeit verwendeten Terminologie sind damit die Rohdaten gemeint (vgl. ➚ 3.3).
Datenerhebung
22
aufgenommen wurden, musste die Bildgröße dieser digitalen Videofilme auf 480 x
270 dpi erweitert werden.
Die standardisierten Interviews wurden mit den Fragebögen verglichen, die uns die
Informanten zugeschickt hatten und ergänzt oder korrigiert. Die Informationen wurden
in einer separaten Datenbank festgehalten. Inzwischen sind diese Metadaten zum sozialen und sprachlichen Hintergrund der Informanten, gemäß IMDI-Standard (s. IMDI
2003, Crasborn/Hanke 2003), aus allen Lexikonprojekten auch als Metadaten zu den
Informanten in der zentralen Datenbank iLex (s. ➚ 3.8.4) abrufbar. Informationen zum
Ablauf der Erhebung liegen in Form von Abschlussgesprächen mit den Informanten
sowie als kurze schriftliche Gedächtnisprotokolle, die die Interviewer nach Abschluss
der Erhebung anfertigten, vor. Zum Elizitationsteil gibt es weiterhin seit dem SLex
Notizen, die der Protokollant während der Erhebung anfertigte und die bei der Sichtung
mit berücksichtigt wurden.
Segmentierung und Sichtung
5
23
Segmentierung und Sichtung
An die Dokumentation und technische Aufbereitung der Daten schließen sich zwei
Bearbeitungsschritte an, die unterschiedlichen Zielen dienen. Das Ziel der Segmentierung ist die inhaltliche Erschließung der Rohdaten. Dadurch wird ein gezielter Zugriff
auf inhaltlich relevante Stellen ermöglicht. Mittelberg (2007:231), die allgemeine
methodologische Überlegungen und praktische Konsequenzen im Umgang mit empirischen multimodalen Daten beschreibt, nennt diesen Schritt „data screening“:
For purposes of documentation, it is useful to keep a tape content log with information about what each tape contains and other aspects one deems important. Such a
log differs from a transcript in that its primary function is to provide a table of
contents for each tape, indicating where (using time stamps) specific episodes can be
found and whether/why they are of interest.
Man kann diesen Bearbeitungsschritt insofern als Teil der Dokumentation sehen, als er
nicht nur eine Vorarbeit für die eigene weitere Bearbeitung darstellt, sondern auch
langfristig für andere Forscher einen schnellen inhaltlichen Überblick über das erhobene
Material bietet. Im Unterschied zur anschließenden Sichtung findet noch keine Wertung
i. S. v. „geeignet“ oder „ungeeignet“ für die Untersuchungsziele statt. Der Ausdruck
‚screening‘ beinhaltet jedoch in der Regel eine Bewertung i. S. v. „aussortieren“,
„filtern“, „sieben“. Insofern halte ich den Ausdruck ‚Segmentierung‘ für passender, da
das erhobene Material durch die Aufteilung in einzelne Videofilme oder durch
Annotation in inhaltliche Abschnitte gegliedert wird.
Das Ziel der Sichtung ist es, die Menge der Rohdaten zu reduzieren auf diejenigen
Sequenzen, die transkribiert bzw. genauer analysiert werden sollen. Dies geschieht
durch eine Bewertung im o.g. Sinne. Mittelberg (2007:231) spricht von „assessing“ im
Unterschied zum „screening“ und meint die gezielte Auswahl der für das Untersuchungsziel geeigneten Filmsequenzen.
Durch die Sichtung wird das Korpus im engeren Sinne bestimmt als die Menge der aus
den Rohdaten ausgewählten Sequenzen, die weiter transkribiert und analysiert werden.
Da es sich bei den vorstrukturierten Gesprächen und den elizitierten Antworten um zwei
unterschiedliche Erhebungsarten handelt, die zu verschiedenen Textsorten führen,
wurden diese Bearbeitungsschritte jeweils unterschiedlich ausgeführt.
5.1
Vorstrukturierte Gespräche
Zu den vorstrukturierten Gesprächen wurde eine Makrostruktur erstellt, d.h. der Inhalt
der Gespräche wurde in Stichworten wiedergegeben oder zusammengefasst. Ziel dieser
inhaltlichen Wiedergabe der Gespräche ist zum einen, dass man sich schnell einen
Überblick verschaffen kann, worum es in diesen Gesprächen geht. Dazu können diese
Segmentierung und Sichtung
24
Beschreibungen entweder vollständig durchgelesen oder selektiv nach bestimmten
Stichworten durchsucht werden. Zum anderen geben diese Verschriftlichungen Anhaltspunkte für Textstellen, in denen es um fachspezifische Inhalte geht. Diese Stellen sind
besonders interessant für die Suche nach DGS-Entsprechungen von Fachbegriffen.
Beim PLex wurden die Gespräche von Dolmetschern vollständig ins Deutsche übersetzt18, verschriftlicht und mithilfe von syncWRITER (Hanke 2001) mit den entsprechenden Videosequenzen verbunden. Diese Übersetzungen wurden von den gehörlosen
Mitarbeitern auf mögliche DGS-Entsprechungen von Fachbegriffen durchgesehen. Die
deutschen Texte waren für diesen Bearbeitungsschritt jedoch nicht zuverlässig genug,
sodass die Gehörlosen dazu übergingen, die Filme vollständig durchzusehen. In den folgenden Projekten wurde der Inhalt der Gespräche in Form einer Makrostruktur
außerhalb der Datenbank erfasst. Dazu wurden die Äußerungen der Informanten in
einem relativ groben Zeitraster von ein bis zwei Minuten zusammengefasst oder stichwortartig wiedergegeben. Die Fragen des Interviewers wurden möglichst vollständig
wiedergegeben, d.h. ins Deutsche übersetzt. Diese Angaben wurden von den gehörlosen
Projektmitarbeitern erstellt und von hörenden Mitarbeitern überarbeitet. Durch die
Weiterentwicklung der Datenbank und die Einführung von Transkripten (s. ➚ 3.8.4)
wurden diese Angaben ab dem GLex direkt in der Datenbank vorgenommen.
Die Übersetzung bzw. die Makrostruktur gaben einen ersten Anhaltspunkt für Textstellen, in den DGS-Entsprechungen der gesuchten Fachbegriffe vorkamen. Die Sichtung bestand darin, die Gespräche auf diese Stellen hin durchzusehen und die dazugehörigen Fachbegriffe zu annotieren. Dadurch war ein gezielter Zugriff auf diese Sequenzen möglich. Die Transkripte wurden um mehrere Spuren für Fachbegriff, Glosse,
Ablesewort etc. erweitert, die Fundstellen wurden transkribiert. Im PLex wurden die
Fachbegriffe mithilfe von syncWriter annotiert und (zeit-)aligniert. Die Gebärdensequenzen wurden jedoch noch nicht transkribiert, sondern nur bei Bedarf zur Absicherung der Auswahl der Gebärden herangezogen. In den drei darauffolgenden Projekten
(TLex, HLex, SLex) wurde aus Zeitgründen und wegen unterschiedlicher Schwerpunktsetzung in der Bearbeitung – beim TLex stand die Transkription der elizitierten Antworten im Vordergrund, beim HLex methodische Fragen der Datenerhebung (s. Kap. 4.2.3),
beim SLex die Übersetzungen der Begriffserklärungen in die DGS – keine Sichtung der
Gespräche vorgenommen. Sie dienten zum einen zur Sichtung der Informanten, da aus
Zeitgründen nicht die elizitierten Antworten aller Informanten transkribiert werden
konnten (s. Kap. 5.2), zum anderen zur stilistischen bzw. dialektalen Einordnung der
von einem Informanten gezeigten Gebärden.
18
Es handelt sich hierbei, ähnlich wie bei Heßmann (2001a:23-25), um auf ein Diktiergerät gesprochene
Live-Übersetzungen, d.h. Verdolmetschungen, die nicht in einem zweiten Durchgang redigiert wurden.
Segmentierung und Sichtung
5.2
25
Elizitierte Antworten
Durch die Methode der Elizitation war der Inhalt der Äußerung der Informanten schon
vorgegeben. In der Regel bestand die Antwort in einer isolierten Gebärde oder Gebärdenfolge als DGS-Entsprechung oder -Übersetzung des Fachbegriffs. Der Äußerungskontext war durch den Stimulus bestimmt. Erst seit dem geänderten Verfahren im SLex,
in dem die Abfrage in zwei Phasen, einen Diskussions- und einen Wiederholungsteil,
vorgenommen wurde, kam es auch zu längeren Äußerungssequenzen, in denen gleiche,
ähnliche oder verschiedene DGS-Entsprechungen des Fachbegriffs vorkamen und
diskutiert wurden. Die Segmentierung bestand darin, sämtliche Entsprechungen zu
„schneiden“, d.h. zu der Sequenz den jeweiligen Fachbegriff zu annotieren.
Im PLex wurde diese Aufgabe noch durch die Erstellung eines Schnittbands erledigt,
d.h. mithilfe eines Videoschnitts wurden sämtliche Antworten der Informanten zum
jeweiligen Fachbegriff, der als Titel eingeblendet wurde, geschnitten. Eine Sichtung
wurde nicht vorgenommen. Für die Auswahl geeigneter Übersetzungen wurden alle
Antworten berücksichtigt. Dies war bei der geringen Anzahl der Informanten (5) und
einer maximalen Anzahl von 22 Antworten für einen Begriff auch noch zu bewerkstelligen. Durch die fehlende Transkription vor der Auswahl war ein Vergleich der
Antworten auf der Grundlage der Glossierung nicht möglich.
Beim TLex verdreifachte sich die Zahl der Informanten (insgesamt 16), die Länge der
Aufnahmen für die Abfrage der Fachbegriffe erhöhte sich auf das 4,5-Fache. Zur Unterstützung der Transkription gab es zwar schon eine Datenbank (GlossLexer 1;
s. ➚ 3.8.4), die Filme waren jedoch noch nicht digitalisiert und mit dieser Datenbank
verknüpft. Der Zugriff auf die Rohdaten war, im Unterschied zum HLex, nur über das
Ansteuern des Timecodes mit einem Videorekorder möglich. Um in der zur Verfügung
stehenden Zeit die Transkription bewältigen zu können, wurde eine Sichtung der
Informanten vorgenommen auf der Grundlage der vorstrukturierten Gespräche. Diese
wurden dahingehend ausgewertet, ob die Person spontan und natürlich gebärdet, häufig
oder selten Ablesewörter oder Mundgestik verwendet, wie sie den Gebärdenraum nutzt,
wie sie den Körper beim Gebärden einsetzt und ob DGS-Entsprechungen für
Fachbegriffe darin vorkommen. Anhand dieser Auswertung wurde eine Prioritätenliste
erstellt. Die Antworten von zehn der 16 Informanten wurden transkribiert. Zuvor wurde
eine Segmentierung vorgenommen, indem zu jeder Sequenz, die als Antwort auf einen
Stimulus gewertet wurde, sowohl der Stimulus- als auch der Antwort-Begriff annotiert
wurden. Die Unterscheidung in Stimulus- und Antwortbegriff war wichtig, da in einigen
Fällen die gezeigten Gebärden zu einem anderen als dem Stimulus-Begriff passten. Für
die Auswahl konnten so alle passenden Antworten zu einem Begriff aufgelistet werden.
Um das Vorgehen effektiver zu machen, wurden beim HLex nicht nur die Informanten
in der beschriebenen Weise gesichtet, sondern auch die einzelnen Antworten. Die
Segmentierung und Sichtung
26
gehörlosen Mitarbeiter bewerteten die Angemessenheit der Antwort und annotierten
dies entsprechend in der Datenbank als „ok“ oder „schief“. Fälle, in denen eine „Beurteilung unsicher“ war, wurden gemeinsam besprochen und entweder als angemessen
oder unangemessen entschieden. Zusätzlich wurde notiert, wenn der Informant bei
seiner Antwort unsicher war. Unangemessene Antworten (850 von insgesamt 12500)
wurden nicht transkribiert.
Abb. 3: Auswahl der Angemessenheit der Antwort
Beim SLex wurde die Sichtung um zwei Kriterien erweitert: Zum einen sollte genauer
dokumentiert werden, wie der Informant selbst seine Antwort hinsichtlich der Angemessenheit bewertet bzw. einschätzt (Selbsteinschätzung), zum anderen wurde diese
Einschätzung ergänzt durch die Bewertung des Transkribenten (Fremdeinschätzung).
Die Werte für die Selbsteinschätzung waren: o.k., Vorschlag, selten/nie verwendet, nicht
zufrieden. Sie wurden in den nachfolgenden Projekten überarbeitet und erweitert zu
folgender Werteliste:
 Korrektur,
 unbekannt,
 nicht zufrieden,
 unbekannt (Bedeutung),
 nie verwendet,
 unbekannt (Gebärde),
 selten verwendet,
 verschoben (später),
 später korrigiert,
 Vorschlag,
 später Teilkorrektur,
 Vorschlag, nicht zufrieden.
 Teilkorrektur,
Die Werte für die Fremdeinschätzung waren: o.k., durch Erhebungssituation beeinflusst, Vorschlag. Diese Angaben wurden ebenso überarbeitet und ergänzt, sodass der
Transkribent bei der Sichtung der Filme für das GaLex folgende Werte auswählen
konnte:
 nicht DGS-typisch,
 Umschreibung (Inhalt),
 situativ bedingte Antwort,
 Vorschlag.
Segmentierung und Sichtung
27
Die Angaben zur Selbsteinschätzung sollten immer anhand der Rohdaten belegbar, d.h.
auf dem Video sichtbar sein. Ausnahmen sind Angaben, die vom Protokollanten
während der Erhebung gemacht und bei der Sichtung in die Datenbank übertragen wurden. Im Unterschied dazu konnten Angaben zur Fremdeinschätzung auch auf Verdacht
hin eingetragen werden. Angaben zur Selbst- und Fremdeinschätzung hatten keine Auswirkungen auf die Frage, ob die Antwort transkribiert werden sollte oder nicht, dazu
war allein die Angabe zur Angemessenheit entscheidend. Sie dienten jedoch dazu,
einige Antworten von der Rohtranskription auszuschließen und erst anschließend vor
dem Hintergrund der bereits transkribierten Antworten der ausgewählten Informanten
erneut zu sichten und entweder auszuschließen oder zu transkribieren. Weiterhin waren
diese Angaben wichtig für die Auswahl der Gebärden (s. Kap. 7).
Im GLex-Projekt wurden die Kriterien der Angemessenheit entsprechend ihrer Funktion
umbenannt in Ausschluss-Kriterien, da Antworten, die mit einem dieser Kriterien
annotiert wurden, nicht für die Transkription vorgesehen waren. Für die Sichtung der
elizitierten Antworten im Projekt Fachgebärdenlexikon Gärtnerei und Landschaftsbau
(GaLex; Konrad et al. 2010) wurden diese Kriterien noch erweitert, da zwei Informanten gleichzeitig interviewt wurden. Die Ausschlussgründe sind:
 abgebrochen,
 übernimmt/zitiert Gebärde des
 Beurteilung unsicher,
Gegenübers,
 schief,
 Vergebärdler,
 später korrigiert,
 Wiederholung.
 Teilantwort,
Durch die Segmentierung, d.h. die Zuordnung einer Filmsequenz zu einem Fachbegriff,
konnte jedoch per Mausklick jederzeit auf das Rohdatum zugegriffen werden, um z.B.
transkribierte und nichttranskribierte Antworten eines oder verschiedener Informanten
zu vergleichen.
Gleichzeitig wurde durch die geänderte Erhebungsmethode die Segmentierung verfeinert. Die Transkripte wurden in verschiedene Segmente eingeteilt, die den Erhebungskategorien entsprachen. Die verschiedenen Abschnitte der Erhebung wurden im
Transkript annotiert als „Diskussion“, „Wiederholung“, „Nachtrag“ und „Korrektur“.
Um einen direkten Zugriff auf die gesamte Sequenz zu haben, in der ein Informant sich
zu einem gezeigten Stimulus äußert, wurden die Abschnitte weiter in „Thema“-Einheiten unterteilt, die mit dem jeweiligen Fachbegriff annotiert wurden. Innerhalb eines
Themas wurden sämtliche Sequenzen annotiert, die sich sinnvoll auf den gezeigten
Stimulus oder einen anderen Fachbegriff beziehen lassen. Im Idealfall handelt es sich
um eine direkte DGS-Entsprechung, es wurden jedoch auch Umschreibungen sowie
Gebärden geschnitten, die sich nur auf Teile des Fachbegriffs beziehen. Diese wurden
mit dem Ausschlusskriterium „Teilantwort“ annotiert.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
6
28
Transkription, Lemmatisierung und Aufbau einer
lexikalischen Datenbank
Nach Abschluss der Segmentierung sind sämtliche elizitierten Antworten mit dem
entsprechenden Fachbegriff annotiert und können per Mausklick direkt aufgerufen werden. Durch die Sichtung wird die Zahl der zu transkribierenden Antworten eingegrenzt
auf diejenigen, die keinen Ausschlussgrund haben (s.o.). Diese Antworten machen den
größten Teil des Korpus aus. Hinzu kommen noch die Textstellen aus den vorstrukturierten Gesprächen, die als Übersetzungen eines Fachbegriffs identifiziert und mit diesem annotiert wurden. Diese Sequenzen wurden in den beiden letzten Projekten ebenfalls
transkribiert (s. Kap. 3, Tab. 2: DGS-Entsprechungen in vorstrukturierten Gesprächen).
Nach Abschluss der Sichtung ist die Größe des Korpus definiert. Durch die anschließende Transkription werden erst die maschinenlesbaren Primärdaten erstellt, die zusammen
mit den Roh- und Metadaten das linguistische Korpus ausmachen (s. ➚ 3.3). Diese
Primärdaten sind die Grundlage jeder korpuslinguistischen Analyse. Die Transkription
selbst jedoch beinhaltet bereits eine Analyse, da sie immer theoriegeleitet ist
(s. ➚ 3.7.1.2). Wie bei Lautsprachkorpora dient die Verschriftlichung dazu, die
lexikalischen Einheiten der Äußerungen zu bestimmen. Bei einer orthographischen
Transkription kann über die Wortformen das dazugehörige Lexem bestimmt werden. Da
es keine Gebärdenschrift gibt, werden die lexikalischen Einheiten in Gebärdensprachen
meistens mithilfe von Glossen identifiziert. Sind die Token mithilfe von Glossen
eindeutig einem Type zugeordnet, dann ist damit sowohl die Tokenisierung als auch die
Lemmatisierung abgeschlossen. Selbstverständlich müssen auch alle weiteren
Gebärden, die nicht lexikalischen Gebärden zugeordnet werden können, konsistent
klassifiziert werden.
Dieses Vorgehen geht von der Annahme aus, dass es in Gebärdensprachen lexikalische
Einheiten, vergleichbar den Wörtern einer Lautsprache, gibt. Sind diese Einheiten, wie
es bei der DGS der Fall ist, noch nicht umfassend in einem Gebärdenwörterbuch beschrieben, muss parallel zur Transkription eine lexikalische Datenbank aufgebaut werden, die sowohl die Lexeme als auch alle anderen nichtlexikalischen Einheiten enthält,
die in einer gebärdensprachlichen Äußerung vorkommen. Das Ziel ist eine vollständige
Beschreibung der Äußerung, die eine quantitative Auswertung sowie einen selektiven
Zugriff auf alle Token eines Types bzw. einer anderen sprachlichen Einheit ermöglicht.
Während der Transkription wird vom Token ausgehend der passende Type gesucht. Das
Token wird bei der Glossentranskription durch die Vergabe einer eindeutigen Glosse
diesem Type zugeordnet. Diese Token-Type-Zuordnung wird deshalb Rohtranskription
genannt, da die Transkription dadurch noch nicht abgeschlossen ist. Erst durch die Umkehrung der Blickrichtung, nicht vom einzelnen Token innerhalb eines Transkripts zum
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
29
Type, sondern vom Type zu den Token, ist es möglich, die Lemmatisierung zu überprüfen, indem alle Token miteinander verglichen werden können hinsichtlich Form,
Bedeutung und Verwendung im Kontext. Diese Überprüfung, für die ich im Rahmen
dieser Arbeit die Bezeichnung ‚Lemmarevision‘ (s. Kap. 6.3) einführe und zu der auch
die Überprüfung der Umgebung eines Lemmas gehört, ist ein wichtiger Arbeitsschritt,
der zur Konsolidierung der Datenbankeinträge sowie der Transkriptionskonventionen
führt, in der Literatur jedoch m.W. nicht erwähnt wird. Erst nach Abschluss der
Lemmarevision können die Transkripte quantitativ und qualitativ ausgewertet und in
weiteren Bearbeitungsschritten morphologisch, syntaktisch oder semantisch annotiert
werden.
Im Folgenden werden die Rohtranskription, der Aufbau der lexikalischen Datenbank
sowie die Lemmarevision näher beschrieben. Insbesondere im Zusammenhang mit den
Transkriptionskonventionen wird an verschiedenen Stellen deutlich, dass es für eine
lexikologische und lexikographische Beschreibung von Gebärdensprachen nicht ausreicht, die strukturalistische Definition des sprachlichen Zeichens als eine konventionalisierte Form-Bedeutungs-Einheit auf die Gebärden zu übertragen. Die allgegenwärtige ikonische oder metaphorische Motiviertheit von Gebärden sowie der Gebrauch von
Ablesewörtern führen zu strukturellen Besonderheiten des gebärdensprachlichen Lexikons, die in der Modellierung angemessen berücksichtigt werden müssen. Diese Aspekte sowie die von uns entwickelten Lösungswege werden in Konrad (in Vorb., Kap. ➚ 4)
eingehend beschrieben, weshalb im Folgenden lediglich die Probleme benannt und mit
einem Verweis auf das entsprechende Kapitel versehen werden.
6.1
Rohtranskription und Lemmatisierung: vom Token zum Type
Im Prinzip gilt für jede Transkription, dass die Form nur so genau notiert werden muss,
dass die Gebärde eindeutig identifiziert werden kann. Bei der Glossentranskription wird
ein Token als Realisierung eines Types mithilfe der Glosse eindeutig gekennzeichnet.
Beim Type, einem Eintrag in der lexikalischen Datenbank, ist die Grundform der Gebärde festgehalten. Die genaue Beschreibung der Form des Tokens ist für die Lemmatisierung im Prinzip nicht erforderlich. Über die alignierten Glossen können die Textstellen im Videofilm gezielt ausgewählt und weiter annotiert werden. Johnston/de
Beuzeville (2008:9) weisen auf den Zeitvorteil dieses Verfahrens hin. In wesentlich
kürzerer Zeit können dadurch größere Korpora zur Verfügung gestellt werden als bei
einer vollständigen Notation jedes Tokens.
Thus, despite what many signed language researchers continue to believe, a full
written phonetic or phonological transcription of signed texts is no longer essential
in order to conduct corpus-based research at various levels of linguistic analysis,
even the phonological. Time aligned multi-media gloss-based annotations are
adequate for this task because one need not transcribe all signs in their entirety – one
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
30
could append a relevant phonetic or phonological tag for a feature under
investigation. Of course, the use of a dedicated transcription tier(s) within ELAN
would be necessary in order to carry out detailed phonetic or phonological research.
Overall, however, there is little doubt that the use of time gloss-based aligned
annotations is superior to transcription-based annotation in terms of the time it takes
for a sizable amount of text to be make [sic] available for processing.
Wenn parallel zur Transkription bzw. Lemmatisierung eine lexikalische Datenbank aufgebaut werden muss, dann ist es sinnvoll, eine zusätzliche Angabe zur Form des Tokens
zu machen, sobald diese von der Grundform abweicht. Diese Formabweichungen dienen bei der Überprüfung der Token-Type-Zuordnung im Zuge der Lemmarevision dazu,
die Token zu sortieren und erleichtern eine mögliche Differenzierung in Varianten,
Modifikationen oder idiosynkratische Ausführungen. Wie genau diese Formabweichungen notiert werden, sollte in den Transkriptionskonventionen festgelegt sein. Sinnvoll
ist es, nur die für eine eventuelle Differenzierung relevanten Formunterschiede zu
notieren, d.h. dass alle Merkmale, die helfen, eine Gebärde von einer anderen zu unterscheiden, wichtig sind und notiert werden sollten. Zum Beispiel ist es bei der Gebärde
FLACH1A () nicht relevant, ob der Daumen leicht abgespreizt oder angelegt oder wie bei der B-Handform über der Handinnenfläche eingeknickt ist. Diese
Varianz ist im Zusammenhang mit dieser Gebärde normal, da die Stellung des Daumens
unmarkiert ist, d.h. dass auch bei der Notation der Grundform der Daumen nicht notiert
werden muss. Folgende Abbildung zeigt die bezüglich der Stellung des Daumens und
der Krümmung der Finger unmarkierten Handformen der Flachhand, der abgewinkelten
Flachhand und der gebogenen Flachhand.
Abb. 4: Unmarkierte Ausprägungen der Flachhand und ihrer abgeleiteten Handformen
Bei der Gebärde TRINKEN2 () wäre eine Ausführung ohne abgespreizten Daumen
markiert, die Abweichung müsste notiert werden. Der abgespreizte Daumen gehört zur Grundform der Gebärde TRINKEN2 und ist ikonisch motiviert („Strahl bzw. Bewegungsverlauf der
Flüssigkeit“). Bei der Notation der Grundform muss die Stellung des Daumens notiert werden,
da der Daumen Teil des der Form zugrunde liegenden Bildes ist. Ohne den abgespreizten Daumen ist das Bild nicht mehr erkennbar. Solch stark abweichende Ausführungen, die das Bild der
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
31
Gebärde nicht mehr erkennen lassen, sind äußerst selten. Nach Cuxac (2000:140-141) kommen
solche Fälle nicht vor, da sie dem Prinzip der Beibehaltung der Ikonizität widersprechen
(s. ➚ 4.3.3.2). In diesen Fällen ist die Abweichung ein Hinweis auf eine falsch vorgenommene
Token-Type-Zuordnung. Im Kontext ist zu prüfen, ob es sich um die Bedeutung „trinken“ handelt oder ob die Gebärde lediglich visualisiert, dass ein Gegenstand festgehalten und wie beim
Trinken aus einem Becher vor dem Mund gekippt wird, und es sich um eine produktive
Gebärde handelt (s. Kap. 6.1.1.2).
Bei der Rohtranskription müssen neben den lexikalischen Gebärden weiterhin alle
produktiven Gebärden sowie sonstige gebärdensprachliche Phänomene wie z.B. indexikalische Gebärden, Zahlgebärden oder der Einsatz des Fingeralphabets (s. Kap. 6.1.1.3)
anhand festgelegter Transkriptionskonventionen identifiziert und konsistent glossiert
werden. Ebenso wie bei der orthographischen Transkription gesprochener Sprache muss
der Transkribent die Äußerung segmentieren und lemmatisieren. Bei der orthographischen Transkription notiert er die Wortform, die einen impliziten Hinweis auf das
dazugehörige Lemma enthält. Das Lemma wird im Zuge einer anschließenden Lemmatisierung zusätzlich zur Wortform annotiert. Bei der Glossentranskription ist die Reihenfolge der Bearbeitung umgekehrt, da zunächst durch die Glosse das Lemma notiert
wird. Anschließend werden nur markierte Formabweichungen beim Token notiert. Dies
ist zeitsparender als die vollständige Notation der Form jedes Tokens und erleichtert
später die Überprüfung der Einträge in der lexikalischen Datenbank, indem die Token
nach diesen Abweichungen sortiert werden können. Der Nachteil dieses Vorgehens ist,
dass die Formangabe im Token immer relativ zur Type-Form vorgenommen wird.
Änderungen der Grundform einer Gebärde müssen für alle Token nachvollzogen
werden. Bei einer vollständigen Notation der Token-Form wäre dies nicht notwendig.
6.1.1 Transkriptionskonventionen
So notwendig und vorteilhaft einerseits die Entwicklung eines universalen Notationssystems für Gebärdensprache wäre, so verschieden sind die in der Gebärdensprachforschung eingesetzten Notationen und Konventionen. Darauf hat Miller (2001:25) in
seinem Beitrag zum Intersign-Workshop 1998 in Leiden hingewiesen, der in seiner
ursprünglichen Fassung noch die Überschrift trug: „Notationists of the world, unite!“19.
Mit den Bemühungen, Gebärdensprachkorpora zu erstellen und zugänglich zu machen,
geht notwendiger- und sinnvollerweise auch die Dokumentation und Bereitstellung von
Transkriptionskonventionen einher, denn ohne die Kodierungskonventionen und die
Kriterien, die den Klassifizierungen zugrunde liegen, sind die Primärdaten, d.h. die
Transkripte, nicht verwertbar. Das Offenlegen und Zugänglich-Machen der Transkriptionskonventionen fördert weiterhin den Austausch und die Diskussion über Annota19
URL: http://www.sign-lang.uni-hamburg.de/Intersign/Workshop2/Miller/Miller.html.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
32
tionskonventionen. Der am Ende dieses Kapitels gegebene Überblick über einige, zum
größten Teil online zugängliche Transkriptionskonventionen (s. Kap. 6.1.1.6) zeigt
einerseits, dass gebärdensprachliche Phänomene häufig ähnlich klassifiziert werden,
dass jedoch andererseits deren Kodierung sehr verschieden ausfällt.
Die Erfahrungen aus dem InterSign-Projekt haben gezeigt, dass die Gebärdensprachlinguistik, speziell der korpuslinguistische Forschungsansatz, noch nicht weit genug
entwickelt ist, um einheitliche, standardisierte Transkriptionskonventionen durchzusetzen bzw. Formate zu entwickeln, die die in den jeweiligen Projekten verwendeten
Kodierungskonventionen automatisiert und zuverlässig umwandeln in die jeweils eigenen Kodierungen. Dies ist nach wie vor wünschenswert, da dadurch die Vergleichbarkeit von Gebärdensprachdaten erheblich erleichtert werden würde. Um Transkripte
gebärdensprachlicher Texte interpretieren und auswerten zu können, müssen jedoch
zwei Voraussetzungen erfüllt sein:
• Es muss immer ein unmittelbarer Zugriff auf die Rohdaten möglich sein, d.h. die
Annotationen müssen aligniert sein.
• Die Transkripte müssen lemmatisiert sein, d.h. die darin verwendeten Glossierungen für Lexeme müssen konsistent vorgenommen worden sein. Dies gelingt nur,
wenn die Glossen auf der Grundlage eines Gebärdenwörterbuchs, das als Standardreferenz für die jeweilige Gebärdensprache gilt, ausgewählt wurden, oder wenn
parallel zur Transkription eine lexikalische Datenbank aufgebaut wurde, die alle
Lexeme enthält, die in den Transkripten des Projekts verwendet wurden. Weiterhin
sollten alle anderen gebärdensprachlichen Phänomene nach einheitlichen Kriterien
in derselben Weise konsistent beschrieben und klassifiziert werden.
Abgesehen von den Metadaten, die für eine Vergleichbarkeit von Daten vorhanden sein
müssen, ist die Lemmatisierung nach Johnston (2008a:86) der erste und entscheidende
Schritt, um überhaupt von einem Korpus sprechen zu können:
No claim is being made here that the specific glossing conventions used in the
Auslan Corpus should form the basis of a standard for all signed language corpora.
Though consistency across signed language corpora in annotation protocols would
facilitate cross linguistic comparisons and thus be extremely desirable, the most
important considerations in the first instance are the principles of lemmatisation and
consistent treatment (glossing) of various sign types.
Transkriptionskonventionen (oder Annotationsrichtlinien, engl. annotation guidelines)
sind entscheidend für die Qualität der Transkription, da grundsätzlich alle Gebärdenformen nach den gleichen Regeln lemmatisiert und annotiert werden sollen. Änderungen in den Transkriptionskonventionen müssen daher immer bei allen Token nachvollzogen werden. Aufgrund ihrer Bedeutung sollten Transkriptionskonventionen für alle
Transkribenten explizit gemacht und zumindest als internes Arbeitspapier20 schriftlich
20
Vgl. z.B. Ebbinghaus/Heßmann (1994b), an denen wir uns ebenso wie an Johnston/Schembri (1996,
1998), zwei damals noch vorläufigen Fassungen von Johnston/Schembri (1999), orientiert haben.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
33
dokumentiert werden. Dies hat den Vorteil, dass Änderungen, die sich in der Transkriptionspraxis nahezu zwangsläufig ergeben, anhand der vereinbarten Konventionen nachvollzogen und systematisch korrigiert werden können. Es ist ebenfalls ratsam, Änderungen in den Konventionen, die sich mit fortschreitender Technik, z.B. durch die Umstellung oder Erweiterung des Transkriptionswerkzeugs und die weitere Verarbeitung und
Analyse der Daten ergeben, zu dokumentieren.21
Mit dem Fachgebärdenlexikon Tischler/Schreiner (TLex, 1996-1998) wurde begonnen,
die elizitierten Antworten im Sinne einer Lemmatisierung zu transkribieren und, da kein
umfassendes DGS-Wörterbuch zur Verfügung stand, eine lexikalische Datenbank aufzubauen. Die wichtigste vortheoretische Annahme, die seit dieser Zeit der Transkription
zugrunde liegt, ist die Unterscheidung in konventionelle Gebärden, sogenannte produktive Gebärden und eine Restgruppe, die sich aus sonstigen Zeichen und Zeichensystemen zusammensetzt, die in der DGS eingesetzt werden. Diese Annahme ist ebenso vortheoretisch wie die Annahme, dass die konventionellen Gebärden als die „Wörter“ der
jeweiligen Gebärdensprache angesehen werden können (s. ➚ 2.3). Johnston/Schembri
(2010:26-28) führen zwei Besonderheiten von Gebärdensprachen an, die die gängige
Unterscheidung zwischen lexikalischen und nichtlexikalischen22 Gebärden einerseits
notwendig, andererseits problematisch erscheinen lassen:
 Die sublexikalischen Einheiten – die bekannten, seit Stokoe in der Gebärdensprachforschung etablierten Formparameter Handform, Handstellung, Ausführungsstelle und Bewegung – können selbst wieder Bedeutung tragen, d.h. sie
bilden ikonisch motivierte oder konventionalisierte Form-Bedeutungs-Einheiten.
 Es handelt sich weniger um eine kategorielle, als vielmehr um eine graduelle
Unterscheidung zwischen lexikalischen und nichtlexikalischen Gebärden.
Anstelle einer Entweder-oder-Entscheidung halten die Autoren es für sinnvoller, die
Beschreibung gebärdenspachlicher Einheiten entlang zweier Kontinua mit den Polen
atomar – komplex und konkrtet (substantiell) – schematisch vorzunehmen. Einen theoretischen Beschreibungsansatz sowie eine angemessene Terminologie dazu liefert die
construction grammar (s. Croft 2001, Goldberg 2006). Eine Weiterentwicklung dieses
Ansatzes, vollständig und teillexikalisierte Gebärden als Konstruktionen anzusehen,
findet man in Johnston/Ferrara (2010).
Die Frage, ob die verschiedenen Ausprägungen der Formparameter vollständig erfassbar sind i. S. v. Form-Bedeutungs-Paradigmen und ob sich daraus Gesetzmäßigkeiten
21
22
Nach Schmidt (2005:234-235) wurde bisher in der Gesprächsforschung mit der Dokumentation der
Transkriptionskonventionen eher nachlässig verfahren, sie ist lückenhaft oder wurde vernachlässigt.
Auf die zurückliegende Gebärdensprachforschung dürfte diese Einschätzung in vielen Fällen ebenfalls
zutreffen.
Um eine Verwechslung von nichtlexikalischen mit grammatischen Gebärden zu vermeiden, sprechen
Johnston/Schembri (2010) von vollständig lexikalisierten Inhalts- oder grammatischen Gebärden und
teil-lexikalisierten Gebärden.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
34
und linguistische Beschränkungen ableiten lassen, wird von einer Forschergruppe der
Université Paris 8 anhand von ca. 4000 konventionellen Gebärden der LSF untersucht
(Garcia et al. 2008).
Dass die Bestimmung des Konventionalisierungsgrads sowie des Bedeutungsumfangs
von Gebärden schwierig ist, liegt im Wesentlichen an zwei strukturellen Besonderheiten
von Gebärdensprachen:
• Sie nutzen die in der visuell-gestischen Modalität begründete Möglichkeit, Bedeutung durch ikonisch oder metaphorisch motivierte Zeichen zu kodieren
(s. ➚ 4.2 u. 4.3).
• Sie kombinieren Zeichen aus verschiedenen Sprachsystemen, manuelle Zeichen
und Wörter, miteinander (s. ➚ 4.1).
Die über das Ablesewort gesicherte Bedeutung, die durch eine i. d. R. ikonische
Gebärde kontextualisiert wird, ermöglicht „einen nicht unerheblichen Grad an
Unbestimmtheit der manuellen Form“ (Ebbinghaus 1998a:607) und führt damit zu einer
hohen phonologischen Variation der Zeichenformen. Weiterhin fördert der Rückgriff
auf die Bildhaftigkeit bei der Gebärdenbildung die lexikalische Variation, da sich oft
verschiedene ikonische Darstellungen gleichermaßen anbieten, deren Bedeutung durch
das mit ihnen zusammen auftretende gleiche Ablesewort in zusätzlicher Weise
spezifiziert und abgesichert werden kann. Gleichzeitig ist durch Ikonizität der fließende
Übergang von konventionellen zu produktiven Gebärden – bei der Modifikation und
Reikonisierung konventioneller Gebärden – sowie von produktiven zu konventionellen
Gebärden – im Falle der Lexikalisierung produktiver Gebärden – gewährleistet. Ebbinghaus
(1998a:610) fasst die Auswirkungen des Zusammenspiels von Ablesewörtern und ikonischen Handzeichen so zusammen:
Ablesewörter erweisen sich mithin auch deshalb als funktional, weil sie den
charakteristischen Zeicheneigenschaften von Gebärden Entfaltungsmöglichkeiten
bieten: Das Auftreten von Ablesewörtern erlaubt Gebärden im Vergleich zu Wörtern, weitere und vagere Bedeutungsspektra abzudecken, flexiblere Modifikationen,
eine größere kategoriale Unbestimmtheit und den weitgehenden Verzicht auf Lexikalisierung ihrer spontan gebildeten Formen.
Die Unterscheidung zwischen lexikalischen und produktiven Gebärden bzw. nach
Johnston (2010a/b) zwischen „fully-lexical signs” und „partly-lexical signs“ steht nicht
im Widerspruch zu der Annahme, dass jede Gebärde „zwei Gesichter“23 hat. Es ist
lediglich eine Frage der Perspektive, die man einnimmt. In der Transkriptionspraxis,
deren Ziel die Erstellung eines linguistischen Korpus ist, ist es sinnvoll, zwischen
konventionellen und produktiven Gebärden zu unterscheiden sowie weitere sprachliche
Mittel mithilfe von Glossen im Sinn eines „general identifiers“ (Johnston 2010a) konsistent zu identifizieren. Dadurch erst wird ein Korpus geschaffen, das hinsichtlich
23
So lautet die Überschrift des ersten Abschnitts von Klima/Bellugi (1980): „The two faces of sign“.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
35
neuer theoretischer Ansätze ausgewertet werden kann. Das einzige objektive Kriterium
für den Grad der Lexikalisierung von Gebärden ist eine Frequenzanalyse. Variation und
Modifikation lexikalischer Gebärden können anhand lemmatisierter Korpora erst
genauer untersucht werden. Der Zusammenhang zwischen produktiven und konventionellen Gebärden ist insbesondere durch die Analyse der ikonischen Motiviertheit
dieser Gebärden herstellbar (s. ➚ 4.2.1). Im Folgenden werden die Kriterien der TokenType-Zuordnung für konventionelle, produktive und sonstige Gebärden sowie die
Glossierungskonventionen näher erläutert.
6.1.1.1 Konventionelle Gebärden
Konventionelle Gebärden, auch lexikalisierte oder etablierte Gebärden genannt, sind die
abstrakten Einheiten des Lexikons einer Gebärdensprache, die Lexeme. Brennan (1992)
spricht auch vom „frozen lexicon“, das diese Gebärden enthält, bevorzugt aber die
Bezeichnung ‚established lexicon‘. Dementsprechend werden konventionelle Gebärden
auch als frozen signs (erstarrte Formen bzw. Gebärden) bezeichnet, im Unterschied zu
den productive signs (produktive Formen bzw. Gebärden). Durch den Sprachgebrauch
hat sich eine feste Verbindung zwischen einer relativ stabilen Form und festgelegten
Bedeutungen herausgebildet. Diese Bedeutungen können auch ohne einen sprachlichen
Kontext abgerufen werden. Zeigt man kompetenten Sprechern der DGS die Form einer
konventionellen Gebärde und fragt sie nach deren Bedeutung, dann können diese in der
Regel zumindest eine Bedeutung nennen, die mit dieser Gebärde ausgedrückt wird.
Umgekehrt ist es sehr wahrscheinlich, dass auf die Frage nach einer Gebärde für eine
dieser Bedeutungen von verschiedenen Sprechern diese Form gezeigt wird. Der hohe
Grad der Konventionalisierung bewirkt, dass man die Grund- oder Zitierform einer
konventionellen Gebärde bestimmen kann und dass deren Bedeutung über verschiedene
Kontexte hinweg stabil bleibt. Konventionelle Gebärden sind häufig, aber nicht
notwendigerweise ikonisch oder enthalten ikonische Bestandteile. Bei der Produktion
und Rezeption dieser Gebärden spielt ihre Ikonizität keine Rolle, sie stehen als fertige
Form-Bedeutungs-Einheiten zur Verfügung. Brennan (1992:45-46) spricht von „off the
shelf, ready-made lexical items“. Johnston/Schembri (1999:129-130) betonen, dass sich
die Bedeutung konventioneller Gebärden, im Unterschied zu produktiven Gebärden,
nicht aus den Teilbedeutungen ihrer Komponenten zusammensetzt und daher nicht
vorhergesagt werden kann. Dieses Mehr an Bedeutung macht ihre Idiomatizität aus. Die
Ikonizität dieser Gebärden kann jedoch im Kontext reaktiviert werden, indem die Form
und damit auch das ihr zugrunde liegende Bild so modifiziert wird, dass eine
spezifischere Bedeutung entsteht (s. Kap. 6.1.1.4). Während Johnston/Schembri
(1999:136) von einer „relativ arbiträren“ Bedeutung der Lexeme sprechen, gehen wir
davon aus, dass die Ikonizität einer Gebärde funktional ist in dem Sinne, dass sie das
Bedeutungsfeld absteckt, innerhalb dessen sich die verschiedenen mit dieser Gebärde
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
36
realisierten Bedeutungen befinden müssen (s. ➚ 4.2). Eine Flachhand kann keinen
spitzen Gegenstand darstellen, eine Faust nichts Zweidimensionales, ein Zeigefinger
nichts Rundes. Die Analogie zwischen Formeigenschaften der Gebärde und den
Eigenschaften eines Objekts oder einer Handlung, die mithilfe dieser Gebärde
symbolisch repräsentiert wird, ist der Logik unserer Alltagserfahrung unterworfen. Da
unsere Wahrnehmung ebenso von Metaphern geprägt ist (vgl. Lakoff/Johnson 1980),
die sich bildlich darstellen lassen, lässt sich die Analogie bezüglich der Formikonizität
auch auf metaphorisch motivierte Gebärden übertragen. Brennan (2005:365 ff.) betont,
dass sowohl koverbale Gesten als auch Gebärdensprachen diese metaphorische
Motiviertheit nutzen. So kann sie auch bezüglich der Bewegung vorhersagen, dass eine
Gebärde, die die Bedeutung „zweifelhaft“ ausdrücken soll, nicht mit einer einfach,
geraden Bewegung ausgeführt wird, und umgekehrt eine Gebärde, die die Bedeutung
„wahr“ ausdrückt, nicht mit einer oszillierenden Bewegung. Diese passiv wirkende
Ikonizität spielt auch eine entscheidende Rolle bei der von H. Ebbinghaus und J.
Heßmann vertretenen These der wechselseitigen Kontextualisierung von Gebärde und
Ablesewort (s. ➚ 4.1.4). Im Unterschied zu produktiven Gebärden kommen
konventionelle Gebärden häufiger zusammen mit Ablesewörtern vor und der Blick ist
i. d. R. auf den Gesprächspartner gerichtet, bei produktiven Gebärden auf die Hände.
Zur Kennzeichnung einer lexikalischen Gebärde wird als Glossenname meist eine weit
verbreitete Grundbedeutung der Gebärde gewählt. Manchmal wurde bei konventionellen Gebärden, die in verschiedenen Bedeutungen verwendet werden, auch ein Glossenname gewählt, der sich vor allem am Bild der Gebärde orientiert, das als gemeinsame
Basis alle zugehörigen Bedeutungen miteinander verbindet, selbst aber nicht immer zu
den im Lexikon verzeichneten konventionellen Bedeutungen dieser Gebärde gehört.
Zum Beispiel wird die Gebärde, die für die konventionalisierten Bedeutungen „Hexe“
und „Adler“ verwendet wird, mit der Glosse HAKENNASE1A () identifiziert. In wenigen Fällen kann auch ein häufig mit dieser Gebärde verwendetes Ablesewort
als Glossenname dienen wie z.B. bei UM2 (). Diese Gebärde hat die konventionalisierten Bedeutungen „Wechsel“, „wechseln“ und „alternativ“, „Alternative“.
Durch die fehlende Gebrauchsschrift hat sich in der DGS noch keine Hochsprache
entwickelt. Dementsprechend ist der Grad der Standardisierung von Gebärden relativ
gering und es gibt oft mehrere konventionelle Gebärden, die für dieselbe Bedeutung
verwendet werden können. Gebärdensprachliche Synonyme unterscheiden sich deutlich
in ihrer Form, die zugrunde liegenden Bilder sind verschieden oder werden durch eine
andere Bilderzeugungstechnik visualisiert (s. ➚ 4.2.1). Sie werden mit demselben Glossennamen etikettiert, jedoch durch eine zusätzliche Zahl voneinander unterschieden. Für
die Bedeutung „Frau“ gibt es in der Datenbank acht verschiedene Einträge. BRUST4,
FRAU2, FRAU3A, FRAU3B, FRAU4, FRAU5, LEBENSPARTNER1 und RING1A unterscheiden sich deutlich in der Form als auch in den den Gebärden zugrunde liegenden
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
37
Bildern. Bei BRUST4 () wird mit der gebogenen Flachhand der Busen am
Oberkörper skizziert, der ikonische Gehalt der Gebärde FRAU2 () ist nicht
erkennbar, die Gebärden FRAU3A () und FRAU3B () unterscheiden sich
nur in der Handform und werden daher als phonologische Varianten angesehen
(s. Kap. 6.1.1.5), die Glossen unterscheiden sich durch eine zusätzliche Ziffer nach der
ersten Zahl. Beide haben dasselbe zugrunde liegende Bild: „einen Ohrring am Ohrläppchen befestigen“. Die Gebärde FRAU4 () ist auf eine stilisierte Darstellung des Gehens auf Stöckelschuhen zurückzuführen, bei FRAU5 () wird stilisiert der Rand eines Kopftuchs oder einer Haube an der Wange skizziert. LEBENSPARTNER1 () erinnert an das Sich-Unterhaken bei einem anderen Menschen
bzw. das Arm-in-Arm-Gehen, bei RING1A () ist es das Anstecken
eines Eherings bei der Hochzeit, das als Visualisierung der Bedeutung „Frau“ dient.
Da die Wahl des Glossennamens eng mit der durch die Gebärde ausgedrückten Bedeutung verbunden ist, lässt es sich im manchen Fällen nicht vermeiden, dass ein polysemes
deutsches Wort als Glosse gewählt wird. Durch die zusätzliche Zahl in der Glosse werden
diese Gebärden eindeutig identifiziert, sie sind jedoch keine Synonyme, wie die Beispiele
VERBAND2A () und VERBAND4B () zeigen. Die erste Gebärde wird
für die Bedeutungen „Verband“, „Bündnis“ und „Bund“, die zweite Gebärde für die
Bedeutung „(medizinischer, therapeutischer) Verband“ verwendet. In diesen Fällen
schlagen Johnston/de Beuzeville (2008:12-13) vor, diesen Unterschied nicht allein durch
eine Zahl im Glossennamen zu erweitern, sondern durch einen „sprechenden“ Zusatz,
z.B. VERBAND-medizinisch versus VERBAND-organisation, damit der Transkribent
durch den Glossennamen eine Entscheidungshilfe für die Token-Type-Zuordnung hat.
Die Notwendigkeit, möglichst „sprechende“ Glossennamen zu vergeben, ist für uns
nicht so dringend, da die Glossen aus einem Gebärdenlexikon ausgewählt werden, das
in iLex integriert ist. Die Angabe im Token ist datenbanktechnisch gesehen eine IDNummer, die als eindeutige Referenz auf einen Eintrag im Gebärdenlexikon verweist,
d.h. auf eine Entität in der Gebärdenliste. Alle zu diesem Eintrag gehörenden Informationen wie die Grundform und die Bedeutung einer konventionellen Gebärde können
durch verschiedene Sichten mit angezeigt werden, sodass der Transkribent sofort sieht,
dass sich VERBAND2A und VERBAND4B sowohl in der Form als auch in der Bedeutung unterscheiden.
Modifikationen (s. Kap. 6.1.1.4) werden durch eine zweite Ziffer von der Grundform
unterschieden. So ist zum Beispiel die Gebärde VERBAND24A () eine
Modifikation der Gebärde VERBAND2A, die den Plural ausdrückt.
Folgende Informationen werden durch einen Zusatz am Ende des Glossennamens
kodiert:
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
•
38
Fremdwörter: Gebärden aus anderen Gebärdensprachen – die Bezeichnung
‚Fremdgebärden‘ hat sich nicht durchgesetzt, im Unterschied zu Lehngebärden –,
werden durch eine entsprechende Abkürzung gekennzeichnet, z.B.
GROUP1_ASL (). Dies soll die schnelle Orientierung erleichtern,
ist aber im Prinzip nicht erforderlich, da zu jedem Gebärdeneintrag (Type) die
jeweilige Gebärdensprache notiert wird. Der Glossenname kann auch in der
Schriftform der Fremdsprache notiert werden, die die jeweilige Gebärdensprache umgibt. Um diese Einträge für diejenigen verständlich zu machen, die
diese Schrift nicht beherrschen, kann zusätzlich eine Übersetzung der Glosse ins
Englische eingetragen werden.24
Abb. 5: Eintrag einer koreanischen Gebärde mit englischer Übersetzung
•
Lehngebärden wie z.B. FAMILIE1 (), eine aus der ASL entlehnte
Gebärde, erhalten wie andere konventionelle Gebärden einen Glossennamen.
Der Hinweis auf die Herkunft der Gebärde wird im Kommentar zur Gebärde
festgehalten, der ebenfalls in der entsprechenden Sicht auf die Daten mit angezeigt werden kann.
Abb. 6: Gebärden mit Glossenname FAMILIE1 und Kommentar
24
Die Datenbank erlaubt auch eine andere Verwendung von Glossen. Anstatt die Glossennamen in verschiedenen Sprachen zu schreiben und sie durch Zusätze zu kennzeichnen, können sie auch einheitlich, z.B. in Deutsch geschrieben werden. Jede Glosse kann einen zusätzlichen englischen Glossennamen sowie einen weiteren Glossennamen in der jeweiligen Schriftform der umgebenden Lautsprache
erhalten, z.B. in Hangul (Zeichensatz für koreanische Schrift). Sowohl nach den englischen als auch
den weiteren Glossennamen kann gesucht bzw. können Listen sortiert werden.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
•
•
•
•
39
Regionale Varianten: Werden Gebärden ausschließlich von Informanten aus
einer bestimmten Region verwendet, dann wird dies ebenfalls als Zusatz zur
Glosse notiert, z.B. BRUST7_BAYERN ().
Inkorporierte Negation: Die Bedeutung bestimmter Gebärden wird dadurch verneint, dass die Bewegung der Grundform ersetzt wird durch ein gebundenes
Morphem, eine schleifenförmige Bewegung, die an den griechischen Buchstaben α erinnert, z.B. bei STIMMT11_NEG (). Diese inkorporierte Negation wird durch den Zusatz ‚_NEG‘ gekennzeichnet.
Verneinung durch Kopfschütteln, ebenso wie Bejahung durch Kopfnicken, das
zeitgleich zur Gebärde ausgeführt wird, wird im Kommentar beim Token
notiert. Da dies in unseren Daten nur selten vorkommt, wurde auf eine eigene
Gestik-Spur verzichtet. Wird die Verneinung oder Bejahung ausschließlich
durch eine Kopfbewegung ausgedrückt, ohne dass zeitgleich eine Gebärde ausgeführt wird, dann werden dafür die Glossen $GEST-KOPFNICKEN und $GESTKOPFSCHÜTTELN vergeben.
Lautsprachbegleitende Gebärden (LBG): Im Unterschied zum Phonembestimmten Manualsystem (PMS, s. u.) sind LBG bzw. das „lautsprachbegleitende
Gebärdenverfahren“ (Projektgruppe München 1989) kein geschlossenes System
oder eine festgelegte Methode, sondern eine im Laufe der 1980er Jahre in
Deutschland, Österreich und der Schweiz (Zürich) in den Gehörlosenschulen
eingesetztes Verfahren, „[…] auch Grammatikalisches bei Bedarf durch Gebärden und Fingeralphabetzeichen darstellen zu können“ (Projektgruppe München
1989:5). Die Autoren betonen, dass sie durch das lautsprachbegleitende Gebärdenverfahren nichts Neues schaffen bzw. einführen wollen, sondern bereits Vorhandenes strukturieren und verweisen auf die damals bereits vorliegenden ersten
beiden Bände der sogenannten Blauen Bücher (Starcke/Maisch 1977,
Maisch/Wisch 1988-1994). Der Beitrag ist als Ergänzung dazu zu sehen.
Sowohl die Gebärdenbücher als auch das LBG-Verfahren sind konkrete Umsetzungen eines Beschlusses der Bundesarbeitsgemeinschaft der Elternvertreter
und Förderer Deutscher Gehörlosenschulen e.V. aus dem Jahr 1982, in der
Erziehung und Bildung Gehörloser lautsprachbegleitende Gebärden einzuführen,
und wurden maßgeblich von der Deutschen Gesellschaft zur Förderung der
Gehörlosen und Schwerhörigen e.V. gefördert. Das Verfahren wird definiert „als
intensives Zusammenspiel von Sprechen, Gebärden, gebärdenergänzenden
Fingeralphabetzeichen und Körpersignalen, bevorzugt der Mimik, wobei die
Strukturen der deutschen Sprache den Ablauf bestimmen“ (Projektgruppe München 1989:9). Die Visualisierung formaler Aspekte deutscher Wörter, insbesondere der Flexionsendungen, durch spezielle Handzeichen ist jedoch nur eine
Ausprägung dieses methodischen Verfahrens mit dem Ziel, gehörlosen Kindern
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
40
die Struktur des Deutschen zu lehren. Kaufmann (1991:208) berichtet, dass in
der Züricher Gehörlosenschule LBG als „Oberbegriff für jede Art des simultanen Sprechens und Gebärdens“ verstanden wird. Es umfasst
o (lautsprach)unterstützendes Gebärden (LUG), bei dem nur die wichtigsten
Wörter parallel zum Sprechen gebärdet werden;
o synchrones Gebärden, bei dem jedes Inhaltswort gebärdet wird, nicht jedoch
Funktionswörter (z.B. Artikel, Konjunktionen) oder Pronomen; stattdessen
werden Ausdrucksmittel der Gebärdensprache verwendet wie z.B. Mimik,
Lokalisierung und Ausrichtung von Gebärden im Gebärdenraum;
o grammatikalisches Gebärden, das dem o.g. Ansatz der Münchner Projektgruppe entspricht;
o PMS, Graphembestimmtes Manualsystem (GMS) und tonreceptionsunterstützende Gebärden (TRUG; z.B. Breiner 1984), d.h. Verfahren, die die
Sprachproduktion und -rezeption unterstützen sollen.
Diese Aufzählung zeigt, dass die Bezeichnungen mit verschiedenen Inhalten gefüllt
werden. So entspricht das synchrone Gebärden dem Ansatz von Günther (1990), der
in Abgrenzung zum LBG-Verfahren seinen Ansatz wiederum als lautsprachunterstützend bezeichnet. Günther kritisiert das grammatikalische Gebärden, da es in der Tradition der deutschen Gehörlosenpädagogik stehe, die versucht, die morphologischen
und syntaktischen Bildungsregeln des Deutschen explizit zu machen, und argumentiert dagegen mit der Ineffizienz dieser Methode sowie den psycholinguistischen
Erkenntnissen, nach denen ein normaler Spracherwerb der Muttersprache solcher
Regeln nicht bedarf. Durch die zusätzliche Visualisierung der Flexionsendungen
durch Handzeichen oder Fingeralphabet wird der Kommunikationsfluss gestört. Es ist
für ihn nicht einsichtig, warum
[…] ausgerechnet bei denjenigen Kindern, denen behinderungsbedingt die Aneignung der Verbalsprache besonders schwer fällt, formale morphologisch-syntaktische
Strukturierungsregeln explizit und einsichtig in ihren sprachlichen Funktionen erworben werden sollen. (Günther 1990:303)
Ungeachtet der Kontroversen hat das lautsprachbegleitende Gebärden dazu geführt,
dass sich die Gehörlosenpädagogik immer stärker für die Gebärdensprache geöffnet hat.
Rammel (1989:62), der die Arbeit der Münchner Projektgruppe skizziert, stellt fest,
„dass die Erlernung einer möglichst umfangreichen Anzahl an Gebärdenzeichen die
wesentliche Voraussetzung für das LBG-Verfahren darstellt“ und berichtet aus seiner
eigenen Erfahrung über die positiven Auswirkungen, die der Einsatz von Gebärden im
Unterricht mit sich bringt. Gleichzeitig grenzt er das von der Projektgruppe
ausgearbeitete Verfahren ab von den methodischen Gebärden des Abbé de l’Epée sowie
den in den USA entwickelten Systemen Seeing Essential English (SEE 1) und Signing
Exact English (SEE 2), die die Gebärden zu einseitig dafür einsetzen, die Grammatik
der Lautsprache zu visualisieren und sie dadurch ihres natürlichen Charakters berauben.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
41
Kaufmann (1991) weist auf das eigentliche Problem hin, das durch die Einführung
von Gebärden bzw. Gebärdensprache im Unterricht entsteht: die Überforderung der
Lehrkräfte, die über keine ausreichenden Kenntnisse verfügen. Die logische Konsequenz aus der Öffnung des Unterrichts für Gebärdensprache, wenn auch zunächst
nur als Visualisierungsmittel für die deutsche Lautsprache gedacht, waren die Modellversuche mit bilingualem Unterricht in den 1990er Jahren. Deren Erfolge haben
Scheinargumente gegenstandslos werden lassen und den Bedarf an gehörlosen
Pädagogen sowie an hörenden Pädagogen mit Gebärdensprachkenntnissen deutlich
gemacht. Die Parallelisierung von Laut- und Gebärdensprache durch das simultane
Gebärden beim Sprechen, die die Gebärden als Mittel zum Zweck missbraucht, ist
der Kontrastierung gewichen, die Laut- und Gebärdensprache gleichwertig nebeneinander benutzt und die Andersartigkeit der Gebärdensprache respektiert.
Abgesehen von dem Streit um die richtige Methode weist Kaufmann auf ein grundsätzliches Problem hin, das das LBG-Verfahren impliziert. Einerseits werden lexikalische Gebärden inhaltsbezogen eingesetzt, um, wie in der DGS auch, Bedeutungen
zu kodieren, andererseits gibt es aber auch die wortbezogene Verwendung von Gebärden, die nur der Visualisierung eines deutschen Wortes bzw. Wortteils dienen
sollen wie z.B. Handzeichen für Artikel, Pronomen, Konjunktionen und Endungen,
für die es in der DGS keine lexikalischen Entsprechungen gibt. Ähnlich wie bei
initialisierten Gebärden (s. Kap. 6.1.1.3) dienen die Handzeichen als Ablesehilfe.
Dies trifft jedoch nicht nur auf diese besonderen Wörter und Wortteile zu, sondern
im Prinzip auf alle lexikalischen ikonischen Gebärden. Sie können alle als Ablesehilfe dienen, da die Handzeichen durch ihren ikonischen Gehalt ein Bedeutungsfeld
abstecken, innerhalb dessen das abzulesende Wort zu finden ist. Diese Funktion der
Kontextualisierung von Wörtern durch Gebärden haben H. Ebbinghaus und J. Heßmann in ihren Arbeiten herausgestellt (s. ➚ 4.1.4). Es ist zu vermuten, dass das
LGB-Verfahren die wortbezogene Verwendung lexikalischer Gebärden als
Ablesehilfe gefördert hat. Dies ist jedoch kein Spezifikum des LBG-Verfahrens,
sondern eine erfolgreiche Strategie, die Gehörlose in verschiedensten Kommunikationssituationen anwenden (s. ➚ 4.1.5.3.1).
Gebärden, die ausschließlich wortbezogen verwendet werden, werden in der Glossierung durch den Zusatz ‚_LBG‘ gekennzeichnet wie z.B. ARTIKEL1_LBG, eine
konventionalisierte Verwendung der Gebärde $INDEX1A (). Gebärden, die
ausschließlich zur Kontextualisierung von Prä- und Suffixen verwendet werden,
gehören auch zu den lautsprachbegleitenden Gebärden, werden jedoch durch den
Zusatz ‚$WORTTEIL-‘ am Anfang des Glossennamens gekennzeichnet
(s. Kap. 6.1.1.3). Gebärden, die inhalts- und wortbezogen verwendet werden wie
z.B. die indexikalische Gebärde IN1 (), werden als Glossen ohne einen Zusatz
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
42
notiert.25 Aneinanderreihungen von Gebärden bei der Übersetzung von deutschen
Komposita werden als Lehnübersetzungen betrachtet (vgl. Becker 2003:102-106),
die Einzelgebärden werden entsprechend der Konventionen glossiert.
Folgende Informationen werden durch einen Zusatz am Anfang des Glossennamens
kodiert:
• Namensgebärden: Um einen schnellen Zugriff auf konventionalisierte Namensgebärden zu haben, wird den Glossen ein ‚$NAME-‘ vorangestellt, z.B. $NAMEHELMUT-KOHL1 ().
• Spezialgebärden: Als sogenannte Spezialgebärden werden konventionelle
Gebärden mit lexikalisierter Mundgestik bezeichnet, die im Kontext auch durch
eine expressive Mimik überlagert sein kann. In der englischen Fachliteratur
spricht man von multi-channel signs (vgl. Brennan 1992:128, Johnston/Schembri 1999:154-155), in der deutschen Fachliteratur wird die Bezeichnung ‚Spezialgebärden‘ nicht verwendet, der Begriff taucht dagegen regelmäßig
auf Fort- und Weiterbildungen auf sowie in Kursangeboten für DGS-Lerner und
Dolmetscher26. Da einige dieser Gebärden nicht durch ein einziges Wort, sondern nur durch eine Redewendung27 oder Umschreibung ins Deutsche übersetzt
werden können, werden sie von Gehörlosen als besonders gebärdensprachtypisch eingestuft und häufig auch als Idiome oder idiomatische Wendungen bezeichnet. Der lexikalische Status dieser Gebärden ist jedoch unklar, denn die
Eigenschaft, dass sie sich nur schwer in die Lautsprache übersetzen lassen und
besonders expressiv sind, trifft nicht auf alle konventionalisierten DGS-Gebärden mit lexikalisierter Mundgestik zu wie z.B. auf die Gebärde BESITZEN1
().28 Einige dieser Gebärden können auch durch Lautsprachmetaphern motiviert worden sein wie z.B. $SPEZIAL-KNIE-SCHLOTTERN1 () und
sind somit nicht als lautsprachfern zu bezeichnen. Dass diese Gebärden insbesondere von Gehörlosen als etwas Besonderes angesehen werden, scheint eher in
dem psychologischen Motiv begründet, sich gegenüber der Lautsprache
abzugrenzen bzw. die Überlegenheit der Gebärdensprache hervorzuheben. Dies
25
26
27
28
Eine genaue Untersuchung der wortbezogenen Verwendung lexikalischer Gebärden würde eine zusätzliche
Annotation erfordern und müsste den Äußerungskontext stärker berücksichtigen, da es durchaus sein kann, dass
innerhalb DGS-typischer Sequenzen Gebärden in der Absicht verwendet werden, lediglich den Bezug
zum deutschen Wort sicherzustellen. Eine solche Untersuchung sollte unabhängig vom lexikalischen
Status alle in der Funktion der Ablesehilfe eingesetzten sprachlichen Mittel der DGS erheben und
würde Aussagen über die Häufigkeit und Verwendungskontexte ermöglichen.
Von den über 60 Fundstellen bei der Google-Suche nach ‚Spezialgebärde‘ entfallen die meisten auf
Kursangebote in Deutschland oder Österreich.
Vgl. z.B. die in der Region München gebräuchlichen „Redewendungen der Deutschen Gebärdensprache“ von Mally (1992 u. 1993).
Der durch das Fingerspiel sowie die Mundgestik, die an die Artikulation des Zischlauts [ʃ] erinnert,
visualisierte ikonische Gehalt dieser Gebärde lässt sich mit der Existenz belebter Objekte beschreiben,
das durch seine Bewegung und dadurch verursachte Geräusche wahrnehmbar ist (vgl. Ebbinghaus/
Heßmann 2001:149).
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
43
drückt sich insbesondere in diesen Gebärden aus, die durch die mehr oder
weniger expressive Mundgestik die Verwendung eines Ableseworts ausschließen. Um der Intuition der Gehörloser Rechnung zu tragen, dass es sich bei
diesen Gebärden um eine besondere Gruppe von Gebärden handelt, wird den
Glossen für diese Gebärden ein ‚$SPEZIAL-‘ vorangestellt wie z.B. bei
$SPEZIAL-BEGIERIG-AUF-ETWAS-SEIN1 ().
6.1.1.2 Produktive Gebärden
Im Unterschied zu Lautsprachen bestehen gebärdensprachliche Äußerungen nicht nur
aus einer sequenziellen Abfolge konventioneller Zeichen, sondern aus einem steten
Wechsel zwischen konventionellen und nicht konventionellen Zeichen (s. ➚ 4.3.3.2),
die bei zweihändigen Gebärdenkomplexen auch simultan artikuliert werden können.
Empirische Untersuchungen von Sallandre (2003) zur Französischen Gebärdensprache
(LSF) und Russo (2004) zur Italienischen Gebärdensprache (LIS) zeigen, dass der
Anteil produktiver Gebärden abhängig ist von der Textsorte. Hinweise darauf, dass dies
auch auf die DGS zutrifft, finden sich in Ebbinghaus/Heßmann (1991) und Heßmann
(2001a). Diese manuellen Zeichen können weiterhin zeitgleich mit nonmanuellen
Zeichen artikuliert werden und einen Vorgang oder Sachverhalt aus verschiedenen
Perspektiven mehr oder weniger detailliert vermitteln. Die Übergänge zu einer
szenischen Inszenierung, bei der der Gebärdende mit dem Einsatz seines gesamten
Körpers kommuniziert, sind fließend. Aus lexikologischer Sicht sind zunächst diese
nicht konventionellen Zeichen interessant, deren Form und Bedeutung nicht durch
Konvention festgelegt sind und die spontan gebildet werden, um im gegebenen Kontext
Gegenstände, Handlungen oder Sachverhalte visuell wiederzugeben bzw. zu modellieren. Daraus lassen sich vier Eigenschaften produktiver Gebärden ableiten:
• Sie sind ikonisch oder metaphorisch motiviert;
• es ist nicht möglich bzw. sinnvoll, die Grundform einer produktiven Gebärde zu
bestimmen;
• ihre Bedeutung kann nur im jeweiligen Äußerungskontext ermittelt werden;
• da alle Parameter der Gebärdenform zur Bedeutung der Gebärde beitragen, geht
die Veränderung eines dieser Formparameter in der Regel mit der Veränderung
der Bedeutung einher.
Nach Johnston/Schembri (1999) unterscheiden sich produktive von konventionellen
Gebärden weiterhin dadurch, dass sie auf ein größeres Set an Formparametern zurückgreifen und phonologische Beschränkungen wie die Dominanz- und Symmetrieregel
(Battison 1974) bei zweihändigen Gebärden öfters verletzt werden können. Der Blick
ist bei produktiven Gebärden in der Regel auf die Hände gerichtet. Gleichzeitig artikulierte Ablesewörter kommen seltener vor.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
44
In der Literatur hat sich der Begriff ‚produktives Lexikon‘ etabliert, der vor allem auf
M. Brennan zurückzuführen ist. Brennan (1992:45 f.) geht in ihrer Einführung zum
BSL-Wörterbuch (Brien 1992) auf die morphologische Struktur von Gebärden und die
lexikalischen Ressourcen der BSL ein und stellt dem etablierten Lexikon ein „do-ityourself or DIY lexicon“ gegenüber als Oberbegriff für all diese „on the spot“ gebildeten Gebärden. Den Wechsel zwischen etablierten und produktiven Gebärden interpretiert Brennan so, dass der Gebärdende ständig mit der visuellen Bildhaftigkeit und
visuellen Effekten spielt, um die verschiedenen Sichtweisen auf die Dinge der Welt zu
zeigen. Etablierte Gebärden können durch zusätzliche Morpheme erweitert werden, um
neue lexikalische Items zu erzeugen, oder Morpheme können zu neuen, produktiven
Gebärden zusammengesetzt werden. Bei der Bildung produktiver Gebärden greift der
Gebärdende auf die lexikalischen Ressourcen seiner Sprache zurück, die er in systematischer Weise miteinander kombiniert. Brennan (1992:79) teilt die lexikalischen
Ressourcen in folgende Morphemklassen ein:
• „classifier morphemes“,
• „location morphemes“,
• „metaphor-based morphemes“,
• „non-manual morphemes“.
• „movement morphemes“,
Abgesehen von den Metapher29- und den nonmanuellen Morphemen enthält diese
Auflistung die auf Stokoe zurückgehenden Parameter Handform, hier bezogen auf die
Klassifikator-Handformen, den wichtigsten Bestandteil der sogenannten Klassifikatorgebärden, Bewegung und Lokation. Der wesentliche Unterschied zu Stokoe ist jedoch,
dass Brennan, wie auch Cuxac (s. ➚ 4.3.3), diesen Parametern keinen Phonem-, sondern
Morphemstatus zuweist, d.h. es handelt sich um Formbestandteile, die aufgrund einer
sprachlichen Konvention für bestimmte Bedeutungen verwendet werden. Johnston/
Schembri (1999:117-119) sprechen daher auch von einer ersten Stufe der Konventionalisierung, die produktive Gebärden abgrenzt von Gesten und pantomimischen
Darstellungen. Damit ist gemeint, dass die einzelnen Formbestandteile einer produktiven Gebärde ein generisches Bedeutungspotential haben. Eine Flachhand kann
• einen flachen, ausgedehnten Gegenstand darstellen; ihre Position im Raum entspricht der Lage und Orientierung dieses Gegenstands, ebenso ihre Bewegung;
• eine Hand darstellen, die sich in einer bestimmen Position befindet oder eine
bestimmte Tätigkeit ausübt;
• als Zeicheninstrument verwendet werden, um eine zweidimensionale Fläche zu
skizzieren, z.B. das Flachdach eines Bungalows;
29
Metapher-Morpheme werden dazu benutzt, Bedeutungen auszudrücken, die sich auf eine gemeinsame, zugrunde liegende Metapher zurückführen lassen, z.B. die sich öffnende Faust oder O-Hand, die
für sämtliche Bedeutungen verwendet werden kann, die sich auf das kognitive Konzept „etwas ausstrahlen oder aussenden“ beziehen lassen. Darunter fallen in der DGS z.B. Gebärden für „Licht“,
„Quelle“ oder „Dusche“ (s. QUELLE1A, ), nicht jedoch die formgleiche Gebärde
PLANZE1A, bei der die sich öffnende Hand das Öffnen der Blütenblätter einer Pflanze repräsentiert.
Zur Analyse ikonischer Gebärden s. ➚ 4.2.1.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
•
•
45
als Index verwendet werden, indem die Handinnenfläche in die Richtung oder
auf den Ort eines real anwesenden oder fiktiven Objekts zeigt;
als Begrenzungsanzeiger funktionieren, indem schematisch oder maßstabsgetreu
die Dimension eines Gegenstands oder einer Entfernung gezeigt wird
(s. ➚ 4.2.1.5).
Die Veränderung der Lage, Orientierung und Bewegung der Flachhand bzw. der Position der beiden Hände zueinander kann im Äußerungskontext im Sinne einer Modellierung jeweils eine spezifische Bedeutungsveränderung bewirken. Ein kompetenter Gebärdender weiß um die Formbestandteile und ihre Kombinationsmöglichkeiten und
kann für jeden Verwendungszweck die passenden Gebärden bilden. Da die Bedeutung
produktiver Gebärden stark vom Äußerungskontext abhängt, die generische Bedeutung
ihrer Formbestandteile jedoch zu allgemein ist, plädieren Johnston/Schembri (1999:125)
dafür, produktive Gebärden als Einträge in einem allgemeinen Gebärdenwörterbuch
auszuschließen. In einem einsprachigen Wörterbuch würden solche Einträge keine neuen Informationen bringen, da sie nur das beschreiben können, was ein kompetenter Gebärdender schon weiß und intuitiv im Sprachgebrauch ständig anwendet. Hinzu kommt,
dass es ohne die Unterscheidung zwischen konventionellen und produktiven Gebärden
bei der Lemmaselektion keine stichhaltigen Auswahlkriterien gäbe, die Wahl der
Einträge bzw. der Ausschluss von potentiellen Gebärden beliebig wäre. Die Bestandteile produktiver Gebärden und deren Kombinationsmöglichkeiten sollten nach Johnston & Schembri in einer Grammatik bzw. Wörterbuchgrammatik beschrieben werden.
Der Versuch, diese produktiven Gebärden hinsichtlich ihrer phonologischen, morphologischen und syntaktischen Eigenschaften zu beschreiben und ihre semantischen und
lexikalischen Eigenschaften zu analysieren, hat zu den verschiedensten Bezeichnungen
geführt. Am bekanntesten sind Klassifikator (classifier; Frishberg 1975), womit im
engeren Sinn nur die Handform bzw. Handkonfiguration gemeint ist, Klassifikatorprädikat (classifier predicate; Liddell 1977), Stand- und Bewegungsverben (verbs of
motion and location; Supalla 1978, 1986), Proform (proform; Engberg-Pedersen/Pedersen 1985), polymorphemische Verben (polymorphemic verbs; Engberg-Pedersen 1993) und polysynthetische Gebärden (polysynthetic signs; Wallin 1996). Schembri
(2003:25)30 kommt in seinem Vergleich der verschiedenen Beschreibungsansätze für
Klassifikator-Morpheme zu dem Schluss, dass die Bezeichnung ‚Klassifkator‘ in Analogie zu Lautsprachen problematisch ist, da insbesondere die Funktion der Handform
nicht die der Klassifikation, sondern der Repräsentation ist:
Of course, the particular co-occurrence constraints do seem reminiscent of verbal
classifiers in spoken languages, but the primary function of the handshape seems not
to be one associated with classifiers, but representation.
30
Dieser Fassung ging ein Manuskript voraus, das die Grundlage für eine frühere deutsche Übersetzung
dieses Beitrags war (Schembri 2000).
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
46
Slobin et al. (2001) sehen die Hauptfunktion der Handform bei produktiven Gebärden
darin, auf einen Diskursreferenten zu verweisen bzw. zu indizieren, indem sie eine für
den Diskurs relevante Eigenschaft dieses Referenten repräsentiert. Dementsprechend
werden produktive Gebärden im Berkeley Transcription System (BTS) „property markers“ genannt, eine Bezeichnung, die Johnston/de Beuzeville (2008) in ihren Transkriptionskonventionen übernommen haben. Die Bezeichnung ‚marker‘ wurde schon von
DeMatteo (1977), Mandel (1977) und Friedman (1977) verwendet, die die Ikonizität ins
Zentrum der Erforschung von Gebärdensprachen stellten und sich damit absetzten von
dem sich mit der Veröffentlichung von „The signs of language“ (Klima/Bellugi 1980a)
etablierenden Mainstream, der die offensichtliche Ikonizität von Gebärden zwar konstatierte, ihr aber jeglichen Einfluss auf die Funktion und die Struktur des Sprachsystems
von Gebärdensprachen absprach (s. ➚ 4.3). Mandel (1977) verwendete schon die
Bezeichnung ‚depiction‘, um auszudrücken, dass produktive Gebärden etwas abbilden,
ein interpretierbares Bild zeigen, und nicht als Realisierung (Token) eines Types angesehen werden können. Diese Bezeichnung wurde später von Liddell (2003a), aber auch
von Johnston/de Beuzeville (2008) übernommen.
Einige Forscher sind davon überzeugt, dass sich produktive Gebärden mit dem herkömmlichen linguistischen Instrumentarium nicht angemessen beschreiben lassen. Sie
gehen davon aus, dass Gebärdensprachbenutzern neben der sprachlichen eine weitere,
bildliche oder analoge Kodierungsmöglichkeit zur Verfügung steht. Macken et al.
(1993:391) sprechen deshalb in ihrer Untersuchung der ASL von einer „dual representation language“. Cogill-Koez (2000b) legt eine umfassende Kritik des Versuchs vor,
produktive Gebärden als sprachliche Einheiten zu beschreiben und plädiert dafür, sie als
„schematic visual representations“ zu analysieren. Liddell (2003a/b) spricht von
„depicting verbs“, die einen lexikalisch-morphologischen und einen analogen, graduell
variierbaren, räumlichen Anteil haben, der sich mit dem kognitiven Konzept der „mental spaces“ beschreiben lässt. Ebbinghaus/Heßmann (1991) fassen produktive Gebärden
als ikonische Modellierungen auf, die nur innerhalb eines semiotischen Ansatzes, der
die Kombination verschiedener Zeichensysteme berücksichtigt, ausreichend erklärt
werden können.
Brennan (2005) beantwortet die Frage, wie es in Gebärdensprachen möglich ist, Wörter,
d.h. diskrete sprachliche Einheiten, und Bilder, die nach McNeill (1992) durch koverbale Gesten ausgedrückt werden, miteinander zu kombinieren, wo doch Gebärdensprachen nur das visuelle Medium zur Verfügung steht, damit, dass beide Ausdrucksformen der Kommunikation, Wörter als sprachlich kodierte und Gesten als bildlich
kodierte Information, in einer Gebärde zusammenfallen:
However, this is exactly what makes signs languages unique: The linguistic code
itself adapts to the requirement of combining words and images. A BSL sign is both
a set of conventionalized components (e.g., handshapes, movements, locations,
nonmanual features) and a vehicle for expressing an image. (Brennan 2005:366)
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
47
Bei metaphorischen Gebärden ist, wie bei metaphorischen Gesten, die Beziehung
zwischen dem Bild und der Bedeutung nicht direkt, da nicht wie bei ikonischen
Gebärden Eigenschaften eines Objekts oder einer Handlung in der Form der Gebärde
kodiert werden, sondern indirekt, indem auf der Grundlage von kulturellem und sprachlichem Wissen Bilder erzeugt werden, die auf abstrakte Konzepte referieren.
Metaphoric gestures are like iconic gestures in that they exhibit a meaning relevant
to the concurrent linguistic meaning. However, the relation to the linguistic meaning
is indirect. Metaphoric gestures exhibit images of abstract concepts. In form and
manner of execution, metaphoric gestures depict the vehicles of metaphors […]. The
metaphors are independently motivated on the basis of cultural and linguistic
knowledge. (McNeill 1985:356)
Beckers (2003:207-208) Kritik an der Bezeichnung ‚produktives Lexikon‘ ist zum
einen, dass das Merkmal der Produktivität einengt wird auf ikonische Zeichen. Die z.B.
in der DGS sehr produktiv eingesetzte Kombination von Gebärden mit Wörtern des
Deutschen, die in Form von Ablesewörtern gleichzeitig zur Gebärde artikuliert werden,
gerät dabei aus dem Blickfeld (vgl. ➚ 4.1.4). Zum anderen stellt sie die Frage, ob die
Generierung ikonischer Zeichen immer auf der Basis von lexikalischem und damit
sprachlichem Wissen erfolgt.
Cuxac (2000, 2004; s. ➚ 4.3.3) stellt die Ikonizität in den Mittelpunkt seines Beschreibungsansatzes und geht davon aus, dass sowohl bei produktiven wie auch bei konventionellen Gebärden die Ikonizität bzw. Metaphorizität der bedeutungstragenden
Morpheme und ihre Kombinationsmöglichkeiten analysiert und beschrieben werden
können. Eine Überprüfung dieser Hypothese wird anhand des Bestands konventioneller
Gebärden der Französischen Gebärdensprache (LSF; Girod 1997) zurzeit vorgenommen
(Garcia et al. 2008). Wie ein Gebärdenwörterbuch aussehen könnte, das diese
Morpheme als Lemmata enthält, hat Bonnal-Vergès (2005) exemplarisch umgesetzt
(s. ➚ 5.5.2).
In Übereinstimmung mit Schembri (2003) sehen wir die Funktion der Handform produktiver Gebärden in der Repräsentation. Der ikonische Gehalt dient dazu, die Information in Form von Bildern oder Bildaspekten zu kodieren. Bei ikonisch wie auch
metaphorisch motivierten Gebärden ist die Beziehung zwischen der Form der Gebärde
und Eigenschaften des Redegegenstands der Schlüssel für die richtige Interpretation
dieser Gebärde im Äußerungskontext. Insofern stimmen wir auch mit der Bezeichnung
‚property marker‘ von Slobin et al. (2001) überein, auch wenn Slobin et al. die Diskursebene in den Vordergrund ihrer Analyse stellen und nicht die lexikalische.
Die Frage, wie diese Bilder erzeugt werden, führte uns zu einer Analyse produktiver
Gebärden, die, unabhängig von einer phonologischen, morphologischen oder syntaktischen Kategorisierung, d.h. möglichst theorieneutral, eine Einteilung dieser Gebärden
anhand der jeweiligen Bilderzeugungstechnik ermöglichte. Im Vordergrund stand dabei
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
48
wiederum die Frage nach der Funktion der Hand. Im oben aufgelisteten generischen
Bedeutungspotential der Flachhand sind die wichtigsten Bilderzeugungstechniken
enthalten (s ➚ 4.2.1). Der Vorteil dieser Einteilung ist, dass diese Bilderzeugungstechniken sich gegenseitig ausschließende Kategorien bilden, da die Hand bei der
Bilderzeugung nicht verschiedene Funktionen gleichzeitig erfüllen kann. Eine
Flachhand kann entweder (substitutiv) einen anderen Gegenstand darstellen oder
(manipulativ) die Hand selbst oder (skizzierend) als Zeicheninstrument dienen oder als
Index (indizierend) oder als Begrenzungsanzeiger (maßanzeigend) oder mit der
Handkante eine Linie (i. S. v. „(Text-)Zeile“) stempeln. Wir gehen davon aus, dass ein
kompetenter Gebärdender neben den konventionalisierten Bestandteilen produktiver
Gebärden auch über diese Bilderzeugungstechniken verfügt, die er intuitiv einsetzt bei
der Produktion und Rezeption von Gebärden. Diese Analyse ist bei produktiven
Gebärden, die immer ikonisch bzw. metaphorisch motiviert sind, d.h. deren Form auf
ein zugrunde liegendes Bild zurückgeführt werden kann, relativ einfach, sie ist aber
auch hilfreich bei konventionellen ikonischen Gebärden, da die Bilderzeugungstechnik
die Art der Modifikation bzw. der Reikonisierung konventioneller Gebärden eingrenzt
und damit die Möglichkeiten der Kodierung von Bedeutung. Die Ikonizität spielt daher
auch bei der Lemmatisierung eine wesentliche Rolle (s. ➚ 4.2.2), z.B. bei der
Unterscheidung formgleicher Gebärden, die auf verschiedene zugrunde liegende Bilder
zurückzuführen sind und somit als Homonyme verschiedene Einträge im
Gebärdenlexikon erhalten. Sie ist ein wesentlicher Schlüssel zum Verständnis des
Zusammenhangs zwischen modifizierten Gebärdenformen und ihrer Grundform und
eine zusätzliche mnemotechnische Hilfe insbesondere für L2-Lerner. Daher wurden seit
dem Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003) im
Gebärdenverzeichnis neben den produktiven Gebärden sämtliche konventionellen Gebärden anhand ihres ikonischen Gehalts und der Bilderzeugungstechnik analysiert. Wir
haben dabei versucht,
[…] nicht nur vollständige Bilder ikonischer Gebärden, sondern auch einzelne
Bildbestandteile oder Formelemente zu benennen, die sich sinnvoll interpretieren
lassen. Die zum Teil sehr abstrakten Assoziationen, die mit den Einzelelementen
verknüpft sind, lassen sich manchmal nur schwer mit lautsprachlichen Mitteln
beschreiben. Deshalb können die Bildbeschreibungen in einigen Fällen nur als ein
Versuch angesehen werden, der visuellen Ausdruckskraft von Gebärden gerecht zu
werden. (König et al. 2003:457)
Produktive Gebärden wurden zu Beginn der Transkription beim Fachgebärdenlexikon
Tischler/Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998) mit einer sogenannten
Sammelglosse glossiert, d.h. alle Token produktiver Gebärden erhielten als Etikett den
gemeinsamen Glossennamen $MAN. Das Sonderzeichen $ war eine einfache
Möglichkeit, bei der alphabetischen Sortierung der Glossen im Gebärdenlexikon alle
nichtkonventionellen Gebärdenformen von den Glossennamen für konventionelle
Gebärden zu trennen, ‚MAN‘ steht für „manuelle Aktivität“ und wurde aus den
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
49
Glossierungskonventionen von Ebbinghaus/Heßmann (1994b) übernommen. Für die
Produktion mussten produktive Gebärden, die in den ausgewählten Übersetzungen von
Fachbegriffen enthalten waren, eine eigenständige Glosse erhalten. Dazu wurde in der
Regel der Fachbegriff oder ein an das Bild der Gebärde angelehnter Glossenname
verwendet, z.B. $MAN-PFANNE10 (). Seit der Transkriptionsarbeiten
zum Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex; Konrad et al. 2003)
sind wir dazu übergegangen, sämtliche produktiven Gebärden zu spezifizieren. Ähnlich
wie bei den konventionellen Gebärden werden Ziffern als Zusätze benutzt, um formähnliche produktive Gebärden, die gemeinsame morphologische Aspekte aufweisen, zu
kennzeichnen. Alle diese Glossen erhalten eine gemeinsame erste Ziffer nach dem
Glossennamen, z.B. $MAN-PERSON10 (), $MAN-PERSON17 (). Um verschiedene produktive Gebärden zu kennzeichnen, für die derselbe Glossenname passt, werden die Glossen durch eine verschiedene erste Ziffer, wie bei synonymen Gebärden, gekennzeichnet, z.B. $MAN-PERSON10, $MAN-PERSON20 (). Um daran zu erinnern,
dass produktive Gebärden keine Grundform haben, werden immer zwei Ziffern vergeben. In der Datenbank wird die Form der Gebärde in HamNoSys notiert sowie eine
Beschreibung des ikonischen Gehalts und die Zuordnung zu einer Bilderzeugungstechnik vorgenommen. Die kontextuelle Bedeutung wird jeweils beim Token eingetragen. Den Glossennamen produktiver Gebärden im Gebärdenverzeichnis der verschiedenen Fachgebärdenlexika wurde anstatt des ‚$MAN-‘ jeweils ein ‚PROD.‘ vorangestellt,
um in Erinnerung zu rufen, dass es sich hierbei um eine produktive Gebärde handelt.
Zusätzlich wurden konventionelle, produktive und sonstige Gebärden in getrennten
Verzeichnissen aufgelistet.
6.1.1.3 Sonstige Zeichen und Zeichensysteme
Neben konventionellen und produktiven Gebärden wurden weitere Gebärdenformen,
die in der DGS verwendet werden, entweder mithilfe einer Sammelglosse etikettiert
oder als separate Einträge im Gebärdenlexikon aufgelistet. Zur Abgrenzung von
Glossennamen für konventionelle Gebärden wurde den Glossen jeweils ein Sonderzeichen vorangestellt ($), für eine sinnvolle Sortier- und Suchfunktion wurde ein
gemeinsamer Glossenname im Sinne eines „general identifiers“ (Johnston 2010a)
vergeben, der bei einigen Gebärden- bzw. Formengruppen analog zu den produktiven
Gebärden weiter spezifiziert werden kann.
Fingeralphabet
In der DGS wird das einhändige Fingeralphabet verwendet (s. Anhang). Das Fingeralphabet ist ein sekundäres Zeichensystem, mit dessen Hilfe sich Wörter buchstabieren
lassen. Für jeden Buchstaben wird eine bestimmte Handform vor dem Oberkörper im
neutralen Gebärdenraum gezeigt. Die meisten Handformen werden ohne Bewegung
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
50
ausgeführt. Handformen mit Bewegung werden für die Buchstaben J und Z sowie für
Umlaute und das ß verwendet. Ebenfalls mit Bewegung werden die Handformen für das
SCH, das CH sowie für Doppelkonsonanten und -vokale ausgeführt. In der Regel wird
das gefingerte Wort, nicht jedoch die einzelnen Buchstaben wie beim Alphabet
gleichzeitig lautlos mitartikuliert. Gefingert werden i. d. R. Eigennamen oder Fremdwörter, wenn sie das erste Mal im Diskurs vorkommen. Bei der wiederholten Bezugnahme auf den Namen oder das Wort kann es sein, dass das Fingern abgekürzt wird und
nur noch der Anfangsbuchstabe übrig bleibt.
Bei geübten Gebärdensprachverwendern geht der Wechsel der Handformen sehr schnell
ineinander über. Gehörlose nehmen fließend gefingerte Wörter auch nicht als Folge isolierter Buchstabenformen wahr, sondern als Gestalt, und können so wesentlich schneller
das gefingerte Wort erfassen (s. Akamatsu 1985). Token von Buchstaben, Abkürzungen
oder Wörtern, die mit den konventionalisierten Handformen des einhändigen Fingeralphabets gefingert werden, werden mit der Sammelglosse $ALPHA1 etikettiert. Zusätzlich werden beim Token die Buchstaben notiert, die die Handformen repräsentieren.
Daneben gibt es aber auch die Möglichkeit, die Buchstaben durch den Einsatz beider
Hände zu visualisieren. In der Datenbank sind zurzeit Vorkommen für die Buchstaben
B, D, F, G, P, Q, T, U, W und X erfasst. Dieses zweihändige Fingeralphabet lässt sich
bei hörenden Kindern beobachten, die es als eine Art Geheimsprache oder Chiffriercode
verwenden. Es unterschiedet sich von konventionalisierten zweihändigen Fingeralphabeten wie z.B. dem der Britischen Gebärdensprache (BSL). Bei den meisten Buchstaben
wird deren Form durch die beiden Hände nachgebildet. Zum Beispiel haben beim
Zeichen für den Buchstaben W beide Hände die L-Handform, sind leicht zur Seite
gekippt und berühren sich mit den Daumenspitzen so, dass die Daumen und Zeigefinger
die Form des Buchstabens bilden. Einige Zeichen sind nicht auf die Buchstabenform
zurückzuführen wie z.B. beim Buchstaben H: Die Handfläche der aktiven Hand streicht
über die Handfläche der passiven Hand. Einige dieser Handzeichen sind lexikalisiert,
z.B. das Handzeichen für den Buchstaben S in der Gebärde für „September“
(SEPTEMBER2 ). Token, die auf die Verwendung dieser
zweihändigen Handformen zur Repräsentation von Buchstaben zurückzuführen sind,
werden mit der Sammelglosse $ALPHA2 etikettiert.
Weiterhin können Buchstaben mit der skizzierenden Technik auch in die Luft gezeichnet werden wie z.B. das S. Im einhändigen Fingeralphabet ist diese Bilderzeugungstechnik nur beim Buchstaben Z konventionalisiert. Häufig wird auf diese Technik zur
Darstellung griechischer Buchstaben zurückgegriffen. Token, die diese Repräsentationsform für Buchstaben verwenden, werden mit der Sammelglosse $ALPHA3 etikettiert.
Handformen des Fingeralphabets können auch mit bereits konventionalisierten Gebärden kombiniert werden, z.B. um die polyseme Verwendung einer Gebärde einzuschrän-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
51
ken, indem die neue Gebärde nur noch für eine spezifische Bedeutung verwendet wird.
Besonders häufig ist dies in der ASL der Fall. In der DGS ist dieses Verfahren der
Gebärdenbildung nicht besonders produktiv und hauptsächlich auf den Einfluss der
ASL zurückzuführen. Ein Beispiel einer bereits konventionalisierten Neubildung ist die
Gebärde DIDAKTIK1 (). Bei dieser Gebärde wurde die Handform der
Gebärde UNTERRICHTEN1 () ersetzt durch die D-Handform aus dem Fingeralphabet. Im Gebärdenlexikon erhalten diese bereits konventionalisierten Gebärden
einen eigenen Eintrag. Zusätzlich wird eine Referenz auf zwei Types angelegt,
$ALPHA1 + UNTERRICHTEN1, aus denen sich diese Gebärde zusammensetzt. In der
Literatur werden diese Gebärden auch als initialisierte Gebärden bezeichnet (vgl.
Johnston 1989b:19 und Machabée/Dubuisson 1995). Der Begriff ‚Initialisierung‘ wird
in unseren Transkriptionskonventionen jedoch anders verwendet.
Initialisierte Gebärden
Wir verstehen unter einer initialisierten Gebärde nur spontan gebildete Gebärden, bei
denen die Handform mit einer einfachen Bewegung (hin- und herschütteln oder kreisen,
gerade Bewegung zur Seite oder nach unten) kombiniert wird. Initialisierung bezieht
sich nur auf die produktive, nicht konventionalisierte Verwendungen von Fingeralphabet-Handformen. In der Regel wird diese Gebärde mit einem Ablesewort ausgeführt, um einen Begriff oder einen Namen zu bezeichnen. Die Handform soll das Ablesen erleichtern, indem sie i. d. R. den ersten Buchstaben des Wortes wiedergibt. In der
DGS gibt es nur wenige Gebärden wie z.B. EUROPA1 () oder NOVEMBER7
(), die als initialisierte Gebärden lexikalisiert wurden. Token, die auf diese
produktive Verwendung des Fingeralphabets zurückzuführen sind, werden mit der
Sammelglosse $INIT etikettiert. Zusätzlich werden beim Token die Handform, die
Bewegung sowie der Buchstabe notiert, den die Handform repräsentiert.
Phonembestimmtes Manualsystem (PMS)
Insbesondere ältere Gehörlose verwenden Handzeichen aus dem PMS in einer ähnlichen Funktion wie das Fingeralphabet bei initialisierten Gebärden, d.h. diese Handzeichen dienen dazu, einzelne Buchstaben, vor allem die Anfangs- oder Endbuchstaben
von Wörtern, zu repräsentieren. Unter der Leitung von K. Schulte wurde Anfang der
1970er Jahre an der Forschungsstelle für Angewandte Sprachwissenschaft zur Rehabilitation Behinderter der Universität Heidelberg ein geschlossenes System von Handzeichen entwickelt, die die Phoneme des Deutschen repräsentieren, d.h. für jedes Phonem
gibt es ein Handzeichen, das „[…] dem Kind Auskünfte über den Bildungsort und die
Bildungsart der einzelnen Laute […]“ gibt (Lauck 1981:110; kursiv i. O.). Das PMS ist
in erster Linie als eine „Hilfe für das Sprechen“ (Schulte 1980:30) konzipiert worden.
Diese „‚Lautgebärden‘“ (Lauck 1981:110) wurden schon früher beim Artikulations-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
52
unterricht mit gehörlosen Kindern eingesetzt, aber erst durch Schulte wurde die Verbesserung der Sprechlehrhilfe durch diese Zeichen experimentell nachgewiesen. Sie sollen,
wenn auch in verkürzter Form, optische Informationen über den Sprechvorgang bieten.
Durch die grobmotorische Bewegung von Arm und Hand – alle PMS-Gebärden werden
einhändig ausgeführt – sollen die feinmotorischen Bewegungen der Sprechorgane gefördert
werden. Für den Unterricht wurden DIN-A4-große Kartenblätter entwickelt, die eine
Zeichnung des Handzeichens sowie die den Laut repräsentierenden Buchstaben zeigt.
Abb. 7: PMS-Zeichen (aus Gielen/Thöne 1974)
Der Einsatz der Schrift soll dazu beitragen, „in einem sehr frühen und konsequenten
Konditionierungsprozeß […] den instabileren Sprechablauf optisch-gedächtnismäßig
zusätzlich zu festigen und das selbsttätige laute Erlesen zu entwickeln“ (Gielen/Thöne
1974:6). Dennoch soll durch die Art der Präsentation im Unterricht deutlich gemacht
werden, dass die Zeichen nicht wie das Fingeralphabet die Buchstaben, sondern die
Laute repräsentieren. Durch die Bindung an einen Buchstaben bzw. eine Buchstabenfolge, die durch diese Kartenblätter erreicht wird, sind die PMS-Zeichen gleichzeitig
eine Ablesehilfe für die Gehörlosen. Den sprachpolitischen und methodisch-ideologischen Hintergrund der oralen Methode führt Bechinger (1969:62) als die eine Voraussetzung für das PMS an: „Der Erwerb der Lautsprache ist für die Eingliederung des
Gehörlosen in die hörende Umwelt unentbehrlich.“ Die zweite Voraussetzung ist die
Orientierung „an den Phonemen der jeweiligen Muttersprache, nicht aber an den Graphemen“. Wie sehr die Andersartigkeit der Gehörlosen, die mit Gebärdensprache
aufwachsen, ausgeblendet wurde, wird an der Verwendung des Begriffs ‚Muttersprache‘ in diesem Zitat deutlich.
Handzeichen, die auf das PMS zurückzuführen sind, werden mit der Sammelglosse
$PMS gekennzeichnet. Einige Handzeichen wurden lexikalisiert und werden als eigenständige Gebärden glossiert wie z.B. das PMS-Zeichen für den Zischlaut /S/ ()
das konventionell für die Bedeutungen „Fuß“, „Saft“ und „weiß“ verwendet wird, oder
für den Nasallaut /M/ (), das in der DGS zur Visualisierung der Wörter „nur“,
„wenn“ und „braun“ verwendet wird. Das im PMS für den Nasallaut /N/ vorgesehene
Handzeichen, bei dem Zeige- und Mittelfinger den einen Nasenflügel zuhalten, wurde
durch das einfachere /M/-Zeichen ersetzt, bei dem nur der Zeigefinger eingesetzt wird.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
53
DGS-Gebärden für deutsche Prä- und Suffixe
Es gibt eine kleine Anzahl von Gebärden, deren Verwendung konventionalisiert ist für
die Kontextualisierung deutscher Prä- und Suffixe, d.h. diese Gebärden treten immer in
Kombination mit weiteren Gebärden auf. In der Datenbank sind bisher Gebärden für
folgende Prä- und Suffixe erfasst: ab-, anti-, ent-, haupt-, heil-, -heit, -in (zur Markierung des Genus), -itis, -kunde, -logie, -los, mikro-, mini-, schwieger-, sonder- und stief-.
Glossen für diese Token, die zur Kontextualisierung von Prä- und Suffixen dienen,
beginnen mit ‚$WORTTEIL-‘ und werden danach spezifiziert durch das entsprechende
Suffix, z.B. $WORTTEIL-HEIT1A ().
Neu entwickelte Gebärden
Bei der korpusbasierten Erstellung von Fachgebärdenlexika wurden zur Übersetzung
von Fachbegriffen in die DGS, für die keine passenden Antworten in den erhobenen
Daten vorhanden waren, Gebärden aus erhobenen Gebärden neu kombiniert oder völlig
neue Gebärden entwickelt. Token für diese neu entwickelten Gebärden sind introspektiv
gewonnene Gebärden, die als Vorlage für die Studioproduktion der Gebärdenfilme
aufgenommen und in der Datenbank transkribiert wurden. Die Glossen dieser Token
beginnen immer mir ‚$NEU-‘ und werden i. d. R. durch den Fachbegriff, für den diese
Gebärde entwickelt wurde, spezifiziert, z.B. $NEU-ÖDIPUS1 ()31.
Zeigegebärden
Zeigegebärden werden als eine eigenständige Gruppe von Gebärden angesehen, da sie zur
Verortung von Redegegenständen im Gebärdenraum dienen oder eine deiktische Referenz
und damit eine spezielle grammatische Funktion übernehmen. Sie bilden eine Untergruppe
der indexikalischen Gebärden und werden in der DGS nur mit der Zeigefingerhand
ausgeführt. Die Token von Zeigegebärden werden mit der Sammelglosse $INDEX etikettiert.
Ein Sonderfall ist die Zeigegebärde, die auf den Mund zeigt, während ein Wort artikuliert wird. Damit soll die Aufmerksamkeit des Gesprächspartners auf das Ablesewort
gelenkt werden. Diese manuelle Aktivität erfüllt keine grammatische Funktion und hat
keine lexikalische Bedeutung. Sie dient der Absicherung der Verständigung und ist in
diskurs-pragmatischer Sicht ein zusätzlicher Kommentar des Sprechers zur Äußerung,
in diesem Fall bezogen auf das Ablesewort. Die Verwendungen dieser Zeigegebärde
sind für die Bedeutung „ablesen“ bzw. als Aufforderung an den Gesprächspartner, auf
die Mundbewegungen zu achten und das Wort abzulesen, konventionalisiert und
werden daher mit der Glosse LIES-AB1 () etikettiert.
31
Handform und Bewegung dieser neu gebildeten Gebärde sind der Gebärde KONKURRENZ1
() entnommen (Ödipus konkurrierte unbewusst mit dem eigenen Vater um die Liebe seiner Mutter), die Ausführungsstelle auf Stirnhöhe wird in der Amerikanischen Gebärdensprache (ASL)
mit „männlich“, „Mann“ assoziiert.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
54
Zur größeren Gruppe der indexikalischen Gebärden zählen alle Gebärden, die auf der
indizierenden Bilderzeugungstechnik beruhen (s. ➚ 4.2.1.6). Bei konventionellen und
produktiven Gebärden ist der Ort, auf den die Zeigehand – i. d. R. die Zeigefinger- oder
die Flachhand, auch Index genannt – zeigt, ausschlaggebend für die jeweilige
Bedeutung, die durch diese Gebärden ausgedrückt werden. Ein Beispiel für eine
konventionalisierte indexikalische Gebärde ist FINGER3 (), eine
produktive indexikalische Gebärde ist z.B. $MAN-ZUNGE10 (), d.h.
indexikalische produktive Gebärden werden wie alle anderen produktiven Gebärden mit
‚$MAN-‘ glossiert (s. Kap. 1.5.1.1.2). Typischerweise sind beide Bedeutungen auf den
Körper bezogen, da viele indexikalischen Gebärden genau dazu verwendet werden. Für
viele Organe oder anatomische Bezeichnungen des Menschen gibt es keine
konventionalisierten Gebärden, da der Körper als Modell immer präsent ist, an dem die
entsprechende Stelle oder der Sitz des Organs durch ein einfaches Zeigen benannt
werden kann.
Eine Überschneidung gibt es zwischen Zeigegebärden und Zahlgebärden für Ordinalzahlen beim Aufzählen von verschiedenen Punkten einer Liste oder Aufreihung zum
Strukturieren eines Textes. Dabei dient die passive Hand als Modell bzw. Platzhalter,
die aktive Hand zeigt mit der Zeigefingerhand auf den jeweiligen Finger, typischerweise beginnend mit dem Daumen in der Bedeutung „erstens“, „erster Punkt“. Die passive Hand kann entweder gleich zu Beginn den Umfang der Liste bzw. Aufzählung anzeigen, d.h. entsprechend eine 1-, 2-, 3-, 4- oder 5-Hand sein, oder sie verändert sich
entsprechend mit jedem hinzukommenden Punkt. Bei diesen Gebärden steht die Zählfunktion im Vordergrund. Sie visualisieren eine imaginäre Liste oder haben eine diskursgliedernde Funktion. Liddell (2003:223-242) nennt diese Gebärden „list buoys“ und
zählt sie zur Gruppe der Bojen, da i. d. R. die passive Hand über mehrere Gebärden hinweg gehalten wird. Diese physikalische Präsenz dient als konzeptueller Orientierungspunkt und hilft dem Gebärdenden, den Diskurs zu strukturieren.
Johnston/de Beuzeville (2008) haben diese Bezeichnung für ihre Transkriptionskonventionen übernommen. Wir gruppieren Vorkommen dieser Art von Gebärden zu den
Zahlgebärden und glossieren sie durch ein vorangestelltes ‚$NUM-LIST-‘ (s. u.). Durch
die Zuordnung zur indizierenden Bilderzeugungstechnik ist unabhängig von der
Glossierung ein schneller Zugriff auf alle konventionellen, produktiven sowie sonstigen
Gebärden möglich, die mithilfe dieser Technik gebildet werden.
Zahlgebärden
Ebenso wie das Fingeralphabet bilden die Zahlgebärden ein sekundäres Zeichensystem,
dessen Zeicheninventar begrenzt und weitgehend konventionalisiert ist, wenngleich die
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
55
Variationsbreite größer ist als beim Fingeralphabet.32 Es gibt Gebärden für die Kardinal- und Ordinalzahlen, die mit denselben Handformen, aber verschiedenen Bewegungen ausgeführt werden, sowie für römische Zahlen. Weiterhin können Handformen,
die die jeweiligen Zahlen repräsentieren, mit Bewegungen konventioneller Gebärden
kombiniert werden. Man spricht auch von sogenannten inkorporierten Gebärden oder
Verschmelzungen (blendings). In der Datenbank sind Vorkommen inkorporierter
Zahlgebärden bei den Gebärden für „Jahr“, „Monat“, „Woche“, „Tag“, „Stunde“,
„Uhr(zeit)“, „(Deutsche) Mark“, „Pfennig“ und „Stockwerk“ erfasst. Ebenso kann eine
Anzahl von mehreren Personen mithilfe der Handform für die Personenzahl und einer
kreisförmigen, horizontalen Bewegung ausgedrückt werden. Auch die mathematischen
Funktionen Multiplikation und Division werden durch inkorporierende Gebärden
repräsentiert. Im Unterschied zu echten Verschmelzungen, bei denen die beiden
Bestandteile der Gebärde eigenständige Lexeme sind wie z.B. bei der Gebärde
SCHREIBTELEFON1 (), ist die Bewegung bei inkorporierten Zahlgebärden kein
Lexem, sondern entspricht einem gebundenen Morphem und gibt z.B. die Zeitspanne
an. Die unflektierte Form, z.B. für „Woche“, ist formgleich mit der flektierten Form
„eine Woche“ mit der Handform für die Zahl Eins. Das Bildungsprinzip dieser
Gebärden ist analog zu initialisierten Gebärden (s.o.).
Bereits erwähnt wurde eine Sonderform der Ordinalzahlen, die in Form einer Auflistung
vorgenommen wird (s.o. Zeigegebärden). Durch die Handform der passiven Hand kann
der Umfang der Liste ausgedrückt werden, oder aber die passive Hand erweitert die Liste
durch das Ausstrecken eines weiteren Fingers. Die passive Hand wird gehalten, während
die aktive Hand den jeweiligen Finger berührt und dann weitere Gebärden ausführt.
Glossen für Zahlgebärden beginnen immer mit ‚$NUM-‘ und werden für die jeweilige
Zahl spezifiziert, z.B. $NUM-ACHT1A. Varianten werden wie bei konventionellen
Gebärden durch einen zusätzlichen Buchstaben nach der Zahl gekennzeichnet. Inkorporierte Zahlgebärden erhalten einen weiteren Zusatz vor dem Zahlwort, ebenso Glossen
für römische Zahlen, Ordnungszahlen und Aufzählungen in Listenform.
32
Von den knapp 300 erfassten Zahlgebärden gibt es zu 90 Gebärden 129 Formvarianten.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
56
Glosse
(vorangestellt)
Verwendung
Glosse
(vorangestellt)
Verwendung
$NUM
Zahlgebärde
Anzahl von
Personen
$NUM-BRUCH
$NUM-JAHR
$NUM-LIST
Nenner einer Bruchzahl
$NUM-MAL
$NUM-MARK
$NUM-MONAT
$NUM-ORD
Zahl + Multiplikation
$NUMPERSONENZAHL
$NUM-PFENNIG
$NUM-RÖM
$NUMSTOCKWERK
$NUM-STUNDE
$NUM-UHR
$NUM-WOCHE
Zahl + Jahr
Ordnungszahl in Form
einer Listenaufzählung
Zahl + DM
Zahl + Monat
Zahl + Pfennig
römische Zahl
33
Zahl + Stockwerk
Zahl + Stunde
Zahl + Uhrzeit
Zahl + Woche
Ordnungszahl
Tabelle 4: Glossen für Zahlgebärden
Gesten
Als Gesten werden Bewegungen der Hände, Arme und des Kopfes verstanden, die die
Kommunikation unterstützen oder auch ersetzen können. Gesten werden zu den Mitteln
der nonverbalen Kommunikation gezählt, d.h. sie sind negativ definiert als körperliches,
absichtsvolles oder unbewusstes kommunikatives Verhalten, das nichtsprachlich ist,
d.h. nicht Teil des Sprachsystems. Kendon (2008) weist darauf hin, dass dieses Verständnis von Gesten erst mit der Etablierung der Linguistik als eigenständige Disziplin
Ende des 19. Jahrhunderts aufkam, dies wiederum erst möglich wurde durch die
Reduzierung von Sprache auf das Segmentierbare und durch die Schrift Darstellbare
(s. ➚ 3.7.2). Zuvor hatten Philosophen und Anthropologen wie z.B. Condillac und Tylor
großes Interesse an Gesten und Gebärdensprachen gezeigt und Gesten als Teil des
menschlichen Sprachvermögens aufgefasst. Nach Kendon haben weiterhin die Schriften
von C. Darwin – Descent of Man (1871) und Expression of the Emotions in Man and
Animals (1872) – dazu beigetragen, dass Gebärdensprachen als primitives Gestikulieren
abgewertet wurden, da die Sprache, und damit war nur die orale Kommunikation
gemeint, den Menschen vom Tier unterscheidet und zur Entwicklung der intellektuellen
Fähigkeiten des Menschen geführt hat. McNeill (1985) gelang es mit seinem Aufsatz
„So you think gestures are nonverbal?“, das Interesse wieder auf die koverbalen oder
sprachbegleitenden Gesten zu lenken, indem er nachwies, dass Gesten zur Bedeutung
sprachlicher Äußerungen beitragen und zeitgleich mit den Wörtern im kognitiven
Prozess der Sprachverarbeitung entstehen. Sie sind Teil dieses unter dem Stichwort
thinking for speaking bekannten Prozesses, der im Rahmen der kognitiven Psychologie
und der Psycholinguistik große Beachtung fand. Diesem Forschungsansatz liegt die
Annahme zugrunde, dass bei der Sprachplanung und -produktion Bedeutung nicht nur
33
Durch der Umstellung der Währung im Jahr 2001 auf Euro und Cent wird diese Form, ebenso wie die
inkorporierte Form für „D-Mark“ nicht mehr benötigt. Mittlerweile haben sich für die Bedeutungen
„Euro“ und „Cent“ ebenfalls inkorporierende Zahlgebärden entwickelt. Ob diese bereits konventionalisiert sind, wird man nach Abschluss der Basistranskription im Rahmen des DGS-Korpus-Projekts
besser beurteilen können.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
57
in segmentierbaren sprachlichen Einheiten, d.h. in Wörtern, sondern auch in Bildern
kodiert wird. Diese Bilder drücken sich in Gesten aus, die oft schon vor den Wörtern
erkennbar sind (preparation phase) und deren Höhepunkt (stroke phase) zeitgleich mit
den Wörtern einsetzt. Im Unterschied zu sprachlichen Einheiten sind Gesten oft als holistische, nicht kombinierbare Einheiten beschrieben, deren Bedeutung stark vom Kontext abhängt und deren Form nicht konventionalisiert ist. Sie werden auch als idiosynkratisch bezeichnet, da die Gesten verschiedener Personen nicht gleich sind und auch
dieselbe Person Gesten immer etwas verschieden ausführt.
McNeill (1992) teilte die sprachbegleitenden Gesten in Anlehnung an die Zeichentheorie von C. Peirce in vier verschiedene Kategorien ein:
•
•
•
•
ikonische Gesten: Sie repräsentieren bildhaft ein konkretes Objekt oder eine
Handlung und sind ko-expressiv, d.h. sie ergänzen die sprachliche Information,
indem sie einen anderen Aspekt des Gegenstands oder der Handlung zeigen;
metaphorische Gesten: Sie geben abstrakte Inhalte in konkreten Bildern wieder,
z.B. indem eine Idee gehalten oder ergriffen wird, als ob sie ein Gegenstand wäre;
deiktische Gesten: Die prototypische Zeigegeste wird mit der Zeigefingerhand
ausgeführt und zeigt auf einen bestimmten Ort im Raum. Dadurch wird ein
Objekt oder eine Handlung verortet und in Beziehung gesetzt zu einem Referenzpunkt, dem Sprecher bzw. dem Aktanten. Zeigen (pointing) kann man
jedoch auch mit einem anderen Körperteil, z.B. dem Kopf, der Nase, den Lippen34, der Schulter, dem Ellbogen, dem Fuß oder mit dem Blick. Weiterhin kann
man nicht nur auf physikalisch anwesende Objekte zeigen, sondern auch auf
virtuelle Redegegenstände. McNeill (2005:40) stellt fest, dass dieses „abstract
pointing“ bei Erwachsenen wesentlich häufiger vorkommt als das Zeigen auf
vorhandene Dinge;
„beat“-Gesten: Sie werden in Anspielung an den Taktstock des Dirigenten auch
„baton“-Gesten genannt und beziehen sich auf eine rhythmische Bewegung der
Hand, die dem Sprechrhythmus folgt.
Später verwarf McNeill diese Einteilung, da diese Kategorien dazu verleiten, eine Geste
nur der einen oder der anderen Kategorie zuzuordnen. Tatsächlich haben die meisten
Gesten mehrere Facetten und lassen sich mehreren dieser Kategorien zuordnen, da z.B.
eine ikonische Geste auch deiktisch sein kann, eine deiktische Geste auch metaphorisch.
Welcher semiotische Aspekt überwiegt, ist schwer zu sagen, d.h. es lässt sich keine
hierarchische Ordnung herstellen. Daher schlägt McNeill vor, anstatt von Kategorien
von Dimensionen zu sprechen.
34
„Lip pointing“ als Form der Zeigegesten ist in der Nicaraguanischen Gebärdensprache konventionalisiert und wird systematisch verwendet wie manuelle Zeigegebärden (vgl. Obando 2000).
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
58
Die sprachbegleitenden Gesten fassen Ekman/Friesen (1969), die eine funktionale
Einteilung von Gesten aufstellten, unter die Illustratoren. Daneben gibt es Embleme, die
kulturspezifisch sind und eine festgelegte Bedeutung haben35, die Regulatoren, die zur
Steuerung der Interaktion dienen, z.B. indem man durch eine Geste eine Unterbrechung
der eigenen Sprechhandlung abwehrt, und die Adaptoren, die sich nicht auf den
Kommunikationsinhalt und die Interaktion beziehen lassen, sondern Ausdruck des
inneren Zustands des Sprechers sind, der sich z.B. in Handbewegungen zeigt, die als
nervös interpretiert werden.
Kendon (2008), der in seinen Überlegungen die Entwicklung der Gebärdensprachforschung resümiert und sich vor allem auf jüngere Arbeiten stützt, die die Ikonizität
und Graduierbarkeit von Gebärden in den Vordergrund stellen (Cuxac 2000, Liddell
2003a), geht die durch die Arbeiten von McNeill erreichte Rehabilitierung der Gestenforschung, die dazu geführt hat, dass gestisches Verhalten mittlerweile als universal und
als integraler Bestandteil sprachlicher Äußerungen angesehen wird, nicht weit genug.
Gesten werden immer noch als Zusatz angesehen, eine Sichtweise, die durch die skriptizistische Sprachauffassung diktiert wird. Die Erforschung der Gebärdensprache bietet
seiner Ansicht nach die Möglichkeit, sich von dieser Sichtweise zu lösen.
However, if there never had been a written form of spoken language, if all we could do
was to examine language only in its enacted form – which is all we can ever do if we
confine ourselves to sign languages – we might come to see how the add-on of gesture
is not an add-on at all, but a component integral to the functioning of the system, even
if it is a component whose contribution to this functioning may vary according to
communicative circumstance and speakers’ rhetorical aims. (Kendon 2008:358)
Emmorey (1999) dagegen beantwortet die Frage „Do signers gesture?“ im klassischen
Schema, indem sie Gesten als „add-ons“ von Lautsprachen ansieht und Gebärdensprache in der etablierten strukturalistischen Sicht beschreibt. Sie kontrastiert Eigenschaften
lautsprachbegleitender Gesten mit Eigenschaften von Gebärden und macht gestische
Elemente in der ASL aus, die durch Handzeichen, Körperhaltung bzw. -bewegung und
Gesichtsmimik ausgedrückt werden. Bei den manuellen Gesten unterscheidet sie
zwischen Zeigegesten, die nicht zum Pronominalsystem der ASL gehören, und ikonischen Handzeichen, die auch als Klassifikatorprädikate interpretiert werden könnten. Im
Unterschied zu sprachbegleitenden Gesten sind diese ikonischen Handzeichen stärker
nachahmend und konventionaliserter und können nur im Wechsel mit Gebärden
ausgeführt werden, da Gesten und Gebärden in demselben Medium artikuliert werden.
Heßmann (2001a:75) definiert Gesten als „Bewegungen der Arme und Hände […], wie
sie typischerweise die mündliche Kommunikation Hörender begleiten“ und führt damit,
wie auch schon Marchark (1994), als Unterscheidungsmerkmal gegenüber Gebärden die
35
Eine umfangreiche Zusammenstellung und Beschreibung solcher Embleme wurde von der Arbeitsstelle für Semiotik der TU-Berlin erarbeitet. Eine Zusammenstellung von 30 Gesten findet man unter
der URL: http://www.ims.uni-stuttgart.de/projekte/nite/BLAG/index.html.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
59
Zugehörigkeit zur Kommunikation Hörender an. Gehörlosen sind diese „nonverbalen“
sprachlichen Mittel Hörender unmittelbar zugänglich. Es ist daher auch nicht verwunderlich, dass Gesten Hörender eine Quelle der Gebärdenbildung sind (vgl. Becker
2003). Heßmann (2001a) merkt bei fast 10 % der über 900 Gebärden an, dass sie einen
möglichen gestischen Ursprung haben. Konventionalisierte Gebärden mit gestischem
Ursprung wie die Gebärde BLEIBEN1A () oder VOGEL-ZEIGEN, ein in
Deutschland bekanntes Emblem, werden jedoch als Gebärden und nicht als Gesten
klassifiziert.
Becker (2003:197-201) unterscheidet folgende fünf Verwendungsarten von Gesten:
• gesprächsregulierende Gesten,
• Gesten im Rahmen des expressiven Körperverhaltens, z.B. um eine bestimmte
Person zu repräsentieren,
• ikonische Gesten, die sich wie expressives Körperverhalten nur graduell von
produktiven Gebärden unterscheiden, z.B. eine skizzierende Gebärde/Geste in
der Bedeutung „sooo groß“),
• grammatikalisierte Gestik bzw. Mimik, z.B. zur Markierung eines Fragesatzes,
der Bejahung (Kopfnicken) oder Verneinung (Kopfschütteln),
• lexikalisierte Gesten, z.B. FAUST-ZEIGEN1 (), die konventionell für die
Bedeutungen „Kommunismus“ und „Feminismus“ verwendet wird.
Die Identifikation von Gesten ist eine ähnliche Gratwanderung wie zwischen etablierten
und produktiven Gebärden. Die Übergänge sind fließend, d.h. gradueller Natur. Abgesehen davon, dass Hörende diesselben oder sehr ähnliche körperliche Aktivitäten beim
Sprechen zeigen, werden Gesten negativ bestimmt als nichtkonventionelle Gebärden
(s. Kap. 6.1.1.1) und als nichtproduktive Gebärden (s. Kap. 6.1.1.2), da sie nur teilweise
segmentiertbar sind. Gesten sind zwar kulturspezifisch, es gibt jedoch, sieht man von
den Emblemen ab, innerhalb einer kulturellen Gemeinschaft keine auf Konvention
beruhende Verbindung zwischen der Form einer Geste und einer bestimmten
Bedeutung. Zum einen kann das gleiche gestische Verhalten je nach Kontext unterschiedlich interpretiert werden, zum anderen ist die Variation von Handbewegungen,
die zum Ausdruck von Gefühlen wie Angst, Wut oder Scham eingesetzt werden, groß.
Gesten werden als spontane, besonders ausdrucksstarke, ganzheitliche körperliche
Aktivität im Kontext interpretiert. Da sie jedoch wie produktive Gebärden ein Verhalten
oder eine körperliche Reaktion direkt visuell darstellen können, ist die Abgrenzung in
manchen Fällen schwierig. Heßmann (2001a:77) führt als Beispiel die Gebärde
AUGEN-ZU an, bei der die gebärdende Person kurz die Flachhand vor die Augen hält.
Da das Ziel der Glossentranskription die Lemmatisierung ist, besteht die Tendenz,
solche Gebärden als lexikalisch anzusehen, sobald die Vermutung aufkommt, dass diese
Form nicht idiosynkratisch gebildet wurde, sondern von mehreren Gehörlosen in der
Bedeutung „unbeirrt an einer Sache festhalten“ verwendet wird. Möglicherweise ist sie
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
60
durch die Redewendung „Augen zu und durch!“ motiviert und könnte daher auch als
sogenannte Spezialgebärde glossiert werden (s. Kap. 6.1.1.1).
Die Abgrenzung zu produktiven Gebärden ist ebenfalls problematisch. Emmoreys Bemerkung, dass manuelle gestische Elemente stärker nachahmend und konventionalisierter sind als Gesten Hörender, deutet darauf hin, dass die Tendenz besteht, Gebärden wie
AUGEN-ZU als produktive Gebärden, in Emmoreys Terminologie als Klassifikatorprädikate, zu identifizieren. Hoiting/Slobin (2007) weisen darauf hin, dass die Spracherwerbsforschung in Bezug auf den Erwerb produktiver Gebärden vor eine neue Herausforderung gestellt ist, da gehörlose Kinder im Unterschied zu hörenden Kindern im gestischen Verhalten ihrer Umgebung gleiche oder ähnliche ikonische Elemente vorfinden
wie in der Gebärdensprache, die sie beherrschen lernen. Zwischen dem „iconic enactment“ und der systematischen Bildung und Verwendung produktiver Gebärden scheint
es einen nahtlosen Übergang zu geben, der möglicherweise nicht bemerkt wird.
Handbewegungen, die die Interaktion steuern (Regulatoren), werden von uns als Gesten
identifiziert und mit der Sammelglosse $GEST gekennzeichnet. Zusätzlich wird die
Bedeutung der Geste im Kontext angegeben. Adaptoren werden nicht erfasst, da sie sich
nicht auf den Kommunikationsinhalt oder die Interaktion beziehen.
Neben Zeigegesten, die als Zeigegebärden identifiziert werden (s.o.), ist die am häufigsten identifizierte Geste die Offene-Hand-Geste, in Anlehnung an Ebbinghaus/Heßmann
(1994b) als $GEST-OFF () glossiert. Sie kann regulativ eingesetzt werden, häufig
am Ende einer Äußerung, und dem Gesprächspartner signalisieren, dass der eigene
Gedankengang zu Ende ist und er die Möglichkeit hat, diesen zu kommentieren, oder
als Unterbrechung und kurzes Innehalten. Sie dient aber auch als Ausdruck der eigenen
Ratlosigkeit, Unentschlossenheit oder der Enttäuschung. Heßmann (2001a:79) weist
darauf hin, dass die lexikalisierten Fragegebärden WAS und WO, beides konventionelle
Verwendungen der Gebärde WAS1 (), vermutlich von dieser Geste abgeleitet
sind und empirisch ein deutlicher Formunterschied dieser Gebärden zur gestischen
Ausführung schwer nachweisbar ist.
Eine weitere als Geste identifizierte Handbewegung ist die Visualisierung der Silbenanzahl von Wörtern, glossiert als $GEST-SILBE. Dabei kann die wiederholte bogenförmige Bewegung der Zeigefingerhand oder die wiederholte, versetzte Bewegung der
F-Hand nach vorne entweder unspezifisch mehrere Silben andeuten oder die Anzahl der
Silben genau angeben.
Als gestische Elemente werden Kopfbewegungen identifiziert, insbesondere das Kopfnicken ($GEST-KOPFNICKEN), das als Bejahung eingesetzt wird, und das Kopfschütteln ($GEST-KOPFSCHÜTTELN) in der Bedeutung einer Verneinung, wenn diese
Gesten ohne eine zeitgleich ausgeführte Gebärde vorkommen.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
61
Repräsentierender ganzheitlicher Körperausdruck
In einigen elizitierten Antworten werden Handzeichen zusammen mit einer entsprechenden Körperbewegung oder -haltung und einem mimischen Ausdruck ausgeführt,
die wesentlich zur Bedeutung der Gebärde beitragen. Diese wird durch ein ganzheitliches körperliches Verhalten repräsentiert. Zum Beispiel wird die Bedeutung „Gleichgewichtsstörung“ quasi-pantomimisch durch das seitliche Hin- und Herschwanken des
Oberkörpers mit zur Seite ausgebreiteten Händen dargestellt. Die Bedeutung kann auch
allein durch gestische und mimische Aktivität ausgedrückt werden wie z.B. bei der
DGS-Entsprechung für „Schleudertrauma“, bei der der Kopf ruckartig nach hinten
gezogen wird, oder „Hospitalismus“, die die typischen wiederholten kurzen Vor- und
Rückwärtsbewegungen des Oberkörpers zeigt. Dieser ganzheitliche Körperausdruck
wird im Glossennamen mit ‚$REP-‘ gekennzeichnet, ein Kürzel, das von Ebbinghaus/Heßmann (1994b) übernommen wurde, und durch die jeweilige Bedeutung spezifiziert, z.B. $REP-HOSPITALISMUS1 ().
Die angeführten Beispiele sind spontane Antworten von Informanten auf die Frage nach
DGS-Entsprechungen für Fachbegriffe und daher kontextarm, da sie nicht eingebettet
sind in eine zusammenhängende Äußerungssequenz. Da die Glossentranskription zum
Ziel hat, alle Äußerungseinheiten auf der lexikalischen Ebene zu identifizieren, müssen
Vorkommen, die durch einen ganzheitlichen Körperausdruck Kommunikationsinhalte
vermitteln, ebenso bei der Transkription von DGS-Texten glossiert werden. Anschließend kann eine quantitative und qualitative Analyse vorgenommen werden, die neben
mimisch-gestischen Elementen, auf die die Glossierung schon hinweist, insbesondere
den Äußerungskontext und das Blickverhalten des Gebärdenden berücksichtigen muss.
Auf der Diskursebene wird dieses „expressive Körperverhalten“ (Ebbinghaus/Heßmann
1989:89-91) in der Gebärdensprachforschung als ‚constructed action‘ (CA) bezeichnet
(Winston 1991, Metzger 1995). Diese Äußerungseinheiten sind fester Bestandteil gebärdensprachlicher Äußerungen und kommen im steten Wechsel mit konventionellen
Gebärden vor oder beziehen diese mit ein, unabhängig von der Textsorte, wenngleich
besonders häufig bei Erzählungen oder Schilderungen von Erlebnissen. Daher werde ich
Folgenden näher auf diese Äußerungseinheiten eingehen.
Ganzheitliches körperliches Ausdrucksverhalten ist der Grund, warum Gebärdensprachen zu Unrecht als Pantomime und damit als Nicht-Sprachen abgewertet wurden.
Ebbinghaus/Heßmann (1991) bezeichnen diese Sequenzen als „gebärdensprachliche
Inszenierung“, Heßmann (2001a:110) spricht vom „Prinzip der Körperdarstellung“,
durch das pantomimische Elemente in systematischer Weise in den gebärdensprachlichen Diskurs eingebunden werden. Hartmann (2006:5) führt noch weitere Bezeichnungen an, unter denen diese Ausdrucksform in Gebärdensprachen untersucht wurde:
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
62
Rollenwechsel bzw. Rollenspiel, Pantomime, role shift, body classifier, transfer of
person – im Original (Cuxac 2000) transfert de personne – und Action Performative.
Gestützt auf die Arbeiten von Metzger und Fischer/Kollien (2006) fasst Hartmann
(2006:75-78) die Merkmale der CA, die neben formalen immer auch inhaltliche
Kriterien beinhalten, zusammen. Demzufolge gehören zu den Formmerkmalen der
Körper des Gebärdenden, der ganz oder zum großen Teil an der Darstellung beteiligt ist,
und der Blick, der sich vom Gegenüber abwendet und zum Blick des Protagonisten wird
oder zu dem des Erzählers, der die Handlung zeitgleich kommentiert. Die Darstellung
muss inhaltlich in einen Kontext eingebettet sein, in dem es einen Protagonisten gibt,
dem die CA zugeschrieben werden kann. Ebenso muss es eine mentale Szene geben, die
entweder real stattgefunden hat oder fiktiv ist, in der die Handlungen des Protagonisten
stattfinden. Sind die letzten beiden Kriterien nicht erfüllt, dann handelt es sich um ein
gestisches Verhalten des Gebärdenden, das sich auf die aktuelle Situation bezieht.
CA ist als Gliederungseinheit des Diskurses anzusehen, da sie entweder ganz ohne
lexikalische Einheiten auskommt oder konventionelle und produktive Gebärden integriert und sich auch über mehrere Gebärden erstrecken kann. Insbesondere die räumlichen Parameter direktionaler Verben, so die These von Ebbinghaus (1996), werden in
Bezug auf den szenischen Gehalt einer Äußerung ausgeführt und können als syntaktisch
aufgeladene Vektoren beschrieben werden. Diese Inszenierungen übernehmen die
Funktion der Anschauung, nach dem Prinzip, dass Kommunikationsinhalte, die visuell
sichtbar gemacht werden können, mit geeigneten körperlichen Mitteln analog repräsentiert werden. Konventionelle Gebärden übernehmen die Funktion der Benennung
(vgl. Ebbinghaus/Heßmann 2000). Sie dienen dazu, virtuelle Objekte, Personen oder
abstrakte Redegegenstände einzuführen, die zum Aufbau der Inszenierung benötigt
werden. „Die harmonische Einheit von gebärdensprachlichen Szenarien und direktionalen Verben beruht letztlich auf dem ikonischen Potential von Gebärden“ (Ebbinghaus
1996:551).
Diese Sichtweise, hier bezogen auf direktionale Verben als Gegenstand der Untersuchung, deckt sich mit dem Beschreibungsansatz von Cuxac (s. ➚ 4.3.3), der in der
Ikonizität das Organisationsprinzip von Gebärdensprachen sieht, das mit dem aus der
Erforschung von verschrifteten Lautsprachen gewonnenen Instrumentarium der Linguistik nicht angemessen beschrieben werden kann. Cuxac teilt den gebärdensprachlichen
Diskurs ebenfalls in zwei Bestandteile ein, die im steten Wechsel vorkommen. Cuxac
(2000:29) spricht von „continuels passages“ oder „dem ständigen Kommen und Gehen
zwischen zwei Darstellungsweisen im gebärdensprachlichen Diskurs“ (Cuxac
2000:184; Übers. R. K.)36, was Sallandre (2001; 2003:120), die Cuxacs Beschreibungsansatz weiter ausbaut, übernimmt. Nach Cuxacs Theorie der ontogenetischen und
36
„[…] le va et vient discursif constant entre les visées“.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
63
phylogenetischen Entwicklung von Gebärdensprachen kommt es zu einer funktionalen
Aufspaltung in Äußerungsabschnitte, die Bedeutung nicht ikonisch, und solche, die das
Gemeinte absichtsvoll ikonisch darstellen. Für die nichtikonische Darstellung werden
die konventionellen Gebärden – Cuxac spricht von Standardgebärden („signes standards“) bzw. von „Wort-Gebärden“ („signes-mots“; Cucax/Pizzuto (2010:44) – eingesetzt, für die ikonische Darstellung die Strukturen der großen Ikonizität („structures de
grande iconicité“). Diese Strukturen teilt er in drei verschiedene Transfers ein. Da für
Cuxac manuelle Zeichen, mimisch-gestischer Ausdruck und Blick zusammengehören,
wobei der Blick konstitutiv ist für die Zuordnung manueller Zeichen zu den Transfers,
spricht er nicht von produktiven Gebärden und CA. Zwei dieser Transfers erfüllen
Funktionen, die sich in der Beschreibung produktiver Gebärden wiederfinden: Sie
zeigen ein Objekt so, wie es aussieht (Transfer der Größe und Form) oder wie es sich
bewegt (Transfer der Situation). Der dritte Transfer stimmt mit den Merkmalen der CA
überein: Der Gebärdende schlüpft in die Rolle eines Protagonisten und verhält sich so,
als ob eine Person etwas tut oder erlebt (Transfer der Person). Nach Cuxac entfaltet sich
das ikonische Potential von Gebärdensprachen auf allen sprachlichen Ebenen. Dadurch,
dass die meisten Gebärden ikonisch motiviert sind, ist der fließende Übergang von der
nichtikonischen Darstellungsweise – durch die Verwendung konventioneller Gebärden
– zu der ikonischen Darstellungsweise37 – durch die genannten Transfers – erst möglich.
Im Unterschied zu Ebbinghaus/Heßmann, die Gebärdensprachen als eine Kombination
verschiedener semiotischer Zeichensysteme ansehen, ist Cuxacs Anspruch, die ikonisch
motivierten Strukuren von Gebärdensprachen als sprachliche, d.h. linguistische Einheiten, zu rehabilitieren.
Artikulation eines Ableseworts ohne manuelle Form
Vorkommen, bei denen die Bedeutung ausschließlich durch das Ablesewort artikuliert
wird, d.h. ohne ein zeitgleich ausgeführtes manuelles Zeichen, werden mit der Sammelglosse $ORAL etikettiert. Dies ist z.B. der Fall, wenn die Informanten keine dazu
passende Gebärde finden können.
Überlagerung verschiedener Gebärden (Koartikulation)
Es gibt Sequenzen, bei denen die Handform einer Gebärde gehalten wird, damit die
nachfolgende Gebärde, mit der aktiven Hand ausgeführt, darauf Bezug nehmen kann.
Die gehaltene, passive Hand kann i. S. v. Liddells (2003) Bojen als konzeptueller
Orientierungspunkt dienen und damit den Diskurs strukturieren oder inhaltlich zur Bedeutung der mit der aktiven Hand ausgeführten Gebärde beitragen. Im letzteren Fall
37
Für Cuxac (2000) liegen die Standardgebärden außerhalb einer ikonisierenden Darstellungsweise
(„hors visée iconicisatrice“), die Transfers gehören zur ikonisierenden Darstellungsweise („visée iconicisatrise“). Sallandre (2003) spricht nicht von ikonisierender, sondern illustrativer Darstellungsweise
(„visée illustrative“).
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
64
handelt es sich um eine Koartikulation, die passive Hand wesentlich zur Bedeutung der
Gebärde beiträgt und nicht weggelassen werden kann. Handformen der passiven Hand,
die aus der vorangegangenen Gebärde stammen und gehalten werden, da sie entweder
die Funktion einer Boje haben oder inhaltlich zur Bedeutung der aktuell ausgeführten
Gebärde beitragen, werden mit der Sammelglosse $HOLD gekennzeichnet.38 Im Unterschied dazu werden zwei zeitgleich ausgeführte Gebärden durch die Angabe der
Glossen in der aktiven und der passiven Hand gekennzeichnet. Bleibt die Hand aus der
vorangegangenen Gebärde stehen, ohne in einem inhaltlichen oder funktionalen Bezug
zur aktuell ausgeführten Gebärde zu stehen, dann wird dies durch ein einheitlich
verwendetes HamNoSys-Symbol () beim Token als Formabweichung notiert.39
6.1.1.4 Modifikation lexikalischer Gebärden
Lexikalische Gebärden können in ihrer Form verändert werden, um die konventionalisierte Bedeutung dieser Gebärde zu spezifizieren oder zu erweitern. Diese bedeutungsrelevante Formveränderung wird Modifikation genannt. Sie kann durch die Veränderung eines oder mehrerer Parameter herbeigeführt werden oder durch die zweihändige
Ausführung einer einhändigen Gebärde. Der Zusammenhang zur Grundform ist durch
das der Gebärde zugrunde liegende Bild gegeben, da die Formveränderung immer mit
einer Veränderung des ikonischen Gehalts einhergeht (s. ➚ 4.2.2.5).
Viele Modifikationen ergeben sich dadurch, dass Gebärden im Gebärdenraum lokalisiert oder ausgerichtet werden. Sie dienen dazu, grammatische oder semantische Bezüge
herzustellen. Nach Ebbinghaus (1996) werden direktionale Verben in Bezug auf den
szenischen Gehalt einer Äußerung ausgeführt (s.o. 6.1.1.3: Repräsentierender ganzheitlicher Körperausdruck). In Abhängigkeit von der syntaktischen Funktion kann dasselbe,
von der Grundform abweichende Formmerkmal verschiedene Bedeutungen ausdrücken.
Zum Beispiel kann die wiederholte Bewegung einer verbal verwendeten Gebärde wie
BESCHEID1A (), häufig in Verbindung mit einer expressiven Mimik, die intensiviterative oder auch durative Aktionsart ausdrücken mit der Bedeutung „immer-wieder
Bescheid sagen“. Neben der Spezifizierung des zeitlichen Verlaufs und der Intensität
der Handlung kann die Wiederholung auch zur Pluralisierung genutzt werden, sowohl
bei nominaler als auch bei verbaler Verwendung von Gebärden. In Kombination mit
einer räumlich versetzten Wiederholung der Gebärde kann der Distributivaspekt von
Gebärden ausgedrückt werden (vgl. Heßmann 2001a:54-61). Im Unterschied zur ASL,
38
39
Da eine gehaltene Gebärde auch durch eine zweihändige Gebärdensequenz unterbrochen und im Verlauf der Äußerung wieder aufgenommen werden kann (resume hold), ist zur quantitativen und qualitativen Analyse solcher Hold-Sequenzen eine zusätzliche Annotation erforderlich, die Vor- und Rückverweise ermöglicht und somit bedeutungsseitig mehrere Hold-Glossierungen als eine Hold-Sequenz
erfasst.
Johnston/de Beuzeville (2008:18-19) unterscheiden ebenfalls zwischen bedeutungsrelevanter Koartikulation, die immer glossiert wird, und nicht bedeutungsrelevanter Artikulation der passiven Hand
(Spiegelung, Antizipation, Perseveration), die weder glossiert noch annotiert wird.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
65
in der nach Supalla/Newport (1978) eine verkürzte wiederholte Bewegung die
Derivation vom Verb zum Nomen markiert, scheint es in der DGS kein vergleichbares
formales Kriterium zu geben, das eine Kategorisierung von Gebärden zulässt. Nach
Johnston/Schembri (1999:148-153) ist in Auslan der Unterschied zwischen einer
verbalen und nominalen Verwendung ebenfalls nicht formal markiert. Die meisten
Gebärden sind multifunktional und können sowohl nominal, verbal oder in
adjektivischer Funktion verwendet werden.
In der Lautsprachlexikographie werden die verschiedenen Wortarten als einzelne
Lemmata aufgelistet, die flektierten Formen jedoch nicht, da sie anhand von Flexionsparadigmen, die in der Grammatik beschrieben sind, einer Stammform zugeordnet werden können. Die Unterscheidung zwischen einer Derivations- und einer Flexionsmorphologie ist daher entscheidend für die Lemmaselektion. Johnston/Schembri (1999:143144) weisen darauf hin, dass diese Unterscheidung in Gebärdensprachen oft nicht getroffen werden kann. Neben den bereits genannten Gründen, dass entweder das formale
Unterscheidungskriterium fehlt oder dieselbe Formveränderung in Abhängigkeit vom
Kontext verschiedene Bedeutungsaspekte ausdrücken kann, führen die Autoren als dritten Grund die Besonderheit von Gebärdensprachen an, dass jeder Formparameter wiederum bedeutungstragend sein kann, die Unterscheidung zwischen Phonemen und Morphemen eine Frage der Perspektive und eine direkte Analogie zu Strukturprinzipien von
Lautsprachen somit nicht gegeben ist. Ähnlich wie Erlenkamp (2000) für die DGS
stellen die Autoren für Auslan fest, dass die meisten Gebärden multifunktional sind. Die
Praxis der Glossierung darf nicht dazu führen, in unreflektierter Weise die Wortart des
als Glossennamen gewählten Wortes auf die damit etikettierte Gebärde zu übertragen
(s. ➚ 3.7.4).
Analog zu Wörtern unterscheiden Johnston/Schembri (1999:142-176) zwischen einer
internen und einer externen Modifikation. Bei der internen Modifikation einer Gebärde
werden einer oder mehrere Formparameter – die Autoren sprechen von fünf Phonomorphemen oder Komponenten, die neben den vier manuellen Parametern auch die nonmanuelle Komponente umfassen – verändert. Zusätzlich kann eine Modifikation auch
durch die Veränderung der Anzahl der Hände erreicht werden. Zum Beispiel kann eine
zweihändige Ausführung einer in ihrer Grundform einhändigen Gebärde eine Intensivierung bewirken. Johnston & Schembri teilen die interne Modifikation wiederum ein
in Veränderungen in Bezug auf die Lokation, die Art und Richtung der Bewegung oder
die Orientierung sowie auf nonmanuelle Merkmale und Veränderungen in Bezug auf
die Handform und signifikante Ausführungsstellen am Körper oder im Gebärdenraum,
da letztere häufiger zu Lexikalisierungen führen als erstere. Ein Beispiel aus der DGS
ist die Gebärde SCHNEIDEN2D (), die konventionell für „Operation, operieren“ verwendet wird. Am Unterkörper ausgeführt, kann sie die Bedeutung „Operation am Unterkörper“ ausdrücken und damit eine Modifikation der Gebärde SCHNEI-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
66
DEN2D sein, aber auch „Kaiserschnitt“, da dieser Eingriff durch eine Operation am
Unterkörper ausgeführt wird. Ähnlich wie bei produktiven Gebärden können die Formparameter dieser Modifikation vollständig interpretiert werden als „mit einem länglichen Gegenstand am Unterkörper entlangfahren“, die lexikalisierte Bedeutung „Kaiserschnitt“ ist jedoch wesentlich spezifischer und nicht aus der Kombination der Einzelbedeutungen der Formparameter ableitbar. Dieses Prinzip der spezifizierten Bedeutung
(Johnston/Schembri 1999:146) ist der entscheidende Grund, warum diese Modifikation
als eigenständiges Lemma einen Eintrag im Wörterbuch erhält.
Zur externen Modifikation zählen die Komposition und die Affigierung, d.h. eine
sequenzielle Artikulation verschiedener Gebärden oder eine Kombination aus Gebärde
und zusätzlichem Morphem. Abgesehen von inkorporierenden Zahlgebärden
(s. Kap. 6.1.1.3) und der inkorporierten Negation wird in der DGS die Möglichkeit,
durch Hinzufügen von Prä- oder Suffixen die Bedeutung zu verändern, nicht genutzt.
Ebenso sind Komposita-Bildungen selten. Im Unterschied dazu sind Komposita in
Auslan oder ASL häufiger, besonders in Form sogenannter Blendings (engl. blends), bei
denen zwei Gebärden zu einer neuen Gebärde verschmelzen, d.h. die beiden Gebärden
werden nicht vollständig nacheinander artikuliert, sondern Formparameter der einen
Gebärde werden durch Formparameter der anderen Gebärde ersetzt. Ein oft zitiertes
Beispiel aus der ASL ist die Gebärde HOME, bei der die Gebärden EAT und SLEEP zu
einer neuen Gebärde verschmolzen sind.
Abb. 8: ASL-Gebärde HOME40, entstanden aus den Gebärden für „essen“ und „schlafen“41
Ist die Bildung der neuen Gebärde aus zwei bereits vorhandenen Gebärden nicht mehr
aktiv im Sprachbewusstsein der Sprecher präsent, dann ist eine gesicherte etymologische Herleitung nur dann möglich, wenn es historische Quellen gibt, die die Existenz
der beiden Ausgangsgebärden belegen. Eines der seltenen Beispiele in der DGS ist die
Gebärde SCHREIBTELEFON1 (), die aus den Gebärden TASTATUR1 ()
und TELEFON1A () gebildet wurde.
40
41
Entnommen aus Humphries et al. (1994:38).
Entnommen aus Sternberg (1981:336).
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
67
Abb. 9: DGS-Gebärde SCHREIBTELEFON
Die bisherigen Ausführungen haben gezeigt, dass Modifikationen zu Prozessen der
Grammatikalisierung und Lexikalisierung führen können. Es gibt jedoch auch eine
entgegengesetzte Entwicklung, die als Reikonisierung bezeichnet wird und zur Delexikalisierung einer ikonischen konventionellen Gebärde führt. Becker (2003:186)
spricht auch von unsystematischer Modifikation, da die „[…] Bedeutung nicht auf der
Grundlage der Semantik des zugrundeliegenden Lexems oder der formalen Veränderung vorhersagbar ist“. Im Unterschied zu anderen Autoren, die von idiosynkratischer
oder idiomatischer Derivation sprechen, zählt sie die ikonische Modifikation, bei der
„[…] das ikonische Potential, das auch noch vielen bereits lexikalisierten Gebärden
zugrunde liegt, quasi ‚zu neuem Leben erweckt‘ w[ird]“ (Becker 2003:190), nicht zur
Derivation, da die morphologischen Prozesse sich zum Teil erheblich von Derivationsprozessen in Lautsprachen unterscheiden. Ikonische Modifikationen weisen ähnliche
Merkmale auf wie produktive Gebärden: Sie werden ad hoc gebildet, sind häufiger von
mimischen und gestischen Signalen begleitet, ihre Bedeutung erschließt sich nur im
Kontext. Hinzu kommt, dass der Blick in der Regel auf die Hände gerichtet ist. Für Cuxac
(2000:45) ist dieser auf die Hände gerichtete Blick das entscheidende Kriterium, das aus
einer nichtikonischen eine remotivierte ikonische Verwendung einer Gebärde macht.
Im Unterschied zu Becker, die das Unsystematische, nicht aufgrund morphologischer
Regeln Ableitbare solcher Modifikationen betont und deren Beschreibung auf die
semantische Ebene verlagert, ermöglicht die von uns entwickelte Analyse ikonischer
Gebärden ein differenzierteres Bild (s. ➚ 4.2.1). Langer (2005) beschreibt sechs Bilderzeugungstechniken, die sowohl bei produktiven Gebärden wie bei Modifikationen
ikonischer konventioneller Gebärden eingesetzt werden, um über die Visualisierung
eine bestimmte Bedeutung zu kodieren.
Bei einer Modifikation werden die vorhandenen strukturellen Ähnlichkeiten
[zwischen Gebärdenform und Referenzobjekt; R. K.] genutzt und an den konkreten
Verwendungskontext angepasst. Sind bei einer bestimmten konventionellen Gebärde
Modifikationen möglich, dann kann man daraus sicher schließen, dass das neu
aktivierte Bild der Gebärde Aspekte des Gemeinten anschaulich darstellt. Aufgrund
der gegebenen Ikonizität und unter Berücksichtigung des Kontextes ist bei
Modifikationen eine Bildinterpretation meist ebenso sicher möglich wie bei
produktiven Gebärden. (Langer 2005:268-269)
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
68
Durch die Bilderzeugungstechnik sind die Modifikationsmöglichkeiten eingeschränkt.
So kann die Gebärde RÜHREN1 (), die mithilfe der manipulativen Technik das
Umrühren mit einem Kochlöffel visualisiert, dazu verwendet werden, die Art des Rührens (schnell oder langsam) zu modifizieren oder den Gegenstand, in dem gerührt wird
(die nichtdominante Hand kann z.B. einen großen oder kleinen Topf oder den Topfboden repräsentieren). Die Bedeutungen, die mit der lexikalisierten Gebärde RÜHREN1
ausgedrückt werden, sind „rühren“, „umrühren“, „verrühren“, „kochen“, „Küche“,
„Koch“, „Kochlöffel“ und „Eintopf“. Die Bedeutung „große Küche“ kann jedoch nicht
durch eine Modifikation dieser Gebärde ausgedrückt werden, z.B. indem eine große
kreisförmige Bewegung ausgeführt wird, da bei der manipulativen Technik die Hand
immer eine Hand repräsentiert, die agiert oder einen Gegenstand manipuliert. Anders
als bei der skizzierenden Technik dienen Hand und Bewegung nicht dazu, die Form
eines Gegenstands in die Luft zu zeichnen. Im Unterschied dazu kann bei der
skizzierenden Gebärde HAUS1A () die Bewegung dahingehend modifiziert werden, dass ein großes Haus visualisiert wird, indem die Bewegung entsprechend
größer ausgeführt wird. Insofern ist die erwartbare Bedeutungsveränderung bei Modifikationen nicht unsystematisch, sondern festgelegt durch die Bilderzeugungstechnik, die
die Mittel vorgibt, mithilfe derer die Gebärdenform verändert wird, um eine bestimmte
Bedeutungsveränderung zu erreichen. Das Wissen um das ikonische Potential von
Gebärden sowie die Möglichkeiten, wie dieses Potential genutzt werden kann zur
Kodierung von Bedeutung, ist Teil der metasprachlichen Kompetenz von
Muttersprachlern, die von L2-Lernern erst erworben werden muss.
Modifikationen einer Gebärde erhalten den gleichen Glossennamen und die gleiche
erste Ziffer wie die Grundform, zusätzlich wird jedoch noch eine weitere Ziffer angehängt, um die Modifikationen von ihrer Grundform und verschiedene Modifikationen
derselben Grundform voneinander zu unterscheiden, z.B. SCHNEIDEN28D (
zusammen mit dem Ablesewort ‚obduktion‘ in der Bedeutung „Obduktion“ verwendet).
Modifikationen wurden wie die Grundformen als Types – als „Gebärde“ oder
„Lexem“ – angelegt. Dieses Vorgehen wurde seit den Transkriptionen für das Fachgebärdenlexikon Tischler/Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998; TLex;
1996-1998) beibehalten, da es sich als praktisch erwiesen hatte, über die Gebärdenbzw. Lexemliste direkt auf die Modifikationen zugreifen zu können. Mit Beginn der
Transkription für das DGS-Korpus-Projekt wird die Datenbankstruktur dahingehend
überarbeitet, dass die Modifikationen als „qualified types“ den Grundformen
zugeordnet und nicht mehr über die Gebärden- bzw. Lexemliste sichtbar sind. Die
Formabweichung wird durch ein erweiterbares Set von Merkmalsausprägungen näher
bestimmt wie z.B. die Wiederholung bei nominalen Verwendungen, die den Plural
ausdrücken können oder die Ausrichtung und Lokation bei verbalen Verwendungen
sowie Formveränderungen, die z.B. einen graduellen Aspekt wiedergeben. Diese
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
69
Beschreibung der „qualified types“ wird automatisch zum Glossennamen hinzugefügt.
Dadurch ist nicht allein durch die HamNoSys-Notation, sondern auch durch den
Glossennamen erkennbar, um welche Formabweichung von der Grundform es sich
handelt. Weiterhin ermöglicht dieses Vorgehen, in einem späteren Schritt grammatische
und semantische Modifikationen eines Types zu bestimmen. Lexikalisierte
Modifikationen erhalten eine eigenständige Glosse, z.B. KAISERSCHNITT1
(). Der etymologische Bezug zur Grundform SCHNEIDEN2 wird in der
Datenbank durch einen Verweis (formähnlich: ähnliches Bild) auf den Eintrag
SCHNEIDEN2 sichergestellt.
6.1.1.5 Variation lexikalischer Gebärden
Während bei der Modifikation der Gebärdende die Form einer konventionellen Gebärde
bewusst verändert wird, um eine spezifischere Bedeutung auszudrücken, handelt es sich
bei Varianten um verschiedene Gebärden, die dieselbe lexikalische Bedeutung haben, d.h.
sie sind im Äußerungskontext prinzipiell austauschbar, ohne dass sich die Bedeutung der
Äußerung ändert. Dass Wörter nie absolut bedeutungsgleich sind, da sie sich z.B. in der
Konnotation oder der regionalen Verbreitung unterscheiden, trifft sicherlich auch auf
Gebärden zu. Im Unterschied zu Wörtern ist die Bedeutung von Gebärden jedoch durch
das Ablesewort und den ikonischen Bezug zum Gemeinten abgesichert. Dies begünstigt
eine erhebliche Variation der Form (vgl. Ebbinghaus 1998a:607). Hinzu kommt, dass
durch das Fehlen einer Gebärdenschrift Standardisierungs- und Normierungsprozesse auf
lexikalischer Ebene bisher kaum ausgeprägt sind. Da Gebärdensprachen Nähesprachen
sind, ist die Verständigung immer auch durch kontextuelle Bezüge abgesichert, sodass
eine höhere Variation als in Lautsprachen nicht als Kommunikationshindernis empfunden
wird. Anhand des Kriteriums der Formähnlichkeit bzw. Formverschiedenheit lassen sich
phonologische Varianten, in König et al. (in Vorb.) auch Ausführungsvarianten genannt,
und lexikalische Varianten, auch Synonyme genannt, unterscheiden.
Phonologische Varianten (Ausführungsvarianten)
Lucas et al. (2001a:178-180), die im Rahmen einer soziolinguistischen Untersuchung
zur ASL auch die lexikalische Variation von 34 Gebärden untersuchten, gehen auf das
Problem ein, dass es für die Einteilung in lexikalische oder phonologische Varianten
keine harten, eindeutigen Kriterien gibt. Im Unterschied zu lexikalischen Varianten sind
phonologische Varianten – Lucas et al. sprechen auch von (echten) Varianten, die sich
anhand ihrer Formen nicht aufeinander beziehen lassen, und Subvarianten – formähnlich und unterscheiden sich i. d. R. nur in einem Parameter, häufig in der Handform.
Johnston/Schembri (1999:142) legen den Formunterschied bei phonologischen Varianten auf ein bis zwei Parameter fest. Sie ergänzen, dass diese Form der Variation im
Prinzip als ein Artikulationsphänomen angesehen werden kann:
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
70
„A variant is an alternative form of a lexeme which differs in only one or two
aspects from the standard form with minimal, if any, change in meaning. The variant
is essentially an alternative pronunciation.“
Ähnlich wie in ASL besteht die Variation meistens in einer Handformveränderung, die
eine Veränderung der Orientierung bedingen kann. Die Parameter Bewegung und
Ausführungsstelle werden nicht so häufig variiert.
Troelsgård/Kristoffersen (2008:659-662) versuchten für das elektronische dänische
Gebärdenwörterbuch42 die phonologische Variation durch eine feste Regel einzugrenzen, nach der nur einer der vier Parameter verändert sein darf. Sobald zwei Parameter
von der Variation betroffen waren, wurden diese Gebärden als Synonyme behandelt. In
einigen Fällen wurde dieses strikte Vorgehen jedoch von den gehörlosen Mitarbeitern
als kontraintuitiv empfunden, was Ausnahmen zur Folge hatte. Weiterhin wurde ein
Formunterschied, der lediglich in einer zusätzlichen Wiederholung, in der Händigkeit
(einhändige vs. zweihändige Ausführung) oder in der Variation der Bewegungsrichtung
(symmetrisch vs. gegenläufig) bestand, nicht als phonologische Variation gewertet.
Für die Transkription der elizitierten Antworten in den verschiedenen Fachgebärdenlexikon-Projekten ziehen wir die letztgenannten Formunterschiede nicht als Kriterien
für die Festlegung von Ausführungsvarianten heran, sondern vermerken diese möglichen Formabweichungen als Kommentar zum Gebärdeneintrag. Als Faustregel gilt die
Abweichung in ein bis zwei Parametern, die einen eigenen Eintrag in der Datenbank
rechtfertigt, vorausgesetzt es handelt sich nicht um eine einmalige individuell oder
situationsbedingte Formabweichung, sondern um ein inter- oder intraindividuell regelmäßig wiederkehrendes Muster. Ebenso darf durch die Formveränderung der ikonische
Gehalt der Gebärde nicht verändert werden, d.h. dass sich Ausführungsvarianten immer
auf dasselbe zugrunde liegende Bild beziehen lassen. Eine Formveränderung durch
Stilisierung ist möglich und kann i. d. R. durch den Vergleich von Gebärden bestimmt
werden. Weiterhin wurde, im Unterschied zu Troelsgård & Kristoffersen, die Variation
der Handform der nichtdominanten Hand (symmetrische vs. nichtsymmtrische Handform bei Zweihandgebärden) immer als Variation behandelt. Da wir i. d. R. keine Anhaltspunkte haben, nach denen wir bestimmen könnten, welche Form die Ausgangsgebärde und welche die davon abgeleitete Variante ist, werden in der Glossierung
alle Gebärden durch Hinzufügen eines Buchstabens nach der Zahl als Ausführungsvarianten gekennzeichnet. Zum Beispiel gibt es für die Bedeutung „Frau“ neben
etlichen Synonymen (s.o. 6.1.1.1) zwei Ausführungsvarianten, FRAU3A () und
FRAU3B (). Bei beiden Gebärden wird mit der Hand am Ohr ein Ohrring oder
Ohrclip angedeutet. Dagegen sind Ausführungsvarianten im Auslan-Dictionary
(Johnston 1989b) als Lemmata mit einem Verweis auf den Haupteintrag angelegt.
42
Online verfügbar seit Mai 2008 unter der URL: http://www.tegnsprog.dk/.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
71
Lexikalische Varianten (Synonyme)
Im Unterschied zu phonologischen Varianten unterscheiden sich lexikalische Varianten
deutlich in ihrer Form, die zugrunde liegenden Bilder sind entweder verschieden oder
werden durch eine andere Bilderzeugungstechnik visualisiert (s. ➚ 4.2.1). Die Gebärden
werden als Synonyme angesehen, da sie dieselbe konventionalisierte Bedeutung haben
und in gleichen sprachlichen Kontexten gegeneinander austauschbar sind. Ähnlich wie
bei Wörtern ist die Synonymie nicht total, sondern eingeschränkt, da Gebärden entweder regional verschieden sind oder eine unterschiedliche soziolinguistische Konnotation haben.
Lexikalische Variation wird durch das ikonische Bildungsprinzip von Gebärden begünstigt, da sich verschiedene ikonische Bezüge zwischen Gebärdenform und Referenzobjekt gleichermaßen anbieten. Zum Beispiel wird bei den verschiedenen Gebärden für
„Pfeffer“ durch die den Gebärden zugrunde liegenden Bilder „schütten“ (PFEFFER1,
konventionelle Verwendung der Gebärde SCHÜTTEN1A ), „mahlen“ (PFEFFERMÜHLE1, konventionelle Verwendung der Gebärde KURBELN1A ),
und „scharfer Geschmack“ (PFEFFER3, konventionelle Verwendung der Gebärde
SCHARF2 () auf verschiedene Aspekte des Gemeinten Bezug genommen.
Durch die Lexikalisierung können ikonische Bezüge in der Gebärdenform konserviert
werden, die durch die fortschreitende technische Entwicklung schon längst als überholt
gelten wie z.B. bei der Gebärde für „Fernseher“. Das Drehen an Knöpfen, an das die
Gebärde erinnert, ist bei modernen Fernsehgeräten nicht mehr möglich. Üblicherweise
werden Tasten auf einer Fernbedienung gedrückt, um den Fernseher einzuschalten oder
das Programm zu wechseln. Dafür hat sich mitlerweile eine andere Gebärde etabliert,
die auch in der Bedeutung „Fernseher“ verwendet wird.
Das gleiche zugrunde liegende Bild kann auch mithilfe verschiedener Bilderzeugungstechniken visualisiert werden wie z.B. bei den Gebärden KRIPPE2 () und
KRIPPE3 (), die in der wörtlichen Bedeutung „(Futter-)Krippe“ und in der
übertragenen Bedeutung „Krippe“ als Tageseinrichtung für Kleinkinder verwendet werden. Die unterschiedliche Bilderzeugungstechnik, bei KRIPPE2 stellen die überkreuzten
Arme die Beine der Krippe dar, bei KRIPPE3 zeichnen die Flachhände die überkreuzten
Beine einer Krippe in die Luft, führt zu zwei deutlich verschiedenen Gebärdenformen.
Wie aus den bereits genannten Beispielen deutlich wird, werden lexikalische Varianten
durch denselben Glossennamen und eine zusätzliche, verschiedene Ziffer glossiert. Die
Vergabe der Ziffer ist zufällig bzw. durch den Zeitpunkt des Anlegens der Types in der
Datenbank bestimmt. Die Zahl erhöht sich bei Bedarf fortlaufend. Sie kodiert keine
Auswertung i. S. v. z.B. meist verwendete Gebärde. Da Synonymie ebenso wie Antonymie oder Hypo- bzw. Hyperonmyie eine semantische Relation zwischen Gebärden
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
72
darstellt, sollte sie langfristig in der Datenbank als Relation zwischen zwei Types
angelegt werden und nicht nur über den Glossennamen erschließbar sein.
6.1.1.6 Überblick über Glossierungskonventionen und Vergleich
Nach der ausführlichen Darstellung der einzelnen Kategorien, ihrer Kriterien, nach
denen die Token-Type-Zuordnung vorgenommen wird, und den Kodierungskonventionen, die sich vor allem in der Art der Glossierung niederschlagen, soll im folgenden
Überblick eine Zusammenschau der im Rahmen der Fachgebärdenlexikon-Projekte entwickelten Glossierungskonventionen gegeben werden. Gleichzeitig werden im Vergleich und als Ergänzung dazu andere, meist online zugängliche Transkriptionskonventionen43 gezeigt. Die Tabelle „Transkriptionskonventionen im Vergleich“44 ist nach der
groben Einteilung in konventionelle und produktive Gebärden sowie sonstige Gebärden
bzw. Zeichensysteme gegliedert. Hinzu kommen Kodierungskonventionen für
nonmanuelle Aspekte sowie grammatische Klassifikationen, die sich nicht auf die
Glosssierung, sondern auf Annotationen in zusätzlichen (abhängigen) Spuren (tiers)
beziehen. Die Anzahl und Art der für die Transkription angelegten Spuren werden
immer in Abhängigkeit vom Zweck der Korpuserstellung und weiteren spezifischen
Fragestellungen festgelegt. Daher ist das Ziel der Transkription bzw. Annotation den
weiteren Ausführungen immer vorangestellt. Weiterhin wird das Annotationswerkzeug
genannt, da dies ebenfalls die Transkriptionskonventionen beeinflusst. Das Annotationswerkzeug soll die Modellierung und Klassifizierung sprachlicher Einheiten
unterstützen und durch geeignete graphische Darstellung die Dateneingabe erleichtern
sowie durch geeignete Suchfunktionen eine effiziente Datengewinnung ermöglichen
(s. ➚ 3.8). Untersuchungsziel, theoretische Annahmen, Modellierung und notwendige
Konventionen sind eng aufeinander bezogen. Zum Beispiel hat die Entscheidung,
welche Informationen in der Glossen-Spur (engl. gloss tier) kodiert werden und welche
in davon abhängigen Spuren, direkten Einfluss auf die Glossierungskonventionen.
Dementsprechend müssen auch die Suchstrategien angepasst werden.
Zum Vergleich wurden gut dokumentierte Transkriptionskonventionen herangezogen,
die anhand großer Datenmengen erprobt wurden mit Transkriptionswerkzeugen, die in
der internationalen Gebärdensprachforschung bekannt und verbreitet sind. Alle diese
Werkzeuge ermöglichen die Alignierung, d.h. den direkten Zugriff von der Annotation
auf den dazugehörigen Abschnitt in den Rohdaten und können als XML-Dateien weiterverarbeitet werden. Dadurch ist es möglich, Dateien in verschiedene Formate, die die
43
44
Transkriptionskonventionen werden während eines Forschungsprojekts ständig überarbeitet. Die für
das Auslan-Korpus aktuell verwendeten Konventionen (s. Johnston 2010a). werden unter der URL:
http://www.auslan.org.au/about/annotations/ zur Verfügung gestellt. Änderungen zu früheren Konventionen (s. Johnston/de Beuzeville 2008) sind in den Transkripten bereits nachvollzogen. Auszüge
aus diesen Konventionen sind in Johnston (2008a, 2010b) enthalten.
S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/ TranskrKonv_Vergleich.pdf.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
73
jeweiligen Programme benötigen, zu konvertieren. Eine Verbindung zwischen Annotationsprogramm und lexikalischer Datenbank, die die konsistente Identifikation sprachlicher Einheiten wesentlich unterstützt, ist nur bei iLex gegeben. Für die Transkription
der Daten im Endangered Languages Documentation Project steht eine von ELAN
unabhängige lexikalische Datenbank zur Verfügung, die die Grundlage für das AuslanWörterbuch (Johnston 1998a/b) sowie die Auslan Signbank45 ist. Weiterhin betonen alle
Autoren die Notwendigkeit einer konsistenten Identifizierung lexikalischer Gebärden
im Sinne einer Lemmatisierung. Die Umsetzung dieses Anspruchs wurde bei den Transkriptionen für die Fachgebärdenlexikon-Projekte durch den Aufbau einer lexikalischen
Datenbank seit 1996 realisiert, das Konzept der ID-Glossen wurde von T. Johnston erst
nach der Durchführung des Projekts Sociolinguistic Variation in Auslan: Theoretical
and Applied Dimensions (2003-2004) entwickelt. Die kurzen Projektlaufzeiten und das
Ziel, zumindest minimal annotierte Gebärdensprachdaten zur Verfügung zu stellen,
führen dazu, dass Anspruch und Wirklichkeit bzw. Umsetzung nicht immer in
Übereinstimmung gebracht werden können. Dies zeigen am deutlichsten die
Ausführungen von Crasborn/Zwitserlood (2008b:4; kursiv i. O.):
The glosses in the annotation files in the Corpus NGT are intended to indicate the
exact start and end time of the signs, as well as to refer to a lexicon. Thus, the
glosses are not actual translations; in the ideal case they are pointers to lemmas in a
lexicon. Because of the fact that there is no common orthography for sign language
nor a practical, much used phonetic notation system, Dutch words have been used as
a reference. They approach (one of) the meaning(s) of the signs; however, the real
meanings of the sign forms are described in the lexicon, not by the gloss. Exceptions
to this rule are non-lexicalised forms that, in the gloss, are preceded by a @character (see under #4 below).
Although it was our intention to use glosses referring to a lexicon, for reasons of
efficiency it was not possible to always consult the lexicons of the Dutch Sign Centre
(NGc) on DVD or on the internet. Because of this, the glosses in the first release will
contain many inconsistencies; the user of the annotations be aware of this.
Die Idee der ID-Glossen von Johnston (2008a/b) wird in diesem Zitat aufgegriffen,
indem die Funktion der Glossen eingeschränkt wird auf die einer Referenz auf den
entsprechenden Eintrag im Wörterbuch. Gleichzeitig wird klargestellt, dass die Bedeutung eine Information des Types ist, d.h. beim Lemma im Wörterbuch zu finden ist, und
nicht im Glossennamen. Dass diese Sicht sich noch nicht durchgesetzt hat, zeigen die
Konventionen für SignStream, wo der Glossenname erweitert wird, wenn mehrere
englische Entsprechungen mit derselben Gebärde ausgedrückt werden können, z.B.
BOLD/TOUGH oder FIND/FIND-OUT. Skant et al. (2001:100-101) erwietern den
Glossennamen ebenfalls für Gebärden, die für semantisch zusammengehörige Bedeutungen verwendet werden oder im Falle sogenannter multifunktionaler Gebärden, die
sowohl als Nomen als auch als Verb verwendet werden können. So verwenden sie
Glossen wie UNIVERSITÄT/GYMNASIUM und ANKUNFT/ANKOMMEN. Die Tatsache,
dass durch dieselbe Gebärde mehrere Bedeutungen ausgedrückt werden können, die
45
S. URL: http://www.auslan.org.au/.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
74
semantisch nicht nur zusammengehören, sondern auch weit auseinanderliegen können,
lässt sich durch eine einfache Glossierungskonvention allein nicht lösen. Sie betrifft in
erster Linie die Frage der Lemmaselektion im Wörterbuch bzw. in der lexikalischen
Datenbank, durch die die Wahl der Glosse bei der Token-Type-Zuordnung festgelegt
ist. Im Vordergrund steht die Klärung der Frage, wie die Struktur des gebärdensprachlichen Lexikons durch geeignete Kategorien und Klassifizierungen modelliert werden
kann. Die Antwort hängt wiederum damit zusammen, welche Bedeutung der Ikonizität
und der Tatsache, dass durch Ablesewörter ein weiteres Zeichensystem in gebärdensprachliche Äußerungen integriert wird, beigemessen wird. Die im Rahmen der Fachgebärdenlexika getroffenen Entscheidungen und ihre Konsequenzen für die Transkription
und die Struktur der Datenbank werden in Konrad (in Vorb., Kap. ➚ 4) dargestellt. An
dieser Stelle soll jedoch schon auf die Gefahr eines Zirkelschlusses hingewiesen werden
(s. ➚ 3.7.3), der darin besteht, dass die Glossierung und damit die Lemmatisierung
dadurch begründet wird, dass in einem bereits vorhandenen Wörterbuch verschiedene
Lemmata angesetzt wurden. Crasborn/Zwitserlood (2008b:5) begründen ihre
Entscheidung, vom Prinzip gleiche Gebärde – gleiche Glosse dann abzuweichen, wenn
dieselbe Gebärde mit verschiedenen Ablesewörtern ausgeführt wird, damit, dass es in
einem NGT-Wörterbuch (KOMVA 1988, 1989) verschiedene Einträge gibt:
Glosses have been assigned as consequently as possible (same sign, same gloss).
However, some signs differ only because of a different mouthing. In those cases
different glosses were used, especially when these signs were separate items in the
lexicons.
E.g.: ‘BROER’ vs. ‘ZUS’ (‘BROTHER’ vs. ‘SISTER’): different glosses because
of the different mouthings.
In dieser, mal als Lernkarten-, mal als Blattsammlung herausgegebenen Zusammenstellung von Grundgebärden werden jeweils drei Gebärden für „Bruder“ und „Schwester“
gezeigt, von denen jeweils zwei Gebärden identisch sind. Auf den Lernkarten steht der
Hinweis „gesproken component“, in der Blattsammlung steht das jeweilige Ablesewort
unter der Glosse. Aus sprachpolitischen Gründen und um Homonymie zu vermeiden,
wurden die formgleichen Gebärden nicht in das „Standaard Lexicon Nederlandse
Gebarentaal“ (2002) aufgenommen. Dort findet man für jede Bedeutung jeweils eine
Gebärde. Diese Gebärden unterscheiden sich leicht in der Ausführung.
Das sprachpolitische bzw. didaktische Interesse beim Erstellen von Gebärdensammlungen, Homonymie zu vermeiden, findet sich auch in den sogenannten Blauen Büchern
(Maisch/Wisch 1988-1994) für die DGS wieder. Dort unterscheiden sich die gezeigten
Gebärden für „Bruder“ (G-Handform, ) und „Schwester“ (H-Handform, ) nur durch
die Handform. In unserer Datenbank sind jedoch 13 Belege (aus verschiedenen
Projekten oder Gebärdensammlungen) für die konventionelle Verwendung der Gebärde
GLEICH1A () in der Bedeutung „Schwester“. Die konventionelle Verwendung der Gebärde GLEICH1D () in der Bedeutung „Schwester“ ist nur ein-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
75
mal belegt durch eine Aufnahme aus den Grundgebärden (1999, 2000), einer reduzierten Gebärdenauswahl aus den Blauen Büchern als CD-ROM.
In letzter Konsequenz bedeutet dies, dass die Lemmatisierung nicht dadurch gerechtfertigt werden kann, dass ein Standardwörterbuch der entsprechenden Gebärdensprache
als Grundlage für die Glossierung zu Rate gezogen wird. Denn die Kriterien für die
Lemmaselektion im Wörterbuch sind in der Regel nicht explizit genannt. Johnston/Schembri (1999:178-181) weisen zu Recht darauf hin, dass der Einfluss der umgebenden Lautsprache auf die Makrostruktur eines Gebärdenwörterbuchs zum Teil noch
erheblich ist und dieses lemma dilemma zu einer inkonsistenten Lemmaselektion führt,
z.B. führen verschiedene Wortarten der laustprachlichen Entsprechung zu verschiedenen Einträgen, obwohl die Gebärden identisch sind (SIT/CHAIR), oder es werden
flektierte Formen als eigene Einträge aufgelistet (GIVE/GIVE-ME/GIVE-YOU). Das zu
Rate gezogene Wörterbuch müsste demnach zunächst einmal auf diese Inkonsistenzen
geprüft werden, bevor die vorhandenen Einträge als Begründung für eine unterschiedliche Glossierung und damit Lemmatisierung der Token im Transkript herangezogen werden können.
Die Transkriptionskonventionen des NGT-Korpus46 stellen eine Weiterentwicklung der
Konventionen dar, die für die Transkription der NGT-Daten im Rahmen des ECHOProjekts erstellt wurden. Die direkte Gegenüberstellung zeigt die Gemeinsamkeiten,
aber auch die Veränderungen, die innerhalb eines kurzen Zeitraums für die Transkription vergleichbarer Daten mit ähnlichen Projektzielen vorgenommen wurden.
Wie beim NGT-Korpusprojekt ist das Ziel des Auslan-Korpusprojekts die Bereitstellung annotierter Rohdaten, die für Forscher wie für Laien frei zugänglich sein sollen.
Darüber hinaus sollen die Annotationen verstärkt grammatische und diskursive Aspekte
berücksichtigen. Phonologische und lexikalische Aspekte werden dagegen vernachlässigt. Ein Untersuchungsziel ist die Modifikation sogenannter „indicating verbs“ (vgl.
Liddell 2003a:97-140), im Deutschen auch als Übereinstimmungsverben bezeichnet
(vgl. Boyes Braem 1995:63). Das Annotationsschema ist dementsprechend stark ausdifferenziert. Es dient dazu, mögliche Kategorien zu testen und diese entsprechend den
Erfahrungen im Laufe der Transkription den Daten anzupassen. Weiterhin werden diese
Annotationen nicht in einem Bearbeitungsschritt erledigt, sondern in mehreren aufeinanderfolgenden Bearbeitungen. Johnston/de Beuzeville (2008:6) sprechen noch von
einem „annotation parse“47, in Johnston (2010a) wird die übliche Bezeichnung „passes“
46
47
S. Crasborn et al. (2008); die Homepage des Projekts ist unter folgender URL zu finden:
http://www.ru.nl/corpusngt/).
Die Bedeutung des Wortes ‚parse‘ wird bewusst gegen die übliche Verwendung in der automatisierten
Syntaxanalyse (s. ➚ 3.7) abgegrenzt: „Here we mean by annotation parse a pass of the text which
identifies sign units and/or attaches a particular type of linguistic annotation to identified units.“
(Johnston/de Beuzeville 2008:6; kursiv i. O.)
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
76
(vgl. Pitt et al. 2005:92) für verschiedene Bearbeitungsdurchgänge gewählt, bei denen
jeweils bestimmte Aspekte annotiert werden. Nach und nach wird die Transkription
immer umfangreicher, gleichzeitig werden die bereits vorhandenen Annotationen mit
kontrolliert, sodass sie immer konsistenter werden und es ermöglichen, bisher aufgestellte Hypothesen zu grammatischen Kategorien und gebärdensprachlichen Phänomenen anhand eines repräsentativen Korpus quantitativ und qualitativ zu überprüfen.
SignStream ist ein Annotationsprogramm, das im Rahmen des American Sign Language
Linguistic Research Project (ASLLRP) an der Boston University entwickelt wurde.
Forschungsschwerpunkt sind morphosyntaktische Aspekte der ASL. Die Transkriptionskonventionen, die zur Verschriftlichung von vorwiegend elizitierten Sätzen und
Einzelgebärden verwendet wurden, sind auf der Grundlage der Konventionen entstanden, die Baker/Cokely (1988) in ihren Lehrbüchern zur ASL schon 1980 verwendet
haben. Neben der ausführlichen Dokumentation (Neidle 2002) gibt es eine aktualisierte
Ergänzung (Neidle 2007), die sich vor allem auf die Konsistenz der Glossierung von
Gebärden und Gesten sowie der morphosyntaktischen Annotationen bezieht. Das
Problem der konsistenten Glossierung wird in beiden Veröffentlichungen an verschiedenen Stellen diskutiert. Die getroffenen Entscheidungen widersprechen jedoch an
manchen Stellen dem Prinzip der konsistenten Glossierung gleicher Gebärden, was
Neidle (2002:54) selbst als unbefriedigende Lösung darstellt:
Other cases where it would be desirable to use the same gloss for signs that have the same
essential manual articulation include the following signs: SHOULD, MUST, HAVE-TO
However, here, to keep with other glossing traditions, we have glossed these signs
differently. SHOULD is normally articulated with (at least) two distinct downward
movements, whereas MUST involves a single downward movement. HAVE-TO is
normally used in negative environments (e.g., NOT HAVE-TO), although for
some signers (NOT MUST) is also possible. Mouthing is used as the distinguishing
identifier for HAVE-TO. We note our own inconsistency, but so be it.
Die Begründung, verschiedene Glossierungen für dieselbe Gebärde zu verwenden, um
mit anderen, bereits etablierten Glossierungen konform zu sein, ist der Versuch, ein
Problem zu lösen, das der konsistenten Glossierung nachgeordnet ist. Für alle Transkriptionskonventionen gilt mehr oder weniger, dass sie nicht miteinander kompatibel
sind. Glossierungen, die in unterschiedlichen Sprachen vorgenommen werden, verhindern gerade die Austauschbarkeit bzw. den automatisierten Abgleich von Transkripten,
die im Rahmen verschiedener nationaler oder internationaler Projekte erstellt wurden.
Doch selbst wenn es eine eindeutige Zuordnung der Glossennamen aus verschiedenen
Projekten gäbe, wäre die Austauschbarkeit nicht viel wert, wenn innerhalb eines Projekts keine konsistente Glossierung und damit keine Lemmatisierung der Token vorgenommen wurde. Ein weiteres Problem ist die Übereinstimmung der Glossierung in
den Transkripten, die im Rahmen eines empirischen Forschungsprojekts erstellt werden,
mit der Glosierung, die z.B. in Lehrwerken verwendet wird. Die Notwendigkeit, innerhalb eines Arbeitsbuchs für Schüler und Lehrer wie z.B. Baker/Cokely (1988), eine
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
77
konsistente Glossierung zu verwenden, führt dazu, dass sogenannte didaktische Glossen
eingeführt werden, d.h. die Konsistenz dieser Glossierung gilt nur innerhalb dieses
Werkes. Die Glossierung kann nach anderen Prinzipien vorgenommen werden als im
Rahmen eines Forschungsprojekts, da die Zahl der Beispiele i. d. R. wesentlich geringer
ist als die Token, die in den empirischen Daten enthalten sind. Sollen jedoch Beispiele
aus Transkripten in dieses Werk aufgenommen werden, dann stimmen die Glossierungen oftmals nicht überein. Die konsistente Glossierung sollte jedoch nicht wegen des
Vorteils aufgegeben werden, eine (partielle) Übereinstimmung mit bereits bestehenden
Glossierungen zu erreichen. Das Problem kann dadurch gelöst werden, dass in einer
lexikalischen Datenbank z.B. didaktische Glossen eingeführt werden, d.h. Glossennamen, die als Aliase auf einen Gebärdeneintrag verweisen. Diese Lösung wurde im
ProViL-Projekt (Progression im visuellen Lernen von Gebärdensprache48) eingeführt.
Die Transkripte wurden in iLex erstellt unter Einhaltung der geltenden Transkriptionskonventionen. Für die Veröffentlichung der Transkriptionen im Rahmen des
ProViL-Projekts wurden nicht die projektübergreifenden Glossierungen ausgegeben,
sondern die didaktischen Glossen, die innerhalb des ProViL-Projekts benötigt wurden.
Da das Annotationsprogramm SignStream nicht an eine lexikalische Datenbank angebunden ist, ist die Kontrolle der konsistenten Token-Type-Zuordnung über eine große
Anzahl von Transkripten hinweg nur sehr mühsam herzustellen. Bewusst in Kauf
genommene Inkonsistenzen, die eventuell nicht vollständig dokumentiert sind, erschweren zusätzlich eine Lemmatisierung. Weiterhin wird wie bei Crasborn/Zwitserlood
(2008b) in diesem Zitat die bedeutungsunterscheidende Funktion des Ableseworts als
Begründung für eine andere Glossierung formgleicher Token angeführt. Die für die
Struktur des Lexikons impliziten Konsequenzen dieses Vorgehens werden jedoch nicht
reflektiert (s. ➚ 4.1.5).
Die Beschränkungen, die eine fehlende Datenbank mit der Möglichkeit, Type-Informationen zur Verfügung zur stellen, für die Glossentranskription mit sich bringt, zeigt
sich auch darin, dass keine Bezüge zu morphologisch ähnlichen Gebärden über die
Glossierung hergestellt werden können. So geht verloren, dass z.B. MISTAKE und
49
WRONG sich nur durch eine Drehung im Handgelenk unterscheiden.
Diese
Beobachtungen können, ebenso wie die Angabe der Gebärden, aus denen sich ein
Kompositium zusammensetzt, als Relation in einer Datenbank eingetragen und im Transkript, sollte es für die Bearbeitung der Transkripte sinnvoll sein, in einer zusätzlichen
Spur mit angezeigt werden. In iLex gibt es z.B. die Möglichkeit, eine Relation zwischen
48
49
Im Rahmen dieses Projekts wurden zwei Kurse zum Erlernen der DGS für Fortgeschrittene entwickelt, die für Studierende auf der Lernplattform WebCT zugänglich sind. Eine Projektbeschreibung
findet sich unter folgender URL: http://www.sign-lang.uni-hamburg.de/projekte/provil.html; s. a.
Metzger/Herrmann (2005).
Die Möglichkeit, dass es sich auch um phonologische Varianten handeln könnte, wird von der Autorin
nicht in Erwägung gezogen. Die Entscheidung ist abhängig von der Frage, ob diese Ausführungen
sich anhand ihrer kontextuellen Bedeutung immer klar voneinander trennen lassen.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
78
formgleichen und formähnlichen Gebärden einzutragen. Diese Informationen sind
äußerst hilfreich, da dadurch z.B. dokumentiert werden kann, dass es sich um Homonyme handelt oder um formähnliche Gebärden, bei denen eine Gebärde durch eine
Modifikation aus der anderen hervorgegangen ist und später für eine spezifische
Bedeutung lexikalisiert wurde.
Die Entwicklung des Berkeley Transcription System (BTS) wurde vor allem von
D. Slobin vorangetrieben, der schon bei der Entwicklung des CHILDES50-Projekts zur
Standardisierung von Spracherwerbsdaten Anfang der 1980er Jahre beteiligt war. Der
Schwerpunkt liegt in der Erforschung der Morphosyntax, der Semantik und den
diskursiven Aspekten von Eltern-Kind-Interaktionen, lexikalische und phonologische
Aspekte werden vernächlässigt. Um mit den Konventionen des CHAT51-Programms,
das zur Erstellung der Transkripte eingesetzt wird, kompatibel zu sein und um zur
Auswertung der Daten das CLAN52-Programm verwenden zu können, werden sehr viele
Informationen in einer einzigen Sprecherzeile kodiert. Dementsprechend
ausdifferenziert sind die Glossierungskonventionen für Gebärden, Gesten und
nonverbales Verhalten in der Glossenzeile. Weiterhin werden relevante Aspekte der
Interaktion sowie Beobachtungen zu Performanzfehlern notiert.
Die Tabelle „Transkriptionskonventionen im Vergleich“53 gibt einen umfassenden
Überblick über die im Rahmen der Fachgebärdenlexikon-Projekte entwickelten
Transkriptionskonventionen sowie die Kategorien und Kodierungen aus den
angegebenen Publikationen. Leere Felder bedeuten entweder, dass es dafür keine
Konventionen gibt oder sie in der Dokumentation nicht erwähnt werden. Deutlich
erkennbar sind die Unterschiede zwischen der stark lexikographisch ausgerichteten
Transkription von elizitierten Antworten sowie Entsprechungen von Fachbegriffen, die
in den Gesprächen identifiziert und selektiv transkribiert wurden, und den stärker
morphosyntaktisch ausgerichteten Transkriptionen zusammenhängender Äußerungen
oder Dialoge. Bei letzteren zeigt sich eine starke Differenzierung in der Klassifikation
nach Wortarten einschließlich der indexikalischen Gebärden sowie einer syntaktisch
ausgerichteten Kodierung der Modifikationen, insbesondere der Veränderung der
Bewegungsrichtung, Orientierung oder Lokation. Eine Ausnahme sind die Transkripte,
die im Rahmen des ECHO- und des NGT-Korpusprojekts erstellt wurden. Das Ziel der
Projekte lag in der Dokumentation von Gebärdensprachen und der Erstellung einer
Basistranskripton, die zusammen mit den Rohdaten möglichst kurzfristig interessierten
Forschern zur Verfügung gestellt wurde. Die Transkripte bieten durch die Übersetzung
einen inhaltlichen Zugang zu den Rohdaten und sind die Grundlage für weitere Anno50
51
52
53
Child Language Data Exchange System.
Codes for the Human Analysis of Transcripts.
Computerized Language Analysis.
S. URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/ TranskrKonv_Vergleich.pdf.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
79
tationen, je nach Forschungsinteresse. Dementsprechend sind die Transkriptionskonventionen nicht so stark ausdifferenziert wie in den anderen Projekten.
Abgesehen von den genannten Unterschieden fällt auf, dass es unabhängig vom
Forschungsziel eine große Übereinstimmung in der Kodierung bestimmter gebärdensprachlicher Phänomene gibt. So werden fast durchgängig morpho-phonologische
Aspekte der Variation, Modifikation, Komposition, Koartikulation und Inkorporation
notiert. Weiterhin werden bei konventionellen Gebärden fast durchgängig Formabweichungen wie Wechsel der Dominanz und Händigkeit sowie der Wiederholung notiert.
Eine Interpretation der Ausführung im Sinne eines Performanzfehlers wird nur im BTS
und beim NGT-Korpus als Zusatz zur Glosse kodiert.
Produktive Gebärden werden in allen Transkriptionskonventionen in der Tabelle durch
eine Abkürzung gekennzeichnet (MAN: manuelle Aktivität, p: poly, in Anlehnung an
polycomponential sign, PM: property marker, CL: classifier). Im BTS und in
SignStream wird im Rahmen der Glossierung bereits eine Klassifizierung vorgenommen, in den übrigen Projekten wird lediglich die kontextuelle Bedeutung dieser
Gebärde angegeben, beim Auslan-Projekt und in iLex zusätzlich ein Hinweis auf die
Handform bzw. weiterer Formaspekte in HamNoSys.
Indexikalische Gebärden werden in den nicht lexikographisch ausgerichteten Projekten
stark differenziert in syntaktische und semantische Kategorien. Interessant ist, dass nur
das BTS die unspezifische Gebärde, die mit der 5-Handform eine Fläche im neutralen
Gebärdenraum oder an einer bestimmten Lokation, auch am Körper, markiert, zu den
indexikalischen Gebärden zählt. In den Transkriptionskonventionen im Rahmen der
Fachgebärdenlexika wird diese Gebärde als konventionelle Gebärde BEREICH1A
() glossiert und als ausgedehnter Index klassifiziert (s. ➚ 4.2.1.6).
Eine weitere Beobachtung, die sich einem nicht auf den ersten Blick erschließt, ist die
Frage der Komplexität der Glosse und die Anordnung verschiedener Informationseinheiten im Glossennamen. Dazu muss man wissen, ob im Rahmen der Transkription eine
lexikalische Datenbank zur Verfügung steht, die es erlaubt, zwischen Type-Informationen, die in der Datenbank gespeichert sind, und Token-Informationen, die im Transkript
entweder in der Glossierung oder in zusätzlichen Spuren notiert werden, zu trennen.
Bei der lexikographisch ausgerichteten Transkription im Rahmen der Fachgebärdenlexikon-Projekte stand die Notwendigkeit der konsistenten Identifikation sprachlicher
Einheiten von Anfang an im Mittelpunkt. Dadurch, dass iLex Annotationswerkzeug und
lexikalische Datenbank kombiniert, war immer der Zugriff auf die Token über den Type
gegeben, da im Token-Tag lediglich eine ID-Nummer des Types eingetragen wird.
Gleichzeitig wird immer unterschieden zwischen Angaben, die sinnvollerweise beim
Type eingetragen werden und in den Transkripten mit angezeigt werden können wie
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
80
z.B. Grundform, Bedeutung oder etymologische Angaben, und Angaben, die beim
Token gemacht werden. Anhand zusätzlicher Annotationen beim Token, z.B. eine
Formabweichung oder die Bedeutung der Einzelgebärde und deren Funktion im
Zusammenhang mit dem Ablesewort sowie bei Komplexbedeutungen, lässt sich die
Token-Type-Zuordnung im Zuge der Lemmarevision überprüfen (s. Kap. 6.3). Durch
vorhandene Token-Informationen reicht es für die Klassifizierung einiger gebärdensprachlicher Phänomene aus, sie durch eine sogenannte Sammelglosse zu etikettieren,
über die wiederum auf alle Einzeltoken zugegriffen werden kann (s. $HOLD, $MAN,
$INDEX, $ALPHA1, $PMS, $GEST). Die Möglichkeit, in der Datenbank Listen nach
Glossen zu sortieren, beeinflusste auch die Glossierungskonventionen. So wurde das
Dollarzeichen $ am Anfang der Glosse dazu verwendet, bestimmte Untergruppen
konventioneller Gebärden ($NAME, $WORTTEIL, $SPEZIAL), die Überlagerung durch
eine gehaltene Gebärde ($HOLD) sowie produktive Gebärden ($MAN) und sonstige
Zeichen ($INDEX, $ALPHA, $NUM, $PMS, $GEST, $REP, $ORAL) zu kennzeichnen.
Bei der Sortierung nach Glossennamen sind diese Einheiten von den konventionellen
Gebärden getrennt. Abgesehen von den genannten Klassifizierungen wurden weitere
Unterscheidungen (Modifikation Variante, Fremdgebärde, regionale Varianten, LBGGebärde) durch Zusätze nach dem Glossennamen notiert. Der Aspekt der Sortierung
wurde auch beim Auslan-Projekt berücksichtigt, vermutlich aufgrund der Erfahrungen
des Autors mit Datenbanken zum Zwecke der Wörterbuchproduktion (vgl. Johnston
2001), nicht jedoch bei den Transkriptionskonventionen der anderen Projekte, die ohne
die Unterstützung durch eine Datenbank arbeiten. Eine Auflistung aller zu einem Type
gehörender Token muss in Annotationsprogrammen wir ELAN durch Suchabfragen
erfolgen. So erstellte Listen können dann in anderen Programmen weiterverarbeitet
werden. Ebenso müssen Änderung in der Glossierung durch Suche-und-ErsetzeRoutinen in den Transkripten durchgeführt werden.
6.2
Aufbau einer lexikalischen Datenbank
Die Erfahrungen aus der inkonsistenten, unökonomischen und nach einigen Jahren
schwer nachzuvollziehenden Transkriptionen der ausgewählten Gebärden für das
Fachgebärdenlexikon Psychologie (PLex; Arbeitsgruppe Fachgebärdenlexika 1996)
führten dazu, dass zunächst einmal ein Prototyp einer relationalen Datenbank entwickelt
wurde (s. ➚ 3.8.4). Diese Datenbank ermöglichte es, die elizitierten Antworten, die
Fachbegriffe, die als Stimuli gezeigt wurden, die Einzelgebärden, aus denen sich eine
Antwort zusammensetzt (Token) und die Gebärden (Types) miteinander in Beziehung
zu setzen. Dadurch konnten alle Antworten zu einem Begriff aufgelistet und anhand der
Glossierungen miteinander verglichen werden. Durch die Sortierung der transkribierten
Antworten nach ihrer Glossierung konnte bei der Auswahl einer Antwort als DGS-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
81
Entsprechung für den Fachbegriff auch die Häufigkeit gleicher Antworten
berücksichtigt werden. Ebenso konnten alle Token eines Types aufgelistet und anhand
der im Token notierten Formabweichungen miteinander verglichen werden, was eine
wichtige Voraussetzung für die Lemmarevision (s. Kap. 6.3) ist.
Der entscheidende Vorteil einer Datenbank liegt darin, dass das Konzept der ID-Glosse von
Johnston/de Beuzeville (2008; s. ➚ 3.7.3) konsequent umgesetzt wird. Während Johnston &
de Beuzeville die Token-Type-Zuordnung in ELAN-Transkripten so vornehmen, dass sie
Glossen als freie Texte in den Tag der Glossenspur eintragen und die Konsistenz dadurch
sicherstellen, dass sie diesen Namen zuvor in einem Wörterbuch bzw. einer lexikalischen
Datenbank suchen, werden in iLex die Glossen in der Gebärdenliste gesucht und
üblicherweise per drag&drop im Token-Tag eingetragen. Dadurch wird der Glossenname
im Tag eines Transkripts angezeigt, in der Tabelle tags wird jedoch nicht der Glossenname
als freier Text, sondern die ID-Nummer des Types als eineindeutiger Schlüssel gespeichert.
Durch die Auswahl einer Glosse aus der Glossenliste wird verhindert, dass sich
Glossennamen im Transkript aufgrund von Tippfehlern oder unterschiedlicher Schreibung
(z.B. Klein- oder Großbuchstaben) unterscheiden. Die Datenbank lässt es nicht zu, dass
dieselbe Glosse für zwei verschiedene Types vergeben wird. Glossen werden automatisch
immer in Großbuchstaben umgewandelt. Gleichzeitig ist gewährleistet, dass sich
Änderungen im Gebärdeneintrag, z.B. eine Änderung des Glossennamens oder der
Grundform, die als HamNoSys-String im Gebärdeneintrag notiert ist, auf alle Tags
auswirkt, die in der Tabelle tags die ID dieser Gebärde enthalten. Diese Änderungen sind
sofort sichtbar für alle Transkribenten, die auf die Datenbank zugreifen.
Johnston & de Beuzeville verwenden den Glossennamen als eineindeutigen Schlüssel,
da es in ELAN keine direkte Anbindung des Transkripts an eine lexikalische Datenbank
gibt. Insofern ist die ID-Glosse ein Ersatz für die fehlende ID-Nummer, eine Glosse
ohne ID (ID-Glosse = Glosse - ID). Aus der Sicht eines Linguisten mag dies ausreichend sein, um eine konsistente Token-Type-Zuordnung zu gewährleisten. Es betont
die eigentliche Funktion von Glossen, lediglich eine Etikettierung für eine lexikalische
Einheit zu sein, einer Referenz auf ein Lemma (s. Kap. 6.1.1.6; Crasborn/Zwitserlood
2008b:4). Aus der Sicht eines Informatikers ist dies jedoch unbefriedigend, da Zahlen,
die automatisiert vergeben werden, wesentlich zuverlässigere Schlüssel sind als Wörter.
Der eineindeutige Schlüssel ist die ID-Nummer, die es ermöglicht, auf weitere Informationen einer Tabelle, die diesen Schlüssel enthalten, zuzugreifen wie z.B. den Glossennamen, die Notation der Zitierform, Bedeutungsangaben, Kommentare etc. Glossen, die
in iLex-Transkripten eingetragen werden, sind ID-Nummern, über die Informationen
wie der Glossenname, die Zitierform etc. angezeigt werden können (Glosse = ID
+ Glosse + HamNoSys-Notation + Bedeutung + Kommentar + …). Dadurch kann der
Glossenname als mnemotechnische Stütze genutzt werden. Es können im Prinzip
beliebig viele Glossennamen für einen Type gewählt werden, solange die Datenbank
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
82
dafür sorgt, dass z.B. über eine Alias-Funktion die verschiedenen Glossennamen auf
denselben Type verweisen. Insofern wäre es auch kein Problem, wenn verschiedene
Transkribenten verschiedene Bezeichnungen wählen würden. Diese Alias-Funktion ist
zurzeit in iLex nicht implementiert. Für die Produktion von Lehr-/Lernmaterialien
können sogenannte didaktische Glossen vergeben werden (s. Kap. 6.1.1.6).
Da die Gebärden in der Gebärdenliste erst angelegt werden müssen, bevor sie beim
Transkribieren einer Antwort mit dem Token verknüpft werden können, musste
insbesondere zu Beginn zusätzliche Zeit investiert werden, um die Gebärdeneinträge
anzulegen. Hinzu kam, dass die Timecode-Angaben noch von Hand eingeben werden
mussten, da noch keine direkte Anbindung digitalisierter Videofilme an die Datenbank
möglich war. Mit der Umstellung auf eine SQL-Datenbank (GlossLexer 2) war der
direkte Zugriff auf die Rohdaten per Mausklick möglich, was einen enormen Zeitvorteil
für die Transkription mit sich brachte. Gleichzeitig wurde öfters auf die Rohdaten
zugegriffen, sodass auch die Annotationen konsistenter wurden. Mit der Zunahme der
Gebärdeneinträge war es erforderlich, mithilfe geeigneter Sichten und Suchfunktionen
(Type- und Token-Suche, Abfragen in Form von SQL-Befehlen (select …)) zu prüfen,
ob eine Gebärde schon in der Datenbank vorhanden ist oder neu angelegt werden muss.
Je effizienter die Suchmöglichkeiten und -strategien, desto weniger Zeit wird für die
Rohtranskription und die anschließende Lemmarevision benötigt.
6.2.1 Bottom-up- versus Top-down-Ansatz
‚Bottom-up‘ („von unten bzw. vom Boden nach oben“) und ‚top-down‘ („von der
Spitze nach unten“) sind Bezeichnungen, die als eingängige sprachliche Metaphern im
Englischen zur Unterscheidung der induktiven von der deduktiven Methode verwendet
werden. Bei der induktiven Methode werden anhand von Einzelbeobachtungen Hypothesen aufgestellt, die systematische strukturelle, funktionale oder logische Zusammenhänge erklären – von den Daten zur Theorie –, bei der deduktiven Methode wird ausgehend von Hypothesen nach Einzelphänomenen gesucht, die diese Hypothesen bestätigen oder widerlegen – von der Theorie zu den Daten.
Abb. 10: Bottom-up- und Top-down-Ansatz
Korpora werden sowohl für einen Bottom-up-Ansatz verwendet, indem aus den Daten
Hypothesen abgeleitet werden, als auch für einen Top-down-Ansatz, indem Hypothesen
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
83
anhand aufbereiteter Daten getestet werden. Wird die Lemmatisierung wie bei Johnston/
de Beuzeville (2008) auf der Grundlage eines Wörterbuchs vorgenommen bzw. einer
lexikalischen Datenbank, die die Informationen enthält, auf deren Grundlage die TokenType-Zuordnung getroffen wird, dann handelt es sich um einen Top-down-Ansatz. Ein
Token wird als Realisierung eines Types identifiziert und mithilfe der ID-Glosse
eindeutig diesem Type zugeordnet. Transkript und lexikalische Datenbank sind
getrennt.
Abb. 11: Lemmatisierung als Top-down-Prozess
Die Type-Informationen sind notwendig, um die Zuordnung treffen zu können. Diese
wird durch eine entsprechende Annotation im Transkript hergestellt, d.h. Änderungen
finden nur im Transkript statt. Kann ein Token keinem Type zugeordnet werden, so
muss dies gesondert markiert werden und führt möglicherweise zu einem späteren
Zeitpunkt zu einer Veränderung der Datenbankeinträge, indem z.B. eine zusätzliche
Variante aufgenommen wird. Diese Entscheidung trifft der Korpus-Manager, der die
Transkripte auf entsprechende Hinweise auswertet und die Berechtigung hat,
Änderungen in der Datenbank vorzunehmen und diese im Transkript nachzuvollziehen,
um die Konsistenz der Lemmatisierung und der Lemmaselektion sicherzustellen.
Da für die DGS, im Unterschied zu Auslan, kein lexikalisches Standardwerk vorliegt,
musste parallel zur Transkription eine lexikalische Ressource aufgebaut werden, die in
erster Linie zur Qualitätssicherung der Transkriptionen, insbesondere der Lemmatisierung, dient. Die Besonderheit dieses Verfahrens besteht darin, dass Transkript und
Datenbank nicht getrennt sind, sondern alle Annotationen eines Transkripts in verschiedenen Tabellen der Datenbank verwaltet werden. Dabei wird unterschieden in TypeInformationen wie die Glosse und deren Zitierform, und Token-Informationen wie z.B.
eine Formabweichung. Type-Informationen werden nicht im Transkript eingetragen,
sondern beim Type. Im Token-Tag des Transkripts wird lediglich die ID des Types gespeichert. Dieses Vorgehen zwingt den Transkribenten dazu, einen Type zuerst in der
Datenbank anzulegen, bevor eine Token-Type-Zuordnung beim Token eingetragen
werden kann. Informationen zu diesem Type wie Grundform und Bedeutung einer konventionellen Gebärde werden schon bei der ersten Token-Type-Zuordnung notiert. Aus-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
84
gangspunkt dafür ist die Form und Bedeutung der Token. Dies entspricht dem Bottomup-Ansatz mit dem Unterschied, dass die Entscheidung, welcher Type angelegt wird
und welche Type-Informationen eingetragen werden, nicht auf der Grundlage aller
Token nach Abschluss der Transkription vorgenommen werden kann. Die noch fehlenden empirischen Daten müssen durch das sprachliche Wissen der gehörlosen Transkribenten ersetzt werden. Die Zuordnung des Tokens zu diesem Type entspricht dann
wiederum dem Top-down-Ansatz, d.h. durch die enge Verbindung zwischen Transkription und Erweiterung der lexikalischen Datenbank findet ein ständiger Wechsel zwischen
Bottom-up- und Top-Down-Perspektive statt. Die Lemmarevision (s. Kap. 6.3) wiederholt diese Schritte, diesmal jedoch auf der Grundlage aller erfassten Token, d.h. dass
Entscheidungen, die aufgrund der Datenlage zu einer Veränderung der lexikalischen
Datenbank führen (bottom-up), empirisch abgesichert sind durch die Korpusdaten.
Abb. 12: Lemmarevision als Bottom-up-Prozess
Dadurch, dass möglichst früh im Laufe der Rohtranskription Types angelegt werden,
wird die weitere Token-Type-Zuordnung erleichtert, da diese Informationen nicht immer wieder neu beim Token eingetragen werden müssen, sondern aus dem Type abrufbar sind. Der methodische Nachteil liegt darin, dass dadurch die Auswertung der Annotationen, die in einem reinen Bottom-up-Ansatz zunächst einmal bei jedem Token eingetragen werden müssten, vorweggenommen wird. Ist der Type angelegt, dann entspricht das weitere Vorgehen dem Top-down-Ansatz. Die vorhandenen Type-Einträge
im Lexikon beinhalten Klassifizierungen und Differenzierungen, anhand derer die Identifizierung eines Tokens als Realisierung eines Types getroffen wird. Dies gilt jedoch
nur mit der Einschränkung, dass diese Klassifizierungen vorläufig sind und entweder
schon während der Rohtranskription korrigiert oder nach Abschluss der Rohtranskription durch die Lemmarevision (s. Kap. 6.3) anhand des Vergleichs aller Token
eines Types und der Types miteinander überprüft werden. Die Voraussetzung für die
Konsistenz dieser Überprüfung ist, dass Abweichungen vom Type in Bezug auf Form
und Bedeutung bei jedem Token annotiert werden. Der Nachteil dieses Vorgehens ist,
dass die Form des Tokens nicht vollständig im Transkript notiert ist. Sie kann jedoch
aus der Grundform des Types und den Angaben zur Formabweichung ermittelt werden.
Die Avatar-Technologie ist mittlerweile so weit fortgeschritten, dass auf der Grundlage
einer HamNoSys-Notation die Zuverlässigkeit der Formangaben im Type und im Token
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
85
überprüft werden kann. Zum Beispiel kann ein Avatar dazu eingesetzt werden, die
notierte Form mit der tatsächlichen Ausführung auf dem Video zu vergleichen.
Fehlende oder unvollständige Angaben können daraufhin ergänzt werden.
Die Entscheidung, Modifikationen als eigene Gebärdeneinträge anzulegen und nicht als
Relationen innerhalb eines Types, hatte insbesondere zu Beginn den praktischen Vorteil, dass sie auf der Glossenebene sichtbar sind. Bei der Token-Type-Zuordnung werden sie zusammen mit der Grundform in einer alphabetisch sortierten Auswahlliste angezeigt. Anhand der HamNoSys-Notation kann die Zuordnung relativ schnell getroffen
werden. Langfristig wird die Gebärdenliste dadurch jedoch unübersichtlich. Weiterhin
ist die Relation zwischen Grundform und Modifikation sowie zwischen den Ausführungsvarianten lediglich über den Glossennamen (inkl. der ersten Ziffer) kodiert, was
eine unbefriedigende Lösung darstellt. Glossennamen sollten so wenig wie möglich
durch zusätzliche Informationen, die nicht an anderer Stelle abrufbar sind, überfrachtet
werden. Im Rahmen der geplanten Überarbeitung der Datenbank wird dieser Missstand
beseitigt werden. Modifikationen und Varianten werden dann als Relationen angelegt
und können durch entsprechende Sichten immer noch zusammen mit der Grundform
angezeigt werden, sodass dadurch die Token-Type-Zuordnung nicht notwendigerweise
zeitaufwändiger werden muss.
6.2.2 Überdifferenzierung versus Unterdifferenzierung
Die Frage, ob eine Formabweichung die Realisierung einer phonologischen Variante,
durch den Kontext bedingt oder idiosynkratisch ist, kann auf der Grundlage eines
einzigen Tokens nicht entschieden werden. Erst wenn ein Informant dieselbe Ausführung einer Gebärde öfters wiederholt oder weitere Informanten eine bestimmte Gebärde
in dieser Form ausführen, kann die Entscheidung für eine phonologische Variante getroffen werden. Das bedeutet, dass es während der Rohtranskription sinnvoll ist,
weniger Types anzulegen und Formabweichungen im Token zu notieren. Dies erhöht
zwar den Arbeitsaufwand, gibt aber entscheidende Hinweise, um die Token eines Types
bei der Lemmarevision miteinander zu vergleichen.
Zur Unterdifferenzierung zählen folgende Fälle:
• Einem Type sind Token verschiedener Ausführungsvarianten zugeordnet,
• leichte Formunterschiede werden nicht als verschiedene Modifikationen interpretiert,
• Token homonymer Gebärden sind aufgrund ihrer Formgleichheit demselben
Type zugeordnet,
• Modifikationen und Ausführungsvarianten sind demselben Type zugeordnet,
• eine Modifikation wird als produktive Gebärde klassifiziert und umgekehrt.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
86
All diese Fälle sind im Rahmen der Rohtranskription erwünscht, d.h. die Unterdifferenzierung ist einer Überdifferenzierung vorzuziehen, da eine gesicherte Entscheidung erst
auf der Grundlage aller identifizierten Token im Rahmen der Lemmarevision vorgenommen werden kann (s. Kap. 6.3). Eine Überdifferenzierung während der Rohtranskription kann diesen Arbeitsschritt erschweren, da die Anzahl der Gebärden wächst,
zwischen denen die Token-Type-Zuordnung getroffen werden muss. Ähnlich verhält es
sich auch mit der Entscheidung, ob es sich um eine produktive oder eine bereits
lexikalisierte Gebärde handelt.
Bedingt durch die im Vergleich zu einem Monolog oder Dialog relativ kontextarmen
Daten – die Antworten des Informanten beziehen sich auf den Stimulus, das Fachwort,
das in einigen Projekten durch Bildmaterial ergänzt wurde (s. Kap. 4.2.3) – fällt die Entscheidung, ob es sich um eine Modifikation einer Gebärde, d.h. eine intendierte Formveränderung, die eine Bedeutungsveränderung bewirkt, oder lediglich eine Ausführungsvariante handelt, in einigen Fällen schwer. Eine anhand der Transkriptionskonventionen (s. Kap. 6.1.1.4) nicht begründbare Identifikation einer Modifikation wäre
als Überdifferenzierung zu werten, da Modifikationen strukturell der Ebene der Types
untergeordnet sind, Varianten sich jedoch auf gleicher Ebene befinden.
Eine weitere Form der Überdifferenzierung hängt mit der Frage zusammen, welchen
Stellenwert man den Ablesewörtern zuschreibt. Beim Überblick über verschiedene
Glossierungkonventionen (s. Kap. 6.1.1.6) wurde deutlich, dass die Verwendung formgleicher Gebärden in Kombination mit verschiedenen Ablesewörtern zu der Entscheidung führen kann, verschiedene Lexeme anzusetzen. So wird z.B. im NGT-Korpusprojekt zwischen BROER (Bruder) und ZUS (Schwester) unterschieden. Sieht man in
den Ablesewörtern eine von den Gebärdenden genutzte Möglichkeit, Zeichen eines
anderen Zeichensystems mit den Gebärden zu kombinieren (s. ➚ 4.1.4 u. 4.1.5), dann ist
die genannte Unterscheidung eine Überdifferenzierung, da weder die Form noch der
ikonische Gehalt der Gebärde einen Grund liefern, von zwei Lexemen auszugehen.
Unabhängig von der durch das Ablesewort realisierten Bedeutung handelt es sich um
dieselbe Gebärde, deren ikonischer Gehalt es nahelegt, diese zusammen sowohl mit
dem einen als auch mit dem anderen Ablesewort zu kombinieren. In ähnlicher Weise
gehen auch andere Projekte vor wie z.B. das Auslan-Projekt. Auch wenn die Gebärde
IMPORTANT von englischen Ablesewörtern wie ‚important‘, ‚importance‘, ‚main‘ oder
‚primary‘ begleitet wird und in den entsprechenden Kontexten durch diese Wörter am
besten übersetzt werden kann, werden diese Realisierungen immer mit IMPORTANT
glossiert (vgl. Johnston/de Beuzeville 2008:12). Ebenso fassen Skant et al. (2001) sowie
Neidle (2002) die verschiedenen Bedeutungen bzw. Übersetzungen einer Gebärde unter
einem Lexem zusammen und listen diese im Glossennamen mit auf.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
87
6.2.3 Komplexität, Differenzierung und effiziente Suchfunktionen
Je komplexer die Zusammenhänge zwischen den Kategorien und je detaillierter die
Phänomene werden, die im Rahmen der Transkription erfasst werden sollen, desto
komplexer wird die Datenbank, die diese Zusammenhänge modellieren soll. Gleichzeitig sollen sowohl die Eingabe von Daten als auch das Finden und Zusammenstellen
von Daten unterstützt werden, sodass Transkribenten, die in die Transkriptionskonventionen und die Benutzung der Datenbank eingearbeitet sind, ohne zu hohen Zeitaufwand
die Rohtranskription und die Lemmarevision erledigen können. Die Zunahme der
Gebärdeneinträge und die durch die Transkriptionskonventionen festgelegte Differenzierung sollte nicht dazu führen, dass die Entscheidungsprozesse, die der Transkribent
bei der Token-Type-Zuordnung treffen muss, immer zeitaufwändiger werden.
Die folgende Tabelle gibt einen Überblick über die in jedem Projekt identifizierten
Gebärden, Modifikationen und Varianten sowie die Zunahme aller Gebärdeneinträge
über die verschiedenen Projekte hinweg. Getrennt von den konventionellen Gebärden
werden die produktiven aufgelistet.
Gebärden Modifikationen Varianten
gesamt
(Grundform)
(Zunahme)
HLex
1115
656
955
1771
produktive
gesamt
Gebärden (Zunahme)
137
1926
SLex
882
530
689
1412
30
1456
GLex
1589
1516
1701
3105
860
3992
GaLex
1237
1501
1407
2738
553
3299
Tabelle 5: Identifikation konventioneller Gebärden pro Projekt und Zunahme insgesamt
Eine nach Glossen oder Formmerkmalen sortierbare Liste aller Gebärden, die Johnston/de Beuzeville (2008:30) fordern, um eine Lemmatisierung vorzunehmen, ist jedoch
nicht ausreichend, um in möglichst kurzer Zeit festzustellen, ob eine Gebärde bereits
vorhanden ist oder neu angelegt werden muss. Neben der Suche nach der Form einer
Gebärde ist auch die Suche über die Bedeutung bzw. eine kombinierte Suche wichtig,
um möglichst gezielt bereits vorhandene Einträge zu finden. Weiterhin sollte nicht nur
nach Angaben zu einem Type gesucht werden können, sondern auch nach Annotationen, die zu einem Token gemacht werden, z.B. nach Angaben zum Ablesewort oder zur
Bedeutung, die von der Bedeutung des Types abweichen kann, z.B. wenn eine Gebärde
mit einem unüblichen, zum ikonischen Gehalt der Gebärde jedoch passenden
Ablesewort kombiniert wird (s. ➚ 4.1,5). In iLex stehen zwei Suchmasken zur
Verfügung, die eine kombinierte Suche (Form und Bedeutung) innerhalb der Type- oder
Token-Angaben erleichtern.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
88
Abb. 13: Type-Suche
Abb. 14: Token-Suche
Da die Ergebnismenge noch stärker eingeschränkt werden kann, wenn bei der TypeSuche zusätzlich zu Form und Bedeutung auch die Bilderzeugungstechnik (s. ➚ 4.2.1)
ausgewählt werden kann, wird diese Möglichkeit in der geplanten Überarbeitung dieser
Suchmaske mit eingebaut werden. Dies ist insbesondere bei der Suche nach bereits
vorhandenen produktiven Gebärden hilfreich, da bei diesen ikonischen Gebärden immer
der ikonische Gehalt und damit die Funktion der Hände, die sie bei der Visualisierung
übernehmen, bestimmbar ist.
Neben diesen beiden Suchfunktionen gibt es die Möglichkeit, innerhalb der Informationseinheiten, die das Gebärdenfenster zeigt, nach einem Textstring zu suchen. Durch
die Eingabe eines Suchtextes kann die Menge der Einträge z.B. reduziert werden auf
alle Gebärden, die denselben Glossennamen haben. Weiterhin können durch geeignete
select-Befehle die Informationseinheiten, die zusammen mit der Glosse gezeigt werden
sollen, z.B. Kommentare zum Type, erweitert oder die Menge der Gebärdeneinträge
reduziert werden, z.B. um alle Gebärden zu sehen, die innerhalb eines Projekts verwendet werden.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
89
Abb. 15: Gebärden-Fenster mit Einschränkung der Ergebnismenge durch Filter und Suchtext
Die bereits genannten Suchfunktionen sind insbesondere für die Rohtranskription wichtig
und hilfreich. Ist bei einer Gebärde ein Verweis auf eine formgleiche oder formähnliche
Gebärde eingetragen, dann kann dies in manchen Fällen noch schneller zum Erfolg führen.
Für die Lemmarevision können über verschiedene Abfragen weitergehende Konsistenzprüfungen durchgeführt werden, z.B. können alle Gebärdeneinträge gefunden werden, die
dieselbe Grundform haben, sich jedoch im Glossennamen einschließlich der ersten Ziffer
unterscheiden. Bei einer konsistenten Type-Identifizierung darf dies nur bei homonymen
Gebärden (s. ➚ 4.2.2.4) der Fall sein. Ebenso kann sehr schnell geprüft werden, ob ein Formgleich-Verweis eingetragen wurde, obwohl die HamNoSys-Notationen verschieden sind.
6.2.4 Qualitätssicherung: Paralleltranskription (inter-transcriber
reliability) versus mehrstufiges Verfahren
Patterson et al. (1996) treten mit ihrer empirischen Studie dem Vorwurf entgegen, dass
die Daten konversationsanalytischer Studien nicht verlässlich wären, da oftmals keine
Angaben dazu gemacht würden, wie stark verschiedene Transkribenten unabhängig
voneinander in ihrer Transkription bzw. Annotation übereinstimmen bzw. voneinander
abweichen. Die Autoren betonen, dass die erste und wichtigste Voraussetzung für eine
Objektivierung empirisch gewonnener Aussagen darin besteht, die Rohdaten zugänglich
zu machen. Nur wenn qualifizierte Personen unabhängig von den Autoren einer Studie
Zugang zu den Rohdaten haben, ist eine Überprüfung der Aussagen möglich. Ähnlich
argumentiert auch Johnston (2008a/b, 2010b): Eine Überprüfung der zur Veröffentlichung eingereichten Artikel (peer review) ist nur dann aussagekräftig, wenn die
Gutachter Zugriff auf die Rohdaten haben.
Stimmen mehrere Personen unabhängig voneinander in ihren Annotationen desselben
Rohdatums überein, dann ist dies als ein starker Hinweis auf die Reliabilität (Zuverläs-
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
90
sigkeit) der Annotation zu werten. Allerdings ist dadurch nicht die Genauigkeit bzw.
Fehlerfreiheit (accuracy) garantiert. Die Übereinstimmung (agreement) kann statistisch
ermittelt werden. Eine hohe Übereinstimmung korreliert mit einer hohen Reliabilität.
Die Validität (Gültigkeit) wiederum steht in einem direkten, exponentiell steigenden
Verhältnis zur Reliabilität (s. Patterson et al. 1996:82).
Mit inter-transcriber reliability ist das statistische Maß der Übereinstimmung zwischen
Annotationen verschiedener Transkribenten gemeint. Die Annotation ist bei einer
phonetischen Transkription die Verschriftlichung der Lautform. Im Unterschied zu
einer rein phonetischen Transkription wird bei einer Token-Type-Zuordnung auch von
Kodierung gesprochen, da der Transkribent eine Klassifizierung des Tokens vornimmt.
Die Übereinstimmung in der Kodierung wird auch inter-coder agreement genannt.
Die Ursache für unterschiedliche Annotationen kann in der individuell verschiedenen
akustischen Wahrnehmung liegen oder in der unterschiedlichen Erfahrung. Ein erfahrener Transkribent mit einem geschulten Gehör transkribiert anders als ein Neuling, der
gerade erst in die Technik eingewiesen wurde. Patterson et al. (1996:80) weisen darauf
hin, dass für die Qualitätssicherung die Schulung der Transkribenten wichtig ist und
vergleichen die Transkriptionstechniken mit einem Mikroskop, das justiert werden
muss, um scharfe Bilder zu liefern. In Analogie dazu sprechen sie von der „Kalibrierung
der Transkriptionstechniken“. Dazu gehören ein Handbuch, das möglichst alle für die
Untersuchung relevanten Phänomene und deren Annotation anhand von Beispielen
erläutert, sowie ein standardisiertes phonetisches Alphabet. Für die Transkription des
Buckeye Corpus54 (Pitt et al. 2005) wurde ein bereits verwendetes Alphabet sowie Transkriptionskonventionen durch die Projektmitarbeiter getestet, indem diese unabhängig
voneinander einminütige Ausschnitte transkribierten und die Unterschiede diskutierten.
Aus diesen Erfahrungen entstand das Transkriptionsmanual, das die Konventionen
sowie das phonetische Alphabet mit insgesamt 69 Symbolen enthält, das die
Transkribenten für die phonetisch enge Transkription der Daten benutzen sollen
(Kiesling 2006). Die inter-transcriber reliability wurde bezogen auf die Segmentgrenzen und die phonetische Annotation gemessen. Dazu bearbeiteten vier Transkribenten unabhängig voneinander jeweils vier einminütige Stichproben aus dem Korpus.
Das entscheidende hier ist nicht das Ergebnis der Untersuchung, das im Wesentlichen
mit anderen Untersuchungen übereinstimmte (Raymond 2003), sondern das Verhältnis
der Stichprobe (vier Minuten) zum Gesamtkorpus (40 x 30-60 min). Da Transkription
zeitintensiv ist, werden für Untersuchungen zur Übereinstimmung von Transkriptionen
i. d. R. relativ kleine Ausschnitte bearbeitet. Für eine einfache orthographische Transkription von gesprochenem Französisch gibt Blanche-Benveniste (1987:179-180) einen
54
Das Korpus, das möglichst vielseitig verwendbar sein soll, hat seinen Schwerpunkt auf der phonologischen Variation, die im modernen amerikanischen Englisch vorkommt. Die Dokumentation sowie die
Rohdaten und die Transkriptionen sind online verfügbar unter der URL: http://vic.psy.ohio-state.edu/.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
91
Erfahrungswert von 20-30 min pro 1 min Rohdaten an. Patterson et al. (1996:83) gehen
bei optimistischer Schätzung vom Faktor 30 für die Transkription im Rahmen der
Konversationsanalyse aus. Brinkmann gibt für eine manuell durchgeführte phonetische
Transkription einen Wert von 1:200 an. Für die Erstellung von Transkripten in der
Gestenforschung, die die orthographische Transkription zugrunde legt, um dann die
sprachbegleitenden Gesten zu identifizieren, ist ein noch höherer Zeitaufwand
erforderlich, da nicht auf ein standardisiertes Beschreibungsinventar wie das IPA
zurückgegriffen werden kann und mehrere Aspekte, die zeitgleich artikuliert werden
wie Mimik, Blick, Körperhaltung und Bewegungen der Hände, notiert werden müssen.
Aus eigenen Erfahrungen in der Transkription von Gebärdensprache, inklusive der
notwendigen Arbeitsschritte für die Konsistenzprüfung, ist ein Faktor von 350-400
realistisch. Der hohe Zeitaufwand hat zur Folge, dass Paralleltranskriptionen nur für
kurze, für das Korpus repräsentative Textausschnitte vorgenommen werden können. Für
eine objektivierbare statistische Messung der Übereinstimmung von Transkripten sind
diese Paralleltranskriptionen unverzichtbar. In der Gebärdensprachforschung wurden
vergleichbare Testverfahren für die Durchführung und Auswertung von Paralleltranskripten noch nicht entwickelt. Ein für Lautsprachen entwickeltes Untersuchungsdesign
kann nicht ohne Weiteres auf die Transkription von Gebärdensprache übertragen
werden. Zum einen ist die Bestimmung des Anfangs- und Endpunktes einer Gebärde
nicht trivial, da verschiedene manuelle und nonmanuelle Zeichen gleichzeitig artikuliert
werden, deren Onset und Offset häufig nicht übereinstimmen. Dies erschwert zudem
das Erfassen bedeutungs- oder für die sprachliche Interaktion relevanter Äußerungsbestandteile. Zum anderen gibt es, im Unterschied zur orthographischen Transkription,
nicht die Möglichkeit, auf ein standardisiertes Schriftsystem zurückzugreifen. Die
Glossierung, verstanden als konsistente Token-Type-Zuordnung, entspricht der Lemmatisierung und macht keine Angabe zur Form der Gebärde und ihrer Bedeutung im Kontext. Während das Internationale Phonetische Alphabet (IPA) eine relativ eindeutige
Zuordnung von Laut zu graphischem Zeichen ermöglicht, erlauben Notationssysteme
für Gebärdensprachen wie z.B. HamNoSys, die Form einer Gebärde auf verschiedene
Weise zu notieren, d.h. die Verwendung der Symbole ist nicht ausreichend normiert, um
Abweichungen in der Notation als Fehler interpretieren zu können. Hinzu kommt, dass
es keine allgemein verbindliche Sortierfolge der HamNoSys-Zeichen gibt, sondern jeder
Benutzer dieses Zeichensatzes die Sortierfolge von HamNoSys-Notationen, z.B. für die
Angabe der Grundform eines Lexems, selbst festlegen kann. Ebenso wie für die
Glossierung und die Transkriptionskonventionen gibt es auch hierfür keinen Standard.
Obwohl es keine Standardschrift für die Transkription von Gebärdensprachen gibt, kann
es dennoch zu fehlerhaften Interpretationen der Token kommen, die MacWhinney
(2008:15) als „overnormalisation“ und „undernormalisation“ beschreibt. Im ersten Fall
werden Äußerungen, insbesondere von Kindern oder L2-Lernern, der Standardform
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
92
zugeordnet, obwohl sie sich in ihrer Lautung davon unterscheiden. Im zweiten Fall
werden häufig wiederkehrende Formabweichungen nicht als Varianten erkannt. Bei der
Token-Type-Zuordnung in Gebärdensprachen kann die im Lexikon oder in der lexikalischen Datenbank festgelegte und vom Transkribenten internalisierte Grundform dazu
führen, dass ähnliche Vorkommen diesem Type zugeordnet werden und der Formunterschied entweder nicht erkannt oder als nicht relevant angesehen wird. In der Regel
wird die Formabweichung dann auch nicht notiert. Im Fall der „undernormalization“
fällt die Formabweichung zwar auf und wird beim Token notiert, sie wird jedoch nicht
als wiederkehrendes Muster interpretiert, das eine weitere Differenzierung erfordert,
z.B. als phonologische Variante. Während die „overnormalization“ ein Problem der
unbewussten Korrektur sprachlicher Äußerungen anhand einer internalisierten Norm
darstellt, die durch eine Paralleltranskription entdeckt werden kann, ist die „undernormalization“ ein Problem der Interpretation vorhandener Annotationen. Werden
Formabweichungen als nicht relevant angesehen, dann sind auch diese Fälle schwer zu
entdecken. Entscheidend ist in beiden Fällen, dass die Annotationen immer mit den
Rohdaten verbunden sind, sodass unmittelbar auf diese zugegriffen werden kann. Je
öfter verschiedene Personen die Rohdaten ansehen, desto größer ist die Chance, dass
Fehler entdeckt und korrigiert werden können.
Ein erster Schritt zur Qualitätssicherung der Transkriptionen ist die Durchführung der
Transkription in einem mehrstufigen Verfahren (vgl. auch Johnston/de Beuzeville
2008:8). Die Erfahrung hat gezeigt, dass ein Transkribent überfordert ist, wenn er
mehrere Bearbeitungsschritte berücksichtigen soll. Es hat sich als durchaus sinnvoll
erwiesen, schon die Rohtranskription in verschiedenen Durchgängen vorzunehmen, d.h.
zuerst die Token zu segmentieren, dann die segmentierten Token zu identifizieren und
Formabweichungen einzutragen und in einem dritten Durchgang Ablesewort und
Mundgestik zu annotieren. Werden diese Arbeitsschritte von einem Transkribenten
erledigt, dann findet anschließend eine Überprüfung durch einen anderen Transkribenten statt. Dies entspricht zwar nicht den Maßstäben, die eine unabhängige Paralleltranskription setzt, aber es ist ein Vorgehen, das mit einem vertretbaren Zeitaufwand
eine Absicherung der Transkriptinformationen bietet. Systematische Fehler können dadurch i. d. R. entdeckt werden. Weiterhin werden im Rahmen der Lemmarevision
Transkripte durch die Angabe der Bedeutung erweitert. Dieser zusätzliche Bearbeitungsschritt, der nur mithilfe eines direkten Zugriffs auf die Rohdaten möglich ist, ist
mit einer Überprüfung der vorhergehenden verbunden und kann zu einer Änderung der
Token-Type-Zuordnung führen. Ebenso wird die Auswahl geeigneter DGS-Übersetzungen (s. Kap. 7) nicht allein aufgrund der vorliegenden Glossierungen sowie
zusätzlicher Angaben aus der Sichtung (s. Kap. 5) vorgenommen, sondern beginnt mit
dem wiederholten Ansehen aller elizitierten Antworten.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
6.3
93
Lemmarevision: vom Type zum Token und Type-Umgebung
Bei der Rohtranskription wird im Rahmen der Token-Type-Zuordnung vom einzelnen
Token ausgehend ein passender Type in der lexikalischen Datenbank gesucht, d.h. die
vorher in der lexikalischen Datenbank festgelegten Type-Informationen zu Form und
Bedeutung entscheiden über die Zuordnung. Die Suche nach einem passenden Type und
die Zuordnung entsprechen dem Top-down-Ansatz.
Die Lemmarevision dient zum einen dazu, die Type-Informationen durch den Vergleich
aller Token eines Types zu überprüfen. Zum anderen wird, ausgehend von den TokenInformationen, die Abgrenzung verschiedener Types (Ausführungsvarianten) und ihrer
Ausprägungen (Modifikationen) untereinander geprüft. Dadurch soll einerseits eine
Unterdifferenzierung in der Token-Type-Zuordnung korrigiert werden, indem entsprechend dem Bottom-up-Ansatz z.B. neue Varianten oder Modifikationen eines Types
angelegt werden, andererseits eine mögliche Überdifferenzierung auf der Type-Ebene,
z.B. durch das im Nachhinein nicht gerechtfertigte Anlegen einer Variante, die sich als
idiosynkratische oder lexikalisch nicht relevante Abweichung herausstellt
(s. Kap. 6.2.2). Im Folgenden werde ich die einzelnen Aspekte der Lemmarevision nur
auf Token beziehen, die Belege für konventionelle Gebärden sind. Selbstverständlich
werden auch die Token produktiver sowie sonstiger Gebärden (s. Kap. 6.1.1) im Zuge
der Lemmarevision überprüft.
6.3.1 Vom Type zum Token
Von den Type-Informationen ausgehend – Zitierform, konventionelle Bedeutungen
(s. ➚ 4.1.5) und ikonischer Gehalt (s. ➚ 4.2.1) – werden alle Token daraufhin überprüft,
ob sie mit diesen Informationen übereinstimmen. An dieser Stelle ist es wichtig zu
betonen, dass diese Überprüfung nicht nur anhand der Annotationen, d.h. der Primärdaten, vorgenommen wird, sondern immer durch einen Zugriff auf die Rohdaten. Vorhandene Annotationen zur Form des Tokens (Abweichung von der Grundform) oder zur
Bedeutung (Ablesewort oder Bedeutung der Einzelgebärde) sind notwendig, um die
Token untereinander vergleichen zu können und sich z.B. durch eine geeignete Sortierung einen schnelle Überblick zu verschaffen. Die Überprüfung dieser Angaben, auch
auf Vollständigkeit hin, ist jedoch im Rahmen der Qualitätssicherung notwendig. Dies
kann nur durch das Ansehen der Rohdaten, d.h. der entsprechenden Videoauschnitte,
geschehen. Insbesondere bei Token, bei denen z.B. keine Formabweichung annotiert ist,
muss sich der Transkribent im Rahmen der Lemmarevision vergewissern, dass die
Ausführung des Tokens mit der Zitierform des Types übereinstimmt. Zur Überprüfung
der Bedeutung ist es in einigen Fällen, insbesondere bei produktiven Gebärden, wichtig,
sich auch den Äußerungskontext anzusehen.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
94
Bezogen auf den Formaspekt sind Token ohne Formabweichung Belege für diesen
Type. Vorhandene Formabweichungen können entweder idiosynkratisch oder kontextbedingt, aber lexikalisch nicht relevant sein. Diese Token zählen ebenfalls als Belege.
Bedeutungsrelevante Formabweichungen sind keine Belege für die Zitierform einer Gebärde, sondern für eine Modifikation. Ist in der lexikalischen Datenbank noch keine entsprechende Einheit auf Type-Ebene angelegt, dann muss die Datenbank angepasst (bottom-up) und eine Änderung der Token-Type-Zuordnung vorgenommen werden (topdown). Wiederholte intra- und/oder interpersonelle Formabweichungen, die keine Modifikation darstellen, sind Hinweise auf eine Ausführungsvariante. Es kann aber auch
sein, dass die Zitierform des Types aufgrund dieser Datenlage geändert werden muss.
Dies hat, ebenso wie eine Korrektur der Token-Type-Zuordnung, zur Folge, dass die
annotierte Formabweichung in den Token ebenfalls manuell angepasst werden muss.
Damit ein Token als Beleg eines Types gelten kann, muss es nicht nur in der Form,
sondern auch in der Bedeutung mit den Type-Informationen übereinstimmen. Einen
Hinweis auf die Bedeutung eines Tokens liefert das Ablesewort. Dies trifft insbesondere
für die elizitierten Antworten zu, die i. d. R. von einem Ablesewort, das dem
Fachbegriff entspricht, begleitet werden. Weicht die Bedeutung von den konventionellen Bedeutungen einer Gebärde ab, dann muss dies im Token notiert werden. Entsprechen Ablesewort und/oder Bedeutung nicht den konventionellen Bedeutungen des
Types, dann kann es sich um eine produktive Verwendung einer konventionellen Gebärde (s. ➚ 4.1.5.1) handeln – dies erfordert eine neue Zuordnung des Tokens – oder um
eine neue konventionelle Verwendung einer Gebärde handeln – dies erfordert eine Änderung der lexikalischen Datenbank auf der Type-Ebene, indem ein neues Lexem angelegt wird und das Token diesem Lexem zugeordnet wird. Die Token-Bedeutung sollte
als Annotation im Transkript bzw. im Token-Tag bleiben, da im Unterschied zur
HamNoSys-Notation der Formabweichung der Vergleich der Token hinsichtlich der
Bedeutung dadurch nicht erschwert wird. Im Sinne der Vollständigkeit und um die
Trefferquote bei der Token-Suche zu erhöhen, ist es sogar wünschenswert, wenn die
Bedeutung bei jedem Token eingetragen ist.
6.3.2 Type-Umgebung
Für die Überprüfung der Type-Umgebung ist es sinnvoll, zuerst mit der Zitierform einer
Gebärde zu beginnen, dann die dazugehörigen Modifikationen zu prüfen und anschließend die Ausführungsvarianten. Danach schließt sich die Überprüfung der Synonyme
an. Da Zitierform, Modifikation und Synonyme i. d. R. mit demselben Glossennamen
benannt werden, können sie über die Suchfunktion im Gebärdenfenster einfach selektiert werden.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
95
Abb. 16: Gebärdenfenster mit selektierten Types (Glossenname)
Während bei der Überprüfung der Token-Type-Zuordnung Form und Bedeutung im
Vordergrund stehen, muss auf der Type-Ebene auch der ikonische Gehalt einer Gebärde
berücksichtigt werden, um entscheiden zu können, ob es sich um verschiedene Gebärden, Varianten oder Modifikationen eines Types handelt. Die Rolle der Ikonizität und
ihre Auswirkungen auf die Lemmaselektion in der lexikalischen Datenbank wurden von
König et al. (2008) anhand verschiedener Beispiele vorgestellt (s. ➚ 4.2.2). An dieser
Stelle möchte ich lediglich auf die Formgleich- und Formähnlich-Verweise innerhalb
der Types eingehen, die im Rahmen der Lemmarevision geprüft und erweitert werden.
Die Beziehungen zwischen Grundform und Modifikationen, verschiedenen Ausführungsvarianten und Synonymen werden bisher durch die Glossierung erfasst. Die Types
erhalten denselben Glossennamen, der entsprechend den Glossierungskonventionen
durch zusätzliche Ziffern und Buchstaben erweitert wird. Darüber hinaus gibt es jedoch
viele Gebärden, die formgleich oder formähnlich sind, ohne in einem der genannten
Beziehungsverhältnisse zueinander zu stehen. In vielen Fällen ist die Formähnlichkeit
nicht rein zufällig, sondern sie lässt sich durch den Vergleich der den Gebärden
zugrunde liegenden Bilder erklären. Die aufgrund ihrer Ikonizität sich ergebenden
Beziehungen zwischen Gebärden bilden ein z.T. sehr engmaschiges Netz, das Auskunft
darüber gibt, wie sehr die Ikonizität im Lexikon der Gebärdensprachen verankert ist
(s. ➚ 4.2.2.6). Es ist einerseits aus lexikologischer und lexikographischer Sicht geboten,
dass die Konventionalität der Form-Bedeutungs-Beziehung für die Lemmaselektion im
Vordergrund steht, andererseits ist es unverständlich, warum die Ikonizität als augenfälliges Spezifikum von Gebärdensprachen in deren Beschreibung häufig ausgeklammert wird. Es stimmt, dass Gebärden wie HEXE und PAPAGEI „in keiner semantischen
Beziehung zueinander [stehen]“ (Becker 2003:176). Über das Ziel, die Bedeutung von
Gebärden als entscheidendes Kriterium für die Lemmaselektion zu betonen, hinausgeschossen scheint allerdings folgende Aussage von Johnston/Schembri (1999:158), die
sich auf die Auslan-Gebärden SCISSORS und CRAB beziehen: „It is clear from the
iconicity, etymology, or semantics of each lexeme that they are actually completely
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
96
unrelated to each other.“ Beide Gebärden unterscheiden sich lediglich in der Anzahl der
Hände: Bei SCISSORS wird die schneidende Bewegung von Zeige- und Mittelfinger nur
mit einer Hand, bei CRAB beidhändig symmetrisch ausgeführt. Bei den vier genannten
Gebärden werden Lebewesen bzw. Gegenstände dadurch visualisert, dass ein Bild
erzeugt wird, das leicht auf deren hervorstechendes Merkmal schließen lässt. Ein
gebogener Gegenstand im Gesicht, der durch eine skizzierende Bewegung mit dem
gekrümmten Zeigefinger visualisiert wird, ist sowohl für „Hexe“ als auch für „Papagei“
ein eindeutiger Kontextualisierungshinweis, ebenso die schneidende Bewegung der
beiden Finger, die entweder für die Schneiden einer Schere oder für die Zangen eines
Krebses stehen (substitutive Technik; s. ➚ 4.2.1.1). Wie bei den produktiven Gebärden
erzeugen diese ikonisch motivierten Gebärden ein gleiches („gebogener Gegenstand im
Gesicht“) bzw. ähnliche Bilder mit einer allgemeinen Bedeutung („ein Paar längliche
Schneidwerkzeuge“ versus „zwei paar Schneidwerkzeuge“), die jedoch nicht durch den
konkreten Äußerungskontext, sondern durch die Konventionalisierung schon
spezifiziert wurde. Insofern stehen die Gebärden SCISSORS und CRAB bezüglich ihrer
Ikonizität in einer sehr engen Beziehung. Die entscheidende Frage ist, ob diese erste
Stufe der Konventionalisierung (Johnston/Schembri 1999) in der lexikologischen und
lexikographischen Beschreibung konventioneller Gebärden unberücksichtigt bleiben
soll. Der von uns gewählte Ansatz, produktive wie konventionelle Gebärden
hinsichtlich ihres ikonischen Gehalts zu beschreiben und zu analysieren und die
formseitigen ikonisch-motivierten Beziehungen zwischen Gebärden zu dokumentieren,
schlägt eine andere Richtung ein, da wir der Überzeugung sind, dass nur so der
Stellenwert der Ikonizität angemessen berücksichtigt werden kann (s. ➚ 4.2).
6.3.3 Fehlerdokumentation, Fehlerkorrektur und Hierarchie der
Bearbeitungsrechte
Johnston/de Beuzeville (2008:8-9) weisen darauf hin, dass Fehler in der Annotation oder
der Token-Type-Zuordnung nicht sofort behoben werden sollten. Statt dessen sollten sie in
einer Kommentar-Spur eindeutig benannt werden, z.B. immer beginnend mit „error:“,
damit sie gezielt über die Suchfunktion des Programms (ELAN) gefunden werden können,
und in einem separaten Überarbeitungsschritt geprüft werden. Dadurch soll vermieden
werden, dass vermeintliche Fehlerkommentare von einem anderen Transkribenten wieder
gelöscht werden, der die betreffende Annotation nicht als Fehler einstuft, und so Fehler
nicht entdeckt werden. Weiterhin kann eine Fehlerkorrektur weitere Folgen nach sich
ziehen, die der Transkribent im Moment der Korrektur nicht überblickt.
Dieses Verfahren folgt der Logik der Trennung zwischen Transkript und lexikalischer
Ressource, die im Falle von Auslan durch die Auslan SignBank55 oder das Auslan55
URL: http://www.auslan.org.au/.
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
97
Wörterbuch (Johnston 1998a/b) zur Verfügung steht und vom Transkribenten nicht verändert werden kann. Da ELAN dokumentenzentriert ist, d.h. die Bearbeitung und Verwaltung verschiedener Transkripte ermöglicht, aber keine Anbindung an eine Datenbank bietet, steht diese Option auch nicht zur Verfügung. Weiterhin wird davon ausgegangen, dass die Kommentare von einem Supervisor oder Korpus-Manager durchgesehen werden, der mehr Hintergrundwissen und mehr Rechte hat als der Transkribent.
Werden von ihm Änderungen vorgenommen, dann nicht in demselben Transkript, sondern in einer Kopie dieses Transkripts, das damit die aktuellste Version darstellt. Dadurch ist gewährleistet, dass die verschiedenen Bearbeitungsschritte dokumentiert sind
und Änderungen jederzeit nachvollzogen werden können durch den Vergleich der verschiedenen Transkriptversionen. Der Nachteil dieses Vorgehens liegt darin, dass ein
automatisierter Abgleich verschiedener Transkriptversionen, ähnlich wie bei einem
Textprogramm, das zwei Dokumente vergleicht und die Änderungen anzeigt, von
ELAN nicht unterstützt wird, d.h. der Abgleich ist zeitaufwändig. Die Korrekturen dürfen nur von wenigen Personen ausgeführt werden, die i. d. R. nur wenig Zeit für diese
Arbeiten haben, d.h. es ist sehr wahrscheinlich, dass es zu einem Bearbeitungsstau
kommt, der dazu führt, dass die Aktualisierung der Transkripte wesentlich später geschieht als vorgesehen.
Sind Transkript und Datenbank wie in iLex miteinander verbunden, sodass sich Änderungen in der Datenbank direkt auf das Transkript auswirken, dann ist die Frage der
Fehlerdokumentation noch dringender als in einem dokumentenzentrierten Ansatz.
Zwar lässt sich eine SQL-Datenbank auf ein beliebiges Datum zurücksetzen und zeigt
die Annotationen zum gewünschten Zeitpunkt. Diese Möglichkeit ist jedoch nur für
Notfälle vorgesehen, wenn Datenverluste eintreten, z.B. durch unsachgemäße updateoder delete-Befehle. Die Möglichkeit, ein Transkript zu duplizieren und darin Änderungen vorzunehmen, besteht auch in iLex. Allerdings sind dadurch nur diejenigen Annotationen konserviert, die als freier Text eingetragen wurden. Alle Annotationen, die lediglich eine Referenz (eine ID-Nummer) enthalten, werden aktualisiert, sobald in der
entsprechenden Zeile der Tabelle, auf die diese ID-Nummer verweist, Änderungen
vorgenommen werden. Um verschiedene Bearbeitungsstände zu dokumentieren, müssten diese Referenzen von der Datenbank abgetrennt werden, z.B. indem die Tags in
Textfelder umgewandelt werden und nicht mehr die ID-Nummer, sondern den damit
verbundenen Wert als Text enthalten.
Ein abgestuftes Vorgehen, das nicht das Transkript als Ganzes konserviert, besteht
darin, bestimmte Annotationswerte, z.B. die Token-Type-Zuordnung, zu schützen. Eine
Datenbank hat den Vorteil, dass die Bearbeitungsrechte für die einzelnen Benutzer
feiner abgestuft werden können als in einem dokumentenzentrierten Ansatz. So können
Zugriffs-, Lese- und Schreibrechte bezogen auf Filme, Transkripte oder Spurarten
individuell oder gruppenspezifisch vergeben werden. Ebenso können Veränderungen in
Transkription, Lemmatisierung und Aufbau einer lexikalischen Datenbank
bestimmten Tabellen benutzerspezifisch erlaubt oder verboten werden. Es wäre z.B.
möglich, dass ein Transkribent nur von ihm selbst angelegte Tags verändern kann, nicht
jedoch Tags, die ein anderer Transkribent angelegt hat. Ein Supervisor dagegen könnte
die Glossen-Tags verändern und die vom Transkribenten angelegten Kommentare
überarbeiten bzw. löschen.
98
Auswahl geeigneter DGS-Übersetzungen
7
99
Auswahl geeigneter DGS-Übersetzungen
Die Segmentierung und Transkription der elizitierten Antworten sowie selektiver Ausschnitte aus den vorstrukturierten Gesprächen diente der Dokumentation der Daten und
folgt einem rein deskriptiven Ansatz. Mit der Auswahl geeigneter DGS-Entsprechungen
als Übersetzungen für die Fachbegriffe kommt zwangsläufig ein präskriptives Moment
hinzu, da allein durch das Weglassen von Antworten eine Wertung vorgenommen wird.
Die Reduktion auf möglichst eine Antwort ist im Sinne eines L2-Lerners, der mit einer
Vielzahl möglicher Übersetzungen überfordert wäre. Andererseits möchte ein gehörloser
Benutzer in den DGS-Übersetzungen die Gebärden wiederfinden, die zu seinem eigenen
Wortschatz gehören. Der Kompromiss, den wir seit dem Fachgebärdenlexikon Hauswirtschaft (HLex; Konrad et al. 2000) anstreben, besteht darin, dass wir möglichst viele
Varianten und Synonyme einer Gebärde in der Auswahl berücksichtigen, die Auswahl
aber auf durchschnittlich zwei Antworten pro Begriff begrenzen (s. Kap. 3, Tab. 2).
Ziel der Auswahl ist es, auf der Grundlage der transkribierten Antworten diejenigen
auszuwählen, die den Fachbegriff angemessen wiedergeben, d.h. die Gebärden müssen
einerseits mit den Gebärdenbildungsregeln der DGS im Einklang stehen (vgl. Becker
2003), andererseits müssen sie sich entweder auf den Inhalt des Fachbegriffs oder das
Fachwort beziehen lassen. Dazu ein Beispiel: Für den Begriff ‚Bluthochdruck‘ wurden
im Fachgebärdenlexikon Gesundheit und Pflege (GLex, Konrad et al. 2007) drei DGSEntsprechungen ausgewählt. Die ersten beiden bestehen aus jeweils zwei Gebärden,
AUFSTEIGEN1A () BLUTDRUCK2 () und AUFSTEIGEN1B
() BLUTDRUCK2. Die Gebärden werden von den Ablesewörtern
‚hoch‘ und ‚blutdruck‘ begleitet, eine wörtliche Übersetzung dieser Gebärden wäre
„hoher Blutdruck“. Eine dritte DGS-Entsprechung besteht aus drei Gebärden und ist
eine Lehnübersetzung, d.h. die Reihenfolge der Gebärden entspricht der Reihenfolge
der drei Bestandteile des deutschen Kompositums: BLUT1B () OBEN2A
() BLUTDRUCK2. Diese Übersetzung wurde zusätzlich zu den beiden anderen
ausgewählt, da sechs von 13 Informanten sowohl zwei- als auch dreikomponentige
Antworten gezeigt hatten. Außerdem bietet diese Auswahl die Möglichkeit, drei
verschiedene Gebärden für die Bedeutung „hoch“ zu zeigen. Komposita müssen jedoch
nicht immer durch mehrere Gebärden übersetzt werden. Die Gebärde HUSTEN2
() zusammen mit dem Ablesewort ‚keuchhusten‘ genügt, um diesen
Fachbegriff zu übersetzen. Es handelt sich hierbei nicht um eine spontane, produktive
Gebärde-Ablesewort-Kombination, sondern um eine konventionelle Verwendung dieser
Gebärde in dieser Bedeutung (s. ➚ 4.1.5.1).
Auswahl geeigneter DGS-Übersetzungen
100
Durch die Transkription ist es möglich, die Häufigkeit gleicher Antworten von verschiedenen Informanten als ein wichtiges Auswahlkriterium einzusetzen. Dazu werden die
Antworten zu einem Begriff nach Glossen sortiert (s. Abb. 17).
Abb. 17: Auswahl-Fenster (Auschnitt, sortiert nach Glossenkette)
Diese Sicht auf die Daten56 zeigt zusätzlich zur Glossierung die Formabweichungen, die
im Token eingetragen wurden, das Ablesewort („Mundbild“), den Kode des
Informanten, den Stimulus bzw. den Begriff, zu dem die Gebärde erhoben wurde, die
Ergebnisse der Sichtung („Fremdeinschätzung“, „Selbsteinschätzung“; s. Kap. 5.2)
sowie die Erhebungsart. Der Kode für die Erhebungsart genügt, um anzuzeigen, ob ein
Informant sowohl bei der Elizitation (Erhebungsart = 13) als auch im vorstrukturierten
Gespräch (Erhebungsart = 1) und bei der freien Erklärung zu einer Bildtafel (Erhebungsart = 14) dieselbe(n) Gebärde(n) verwendet. Anstelle der Kodes könnten ebenso
der Name des Informanten bzw. ein Kürzel oder die Bezeichnung der Erhebungsart
eingezeigt werden. Die vorgenommene Auswahl wird durch die beiden Glossenzeilen
auf der linken Seite des Auswahl-Fensters angezeigt. Die Auswahl geschieht dadurch,
dass eine Zeile in der rechten Fensterseite markiert und per drag&drop in die linke
Fensterseite gezogen wird.
Die Auswahl wird jedoch nicht allein auf der Grundlage der Glossierung und der Sichtung vorgenommen, sondern es werden alle Videoausschnitte nochmals angeschaut – in
diesem Fall 119 Videosequenzen von 12 Informanten –, um die Sichtung sowie weitere
Annotationen wie z.B. die Ablesewörter zu überprüfen. Durch den direkten Vergleich
kann es sein, dass Entscheidungen korrigiert und weitere Antworten transkribiert
werden oder bereits transkribierte Antworten von der Auswahl ausgeschlossen werden.
Zeigen verschiedene Informanten dieselbe Antwort, dann ist dies ein starker Hinweis
auf eine in der DGS akzeptable Übersetzung des Fachbegriffs. Dies gilt selbstverständ56
Durch angepasste SQL-Abfragen (select-Befehle) können unterschiedliche Kombinationen von Daten
in Listen zusammengestellt werden. Über das Kontext-Menü können diese Listen in dem geöffneten
Fenster aufgerufen werden.
Auswahl geeigneter DGS-Übersetzungen
101
lich mit der Einschränkung, dass es sich insbesondere bei nichtkonventionellen Gebärden sowie Lehnübersetzungen nicht um natürlichsprachliche Daten handelt, die den
tatsächlichen Sprachgebrauch wiedergeben, sondern um Belegsammlungen (s. Hundt
2005). Die Auswertung der Antworten zeigt jedoch, welche Übersetzungsstrategien die
gehörlosen Informanten anwenden und inwieweit diese zu einem übereinstimmenden
Ergebnis führen.
Bestehen die Antworten aus konventionellen Gebärden, die den Fachbegriff benennen
bzw. einen geeigneten Kontextualisierungshinweis für das abzulesende Wort geben,
dann handelt es sich i. d. R. um geeignete Übersetzungen. In einigen Fällen wurde
zusätzlich eine Umschreibung ausgewählt wie z.B. beim Begriff ‚Tumormarker‘. Die
wörtliche Übersetzung der ausgewählten Antwort ist: „ein Laborbefund, der eingetragen
wird und bestätigt, dass es sich um Krebs handelt“.
Als Alternative zu einer wortbezogenen Übersetzung, wie sie bei Lehnübersetzungen,
Initialisierungen oder gefingerten Wörtern gegeben ist,57 werden produktive Gebärden
ausgewählt, die die begriffliche Bedeutung in ein unmittelbar einleuchtendes Bild
fassen wie z.B. bei Herzkatheter. Die Gebärde $MAN-INSTRUMENT-EINFÜHREN123_HERZ () zeigt, wie sich ein Herzkatheter von der Leiste
zum Herzen bewegt. Obwohl die Gebärde SCHMAL138A () mit der
konventionellen Bedeutung „Schlauch“ auch für „Katheter“ verwendet werden kann,
zeigen neun von 12 Informanten eine produktive Gebärde, deren konkrete Ausführung
mit der bereits genannten identisch ist oder nur leicht variiert. Lediglich drei
Informanten verwenden modifizierte Formen der Gebärde SCHLAUCH1 mit den wörtlichen Bedeutungen „Schlauch, der zum Herzen führt“, „Schlauch, der vom Herzen
wegführt“ oder „Schlauch, der sich im Herzen befindet“.
Ebenso wie produktive Gebärden ausgewählt werden, werden auch Modifikationen
konventioneller Gebärden ausgewählt, um zu zeigen, wie diese Gebärden entsprechend
der Spezifizierung der Bedeutung verwendet werden. Zum Beispiel wurden für den
Begriff ‚absaugen‘ eine Modifikation der Gebärde ABSAUGEN1 () sowie zwei
Modifikationen der Gebärde SAUGEN2 () ausgewählt: ABSAUGEN11
() für das Absaugen aus dem Mund, SAUGEN2558 () für das
Absaugen aus den oberen Atemwegen und SAUGEN2459 () für das
Absaugen aus dem Magen.
In den meisten Fällen ist es möglich, eine der gezeigten Antworten als geeignete DGSÜbersetzung auszuwählen. Nur wenn die Informanten keine Antwort auf den Stimulus
57
58
59
Vgl. die Kritik von Rasmus/Allen (1988) an den vom NTID veröffentlichten ASL-Fachgebärden
(s. ➚ 2.4.1).
Als Produktionsglosse wurde ABSAUGEN21 gewählt.
Als Produktionsglosse wurde ABSAUGEN22 gewählt.
Auswahl geeigneter DGS-Übersetzungen
102
geben oder selbst nicht zufrieden sind mit ihren Vorschlägen, müssen neue Übersetzungsvorschläge entwickelt werden. Eine Möglichkeit besteht darin, im Korpus
vorhandene Gebärden neu zu kombinieren. Zum Beispiel wurden die Gebärden AUGE1
() und VERRINGERN1B (), kombiniert mit dem Ablesewort ‚makuladegeneration‘ als Übersetzungsvorschlag für den Begriff ‚Makuladegeneration‘ aufgenommen. Solche neu kombinierten Übersetzungen machen im Fachgebärdenlexikon Gesundheit und Pflege weniger als 5 % der gesamten Übesetzungen aus.
Neu entwickelte Gebärden, die im Korpus nicht enthalten sind, wurden nur für 33
Übersetzungen benötigt, das sind weniger als 1,5 % der 2326 im Lexikon enthaltenden
DGS-Übersetzungen.
Um einen Kompromiss zu finden zwischen dem Anspruch, möglichst viele Varianten
und Synonyme einer Gebärde zu zeigen, und der Häufigkeit der Antworten, werden
nach dem ersten Durchgang die Gebärden geprüft, die erhoben wurden, jedoch nicht in
den ausgewählten Antworten enthalten sind. Ebenso kann man sich mithilfe einer
Abfrage gleiche Antworten von mindestens zwei Informanten anzeigen lassen, die nicht
ausgewählt wurden. Über die Nesterbildung ist es möglich, die Anzahl der Antworten
zu reduzieren, indem z.B. beim Begriff ‚Herz‘ alle verschiedenen Gebärdenvarianten
und Synonyme für die Bedeutung „Herz“ ausgewählt werden. In allen anderen
Begriffen, die dieses Wort enthalten, wird nur noch die jeweils häufigste Antwort
ausgewählt. Die Entscheidung für eine noch nicht ausgewählte Gebärde kann zu Lasten
der Antworten fallen, die häufig erhoben wurden, aber nicht ausgewählt werden, um die
Anzahl der Antworten gering zu halten.
Lexikographische Beschreibung der Einzelgebärden
8
103
Lexikographische Beschreibung der Einzelgebärden
Seit dem Fachgebärdenlexikon Tischler/Schreiner (TLex; Arbeitsgruppe Fachgebärdenlexika 1998) enthalten die Fachgebärdenlexika ein separates Gebärdenverzeichnis mit
allen Einzelgebärden, die in den DGS-Entsprechungen verwendet werden. Dadurch
sollen die Ergebnisse der Transkription und lexikalischen Analyse dokumentiert
werden. Neben dem Anspruch einer korpusbasierten lexikographischen Beschreibung
der Gebärden hat diese Transparenz auch die Intention, den Eindruck zu vermeiden,
dass es sich bei den DGS-Übersetzungen um etablierte Fachgebärden handelt (s. ➚ 2.4),
die bereits konventionalisiert sind, bei mehrkomponentigen Übersetzungen z.B. als
Gebärdenkomposita oder etablierte Mehrwort-Äußerungen. Die Angaben zu Form,
Bedeutung, ikonischem Gehalt einer Gebärde, ihren Modifikationen und Varianten
sowie ihrer grammatischen Verwendung im Gebärdenraum geben dem interessierten
Benutzer die Mittel in die Hand, die Gebärden als lexikalische Bausteine für
Äußerungen zu benutzen, die weit über ihre Verwendung im Rahmen der DGSÜbersetzung eines Fachbegriffs hinausgehen. Der Blick auf die Bestandteile dieser
Übersetzungen macht deutlich, welche Übersetzungsstrategien es in der DGS gibt und
welche lexikalischen Mittel eingesetzt werden. Die Gebärden sind in den
Fachgebärdenlexika als Glossen unter den DGS-Übersetzungen ausgewiesen, die im
Gebärdenverzeichnis nachgeschlagen werden können.60 Dort sind die Gebärden,
eingeteilt in produktive, konventionelle und sonstige Gebärden, detailliert beschrieben.
Die Einträge sind nach den Glossen sortiert, wodurch ein Blick auf die unmittelbare
Umgebung einer Gebärde, ermöglicht wird, da Zitierform, Modifikationen, Varianten
und Synonyme aufeinanderfolgen.61 Durch das Gebärdenverzeichnis wird eine
bidirektionale Nutzung der Fachgebärdenlexika ermöglicht, da Gebärden aufgrund von
Formeigenschaften nachgeschlagen bzw. gezielt gesucht werden können.62 Weiterhin
können konventionelle Gebärden über ihre Bedeutungen gesucht werden, unabhängig
vom Fachbegriff.63
60
61
62
63
Die elektronische Version der Fachgebärdenlexika ist mit ihren vielschichtigen Verweisen, die per
Mausklick aktiviert werden können, wesentlich benutzerfreundlicher als die Buchversion. Abgesehen
davon sind die Gebärden als Videofilme abrufbar. Die Form einer Gebärde ist wesentlich leichter zu
erfassen als anhand von zweidimensionalen Standbildern mit Bewegungspfeilen.
In der elektronischen Version werden diese Form- und/oder Bedeutungsbeziehungen in jedem Eintrag
durch die Rubrik „Gebärdenumgebung“ angezeigt.
In der elektronischen Version der Fachgebärdenlexika ist zusätzlich zu einem Handformenregister
eine Suche nach Gebärdenform implementiert, die es dem Benutzer ermöglichst, Gebärden anhand der
Anzahl der Hände sowie der Formparameter Handform, Handstellung, Ausführungsstelle und Bewegung zu suchen. In der Buchversion steht dafür lediglich das Handformenregister zur Verfügung.
Seit dem Fachgebärdenlexikon Gesundheit und Pflege steht dafür ein Bedeutungsregister zur Verfügung, das die deutschen Wörter enthält und auf die Gebärden verweist. In der elektronischen Version
können diese Wörter anhand eines Registers oder einer Textsuche gefunden werden. Diese Bedeutungsangaben enthalten alle in der lexikalischen Datenbank verzeichneten konventionellen Bedeutungen einer Gebärde, d.h. sie sind nicht nur auf das für dieses Projekt bearbeitete Korpus beschränkt.
Bedeutungsangaben konventioneller Gebärden finden sich in den beiden vorhergehenden Fachgebär-
Lexikographische Beschreibung der Einzelgebärden
104
Die Abbildungen 18 und 19 zeigen die Einträge im Gebärdenverzeichnis zur Gebärde
WACHSEN2A () und ihrer Modifikation WACHSEN21A ().
Abb. 18: Eintrag WACHSEN2 im Gebärdenverzeichnis
Abb. 19: Eintrag WACHSEN21 im Gebärdenverzeichnis
Die Angaben zu Form, Bedeutungen und ikonischem Gehalt (s. „Beschreibung“), die
Unterscheidung zwischen Zitierform, Modifikation und Varianten sowie Synonymen
(s. „Gebärdenumgebung“) sind Ergebnis der Transkription und der Lemmarevision. Die
Klassifizierung der konventionellen Gebärden hinsichtlich der Gebärdenraumnutzung
ist ein neuer Bearbeitungsschritt, der zur weiteren Konsistenzsicherung beiträgt, da die
bestehende Lemmaselektion auch mit dieser Einteilung übereinstimmen muss. Weiterhin wird bei Modifikationen die Bedeutung der Gebärde und damit die semantische Motiviertheit der Formveränderung im Sinne einer wörtlichen Übersetzung ausgearbeitet.
denlexika Hauswirtschaft und Sozialarbeit/Sozialpädagogik jeweils nur bezogen auf die für die Übersetzung des Fachbegriffs relevante Bedeutung. Eine Suche nach Bedeutungen bzw. ein Bedeutungsregister gab es noch nicht.
Lexikographische Beschreibung der Einzelgebärden
105
Die folgende Tabelle gibt einen Überblick über die Bearbeitungsschritte und die Informationen, die als Annotationen im Transkript oder als Type-Informationen in der lexikalischen
Datenbank eingetragen werden. Sie bezieht sich nur auf die konventionellen Gebärden.
Bearbeitungsschritt
Token-Information
(Annotationen im Transkript)
Glosse
[beinhaltet Tokenisierung und
Lemmatisierung]
1. Rohtranskription
Transkribent A
Formabweichung
Ablesewort oder Mundgestik
Mimik
Gestik
(Überprüfung der Angaben)
Bedeutung der Einzelgebärde
Komplexbedeutung
(z.B. bei Lehnübersetzungen)
Interpretation des
Verhältnisses Ablesewort 64
Gebärde
(Korrektur der Token-TypeZuordnung, Überprüfung der
Annotationen)
Transkribent B
2. Lemmarevision
3. Lexikographische
Beschreibung der
Einzelgebärden
Type-Information
(Angaben zum Gebärdeneintrag)
Zitierform
konventionelle Bedeutungen
(Verweise auf formgleiche und formähnliche
Gebärden)
(Erweiterung der Bedeutungen)
(Überprüfung der Form-Bild-BedeutungsBeziehung der Types und der Lemmaselektion)
Bildanalyse (ikonischer Gehalt):
• systematisierte Beschreibung
• Analyse der Bilderzeugungstechnik
Verweise auf formgleiche und formähnliche
Gebärden
(Überprüfung: Bildanalyse, Verweise,
Bedeutungen)
Gebärdenraumnutzung
Bedeutungsangabe bei Modifikationen im
Sinne einer wörtlichen Übersetzung
(semantische Motivation der Ausführung)
Kommentare zu Gebärdenbildung, Ausführung, regionaler Variation
Tabelle 6: Reihenfolge und Inhalte der Bearbeitungsschritte
Im Folgenden werde ich den Aspekt der Gebärdenraumnutzung sowie die Bedeutungsangabe bei Modifikationen vorstellen. Auf die Ausarbeitung der Kommentare, im
Gebärdenverzeichnis als „Bemerkung“ ausgewiesen, sowie projekt- bzw. produktspezifische Angaben wie Produktionsglossen, Erhebungsstatus der ausgewählten Antworten
und der Einzelgebärden sowie phonetisch differenzierte und syntaktisch richtige HamNoSys-Notationen wird hier nicht eingegangen.
8.1
Gebärdenraumnutzung
Die Idee, nicht nur lexikalische Informationen zu Form und Bedeutung der Gebärden zu
geben, sondern auch auf ihre Veränderbarkeit hinzuweisen, die sich durch die Aus64
Diese Interpretation, die exemplarisch im Rahmen der Transkription der Daten der Fachgebärdenlexika Hauswirtschaft und Sozialpädagogik/Sozialarbeit durchgeführt wurde, bezieht sich auf die verschiedenen Verweisfunktionen des Ableseworts (s. ➚ 4.1.5.3).
Lexikographische Beschreibung der Einzelgebärden
106
nutzung des Gebärdenraums, einschließlich des Körpers des Gebärdenden, ergibt, gab
es schon bei der Erstellung des Fachgebärdenlexikons Psychologie (PLex; Arbeitsgruppe Fachgebärdenlexika 1996). Damals wurde zwar noch kein Gebärdenverzeichnis
mit veröffentlicht – die Transkription diente im Wesentlichen zur Überprüfung der Auswahl der DGS-Entsprechungen und war eine wichtige Vorübung für die kommenden
Projekte –, in einem grauen Kasten gab es jedoch „Hinweise zur Form“. Neben Anmerkungen zur Ausführung einer Gebärde oder ihrer dialektalen Einordnung wurden Gebärden in Anlehnung an Johnstons Typologie der Verbgebärden in Auslan in verschiedene Klassen eingeteilt. Johnston (1991b/1993a) macht in seinem Aufsatz deutlich, dass
eine Unterscheidung in eine syntaktische und topographische Verwendung des Gebärdenraums, wie sie Padden (1988) durch die Unterscheidung in Raumverben und Kongruenzverben vorgeschlagen hat, problematisch ist. Dies liegt daran, dass bei flektierenden Verbgebärden die räumlichen Bezugspunkte immer sowohl topographisch, d.h.
lokativ, als auch syntaktisch interpretiert werden können, d.h. als Kongruenzphänomen,
um syntaktische Funktionen oder semantische Rollen auszudrücken. Eine Unterscheidung der beiden Lesarten ist in der Regel nur durch den Kontext oder die Verbbedeutung möglich. Daraus wird auch deutlich, dass Gebärden, deren Ausführung im Gebärdenraum modifiziert wird, immer als Modifikation beschrieben werden können, da die
Veränderung der Form nicht beliebig ist, sondern immer eine grammatische oder
semantische Funktion hat.
Die Einteilung räumlich flektierender Gebärden im PLex stützte sich im Wesentlichen
auf das sprachliche Wissen der gehörlosen Mitarbeiter. Die Aufteilung in Richtungsgebärden, Positionsgebärden und Orientierungsgebärden wurde von Johnston übernommen, jedoch nicht vollständig. So wurden die freien Positionsgebärden, die an
einem beliebigen Ort im Gebärdenraum positioniert werden können, nicht ausgewiesen,
da dies auf alle Gebärden zutrifft, die keine feste Ausführungstelle am Körper haben.
Selbst Zweihandgebärden, bei denen die Ausführungsstelle der dominanten Hand die
nichtdominante Hand ist, können im Gebärdenraum positioniert werden, um auszudrücken, dass ein Objekt sich an einem bestimmten Ort befindet oder eine Tätigkeit an
einem bestimmten Ort ausgeführt wird. Lediglich die körperbezogenen Positionsgebärden, bei denen eine Veränderung der Bedeutung durch die Veränderung der
Ausführungsstelle am Körper erreicht wird wie z.B. bei BLUT1A (),
wurden gekennzeichnet. Einige Gebärden wie z.B. PERSON1 () wurden als
„körperbezogene Richtungsgebärden“ (Arbeitsgruppe Fachgebärdenlexika 1996:XXIV)
bezeichnet, da sie in ihrer unmarkierten Form am Körper, in ihrer markierten Form im
Gebärdenraum ausgerichtet ausgeführt werden.
Im Fachgebärdenlexikon Tischler/Schreiner (TLex) wurde diese Einteilung beibehalten. Gebärden wie PERSON1 wurden für die Übersetzung der Fachbegriffe nicht
benötigt, daher fehlt diese Kategorie. Bedingt durch das handwerklich ausgerichtete
Lexikographische Beschreibung der Einzelgebärden
107
Berufsfeld beziehen sich viele Fachbegriffe auf Tätigkeiten, die in der DGS ebenfalls
durch Gebärden übersetzt werden, die eine Handlung oder Tätigkeit ausdrücken. Solche
Verbgebärden, die im Gebärdenraum positioniert werden, um z.B. auszudrücken, dass
eine Decke oder ein Fußboden gestrichen wird, wurden in die Klasse der positionierten
Verbgebärden eingeteilt (Arbeitsgruppe Fachgebärdenlexika 1998:784). In der elektronischen Version können in der Kopfzeile unter dem Stichwort „Gebärdenklassen“ die
Gruppen aufgerufen werden. Per Mausklick werden alle Gebärden einer Gruppe aufgelistet. Die Bezeichnung ‚Gebärdenklassen‘ ist jedoch nicht i. S. v. Wortklassen zu
verstehen, sondern wird explizit mit Bezug auf Johnston (1991b/1993a) benutzt, um
Gebärden hinsichtlich ihrer Modifikation im Gebärdenraum zu kennzeichnen.
Erst im Fachgebärdenlexikon Hauswirtschaft (HLex) wurde die von Johnston vorgeschlagene Einteilung in Richtungsgebärden, Orientierungsgebärden und Positionsgebärden mit der Untergruppe der körperbezogenen Positionsgebärden direkt übernommen. Die uneindeutige Bezeichnung ‚Gebärdenklassen‘ wurde geändert in „grammatische Kategorie“ (Konrad et al. 2000:623). Dadurch konnte jedoch die intendierte
Kennzeichnung von Gebärden hinsichtlich ihrer Veränderbarkeit im Gebärdenraum
missverstanden werden als syntaktische Klassifizierung auf der Grundlage einer nicht
explizit gemachten Theorie. Außer Johnstons Verbtypologie liegt dieser Klassifizierung
jedoch keine Theorie zugrunde. Die größtenteils elizitierten Korpusdaten sind nicht
geeignet, daraus eine empirisch abgesicherte Theorie abzuleiten. Außerdem wäre im
gegebenen Zeitrahmen eine solche Untersuchung nicht leistbar gewesen. Als Konsequenz daraus wurde im Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik (SLex;
Konrad et al. 2003) die Bezeichnung geändert in ‚Gebärdenraumnutzung‘, ein vortheoretischer Begriff. Die Gebärden wurden in variierbare und invariante Gebärden unterteilt, als Untergruppe der variierbaren Gebärden wurden die körperbezogen variierbaren
Gebärden ausgewiesen, die den bisherigen körperbezogen variierbaren Positionsgebärden entsprechen. Die Unterscheidung in variierbare und invariante Gebärden entspricht
Johnstons (1991b:4/ 1993a:347) Einteilung der Verbgebärden in räumlich flektierende
und nicht räumlich flektierende Gebärden. Im Unterschied zu Johnston ist unsere
Einteilung ausschließlich phänomenorientiert zu verstehen. Sie bezieht sich nicht nur
auf verbal verwendete Gebärden, sondern auf alle Gebärden. Kann eine Gebärde im
Gebärdenraum, d.h. auch am Körper des Gebärdenden, in ihrer Bewegung (und Orientierung) ausgerichtet, orientiert oder positioniert werden, dann ist sie variierbar. Gebärden, deren Ausführung an eine bestimmte Stelle des Körpers fixiert ist, sind invariant.
Als besondere Gruppe wurden die körperbezogen variierbaren Gebärden ausgewiesen,
da diese Modifikationen ausschließlich semantisch motiviert sind – die Veränderung der
Ausführungsstelle am Körper gibt einen Hinweis auf die im Vergleich zur Zitierform
veränderte Bedeutung – und keine syntaktischen Funktionen
Lexikographische Beschreibung der Einzelgebärden
108
übernehmen. Der bewusst fehlende theoretische Bezug sowie das Ziel dieser Einteilung
werden in den Hintergrundinformationen (König et al. 2003:461) deutlich gemacht:
Die im SoLex vorgenommene Einteilung folgt keiner bestimmten linguistischen
Sichtweise oder theoretisch fundierten Klassifizierung von Gebärden. Bei den meisten
im Lexikon gezeigten Gebärden handelt es sich um Gebärden in ihrer neutralen,
unmarkierten Form. Da nur isolierte Gebärden als Antworten auf einzelne
Fachbegriffe erhoben wurden, bietet das für das SoLex erhobene Datenkorpus keine
ausreichende Grundlage für empirisch gesicherte Aussagen über das Verhalten einer
Gebärde im Gebärdenraum. Daher beruhen die Angaben zur Gebärdenraumnutzung
überwiegend auf dem Sprachgefühl der gehörlosen Mitarbeiter. Die Angabe, ob eine
Gebärde im Gebärdenraum variiert werden kann oder nicht, ist als pragmatische
Hilfestellung bei der Verwendung der Gebärden im Kontext zu verstehen. Eine
zukünftige, empirische Überprüfung der hier gemachten Angaben ist wünschenswert.
Eine korpusbasierte Überprüfung bereits vorhandener Klassifikationen, die durch die
Erstellung eines Referenzkorpus im Rahmen des DGS-Korpus-Projekts ermöglicht
wird, kann mithilfe von Frequenzanalysen auch die Frage beantworten, welche der
postulierten Variationsmöglichkeiten tatsächlich genutzt werden, um daraus Regeln für
den Gebrauch räumlich modifizierter Gebärden abzuleiten, die z.B. Konsequenzen für
die Gebärdensprachlehre haben.
Bei variierbaren Gebärden, die eine Beziehung zwischen zwei beliebigen Orten im
Gebärdenraum herstellen können – i. S. v. Johnstons vollständig gerichteten Gebärden,
ein typisches Beispiel aus der DGS ist die Gebärde GEBEN1A () –, werden
die semantischen Funktionen, die diese beiden Orte erfüllen, ebenfalls ausgeführt.
Modifikationen werden hinsichtlich ihrer Gebärdenraumnutzung als „positioniert“ oder
„ausgerichtet“ beschrieben. Wird durch die Modifikation der Plural ausgedrückt, so
wird dies ebenfalls ausgewiesen.
Für das Fachgebärdenlexikon Gesundheit und Pflege (GLex; Konrad et al. 2007) wurde
diese Einteilung übernommen und lediglich um die Gruppe der raum-und
körperbezogen variierbaren Gebärden erweitert. Damit soll eine genauere
Unterscheidung zwischen körperbezogen variierbaren Gebärden, die nur am Körper
ausgeführt und variiert werden wie z.B. ORGAN1A (), und Gebärden, die
sowohl im Gebärdenraum als auch am Körper variiert werden können wie z.B.
SPRITZEN1A (), erreicht werden. Zu den invarianten Gebärden werden
auch indexikalische Gebärden gezählt, die aufgrund der anatomischen Verhältnisse
leicht verschieden ausgeführt werden, z.B. kann die Gebärde AUGE1 ()
am linken oder rechten Auge ausgeführt werden, der Unterschied kann intendiert sein
oder zufällig. Entscheidend ist, dass eine Variation der Ausführung an einem anderen
Körperteil nicht zu einer Modifikation im Sinne einer Bedeutungserweiterung oder
Bedeutungsspezifizierung führt, sondern zu einer völlig anderen Bedeutung. Wird die
indexikalische Gebärde z.B. am Zahn ausgeführt, so ändert sich die Bedeutung von
„Auge“ in „Zahn“. Gemeinsam ist diesen Gebärden nur die indizierende Technik
(s. ➚ 4.2.1.6). Die folgende Tabelle zeigt die Entwicklung, die im Laufe der
Lexikographische Beschreibung der Einzelgebärden
109
verschiedenen Fachgebärdenlexikon-Projekte ausgehend von Johnstons Verbtypologie
eingeschlagen wurde.
räumlich flektierende Gebärden
Klassifikation
Johnston
(1991b/1993a)
Bezeich- Typologie der
nung
Verbgebärden
Richtungsgebärden
Orientierungsgebärden
freie Positionsgebärden
körperbezogene
Positionsgebärden
PLex (1996)
TLex (1998)
HLex (2000)
SLex (2003)
GLex (2007)
[ohne]
Gebärdenklassen
Richtungsgebärden
Grammatische
Kategorien
Richtungsgebärden
Gebärdenraumnutzung
variierbare
Gebärden
Gebärdenraumnutzung
variierbare
Gebärden
Richtungsgebärden
körperbezogene
Richtungsgebärden
Orientierungsgebärden
Orientierungsgebärden
Orientierungsgebärden
Positionsgebärden
körperbezogene körperbezogene körperbezogene körperbezogen körperbezogen
PositionsPositionsPositionsvariierbare
variierbare
gebärden
gebärden
gebärden
Gebärden
Gebärden
positionierte
Verbgebärden
raum- und
körperbezogen
variierbare
Gebärden
nicht
räuml.
flekt.
Geb.
invariante
Gebärden
invariant
Tabelle 7: Klassifizierung von Gebärden in Bezug auf die Gebärdenraumnutzung
8.2
Bedeutungsangabe bei Modifikationen
In Kapitel 6.1.1.4 wurde bereits ausgeführt, dass für die Identifikation einer modifizierten Gebärde die Ikonizität eine entscheidende Rolle in unserer lexikalischen Analyse
spielt. Eine bedeutungsrelevante Formveränderung hängt immer mit der Veränderung
des zugrunde liegenden Bildes einer Gebärde zusammen. Wie bei produktiven
Gebärden lässt sich bei Modifikationen konventioneller ikonischer Gebärden das zugrunde liegende Bild bestimmen. Durch die Bilderzeugungstechnik sind die Modifikationsmöglicheiten festgelegt. Viele Modifikationen sind jedoch in dem Sinne unsystematisch, dass ihre Bedeutung nicht auf der Grundlage morphologischer Regeln ableitbar
ist, d.h. sie sind nicht morphologisch durchsichtig. Die Motivation, d.h. die Ableitbarkeit ihrer Bedeutung aufgrund formaler Merkmale, liegt in ihrer Ikonizität begründet.
Während körperbezogen variierbare Gebärden (s. Kap. 8.1) ikonisch transparent sind,
ist die Bedeutung anderer Gebärden nicht ohne Weiteres vorhersagbar. Der Grund dafür
liegt im ikonischen Potential der Gebärden. Eine Gebärde wie ORGAN1A ()
hat die konventionalisierten Bedeutungen „Organ“ und „Tumor“. Diese Bedeutungen
sind spezifischer als die allgemeine Bedeutung, die durch die Form der Gebärde
visualisert wird: „eine kugelförmige Struktur oder ein kugelförmiger Gegenstand am
oder im Körper“. Diese allgemeine Bedeutung entspricht der 1. Stufe der Konventionalisierung (Johnston/Schembri 1999:119), die produktive wie ikonisch konventionelle
Lexikographische Beschreibung der Einzelgebärden
110
Gebärden umfasst. In den Bedeutungen „Organ“ und „Tumor“ ist diese allgemeine
Gebärde lexikalisiert, d.h. nach Johnston/Schembri (1999:126) handelt es sich um
Lexeme, die innerhalb der 2. Stufe der Konventionalisierung anzusiedeln und damit
Kandidaten für Einträge in ein allgemeinsprachliches Wörterbuch sind.
Die Modifikation ORGAN18A65 () unterscheidet sich auf der Bildebene
von der Zitierform dadurch, dass nicht eine Struktur oder ein Gegenstand am oder im
Körper visualisiert wird, sondern mehrere an verschiedenen Stellen am oder im
Körper.66 Bezogen auf die lexikalisierte Bedeutung „Organ, Organe“ ist diese
Modifikation transparent, die Bedeutungsangabe lautet daher: „Verschiedene Organe im
Körper“. Durch die Bedeutungsangabe wird versucht, die Bildinterpretation mit der
jeweils intendierten Bedeutung zu verbinden. Sie ist in gewisser Weise eine wörtliche
Übersetzung, d.h. eine Interpretation des Bildes, die die Brücke schlägt zwischen dem
allgemeinen ikonischen Gehalt (1. Ebene der Konventionalisierung) und der konkreten
Verwendung, hier immer bezogen auf die Übersetzung eines Fachbegriffs bzw. dessen
Teilbedeutungen. Das zugrunde liegende Bild kann, muss aber nicht aktiviert sein, d.h.
diese Gebärde kann sowohl die Bedeutungen „Organ“ wie auch „Organe“ ausdrücken.
Es ist denkbar, dass es sich bei ORGAN1A und ORGAN18A auch um Ausführungsvarianten handelt. Dann wäre die Beziehung zwischen Zitierform und Modifikation
lediglich eine etymologische Information, die die Ableitung der einen aus der anderen
Form erklärt. Dies kann jedoch nur durch empirisch breiter angelegte Untersuchungen
festgestellt werden, die durch Frequenz- und Kontextanalysen den Grad der Konventionalisierung statistisch belegen können.
Da die Gebärde ORGAN18A jedoch auch in der Bedeutung „Metastase, Metastasen“
verwendet wird, die semantisch nichts mit der Bedeutung „Organ“ zu tun hat, fällt die
Bedeutungsangabe für diese Verwendung anders aus. Die in der Bildbeschreibung
verwendete Umschreibung (Struktur, Gegenstände) wird soweit wie möglich konkretisiert. Da Metastasen verschiedene Organe befallen oder selbst Wucherungen im
Gewebe darstellen, ist die Bedeutungsangabe bezogen auf diese Verwendung: „Verschiedene Organe oder Gebilde im Körper“.
Die Bedeutungsangabe bei Modifikationen gibt einen Hinweis auf die ikonische
Motivation der Gebärdenform und bezieht diese auf die intendierte Bedeutung.
Tabelle 8 gibt einen Überblick über die Entwicklung, die im Laufe der verschiedenen
Fachgebärdenlexikon-Projekte in Bezug auf die Bedeutungsangaben bei Modifikationen
stattgefunden hat. Während beim TLex und HLex die Bedeutungsangabe noch
missverständlich als „Bedeutung der Modifikation“ (Konrad et al. 2000:634,
65
66
Dies ist die Glosse für den Type in der Datenbank. Im Gebärdenverzeichnis des GLex’ wurde diese
Modifikaton mit der Produktionsglosse ORAGN11A etikettiert.
Da die versetzte Wiederholung in der DGS als ein morphologisches Merkmal zur Pluralbildung eingesetzt wird, kann in diesem Fall auch eine morphologische Motiviertheit angesetzt werden.
Lexikographische Beschreibung der Einzelgebärden
111
Arbeitsgruppe Fachgebärdenlexika 1998:784) beschrieben wurde, ist beim SLex die
Beschreibung dieser Informationseinheit klar: „Bei Modifikationen wird zusätzlich der
Verweis auf die Grundform und die Beschreibung der Bildveränderung in Bezug auf die
Bedeutung angegeben“ (Konrad et al. 2003:476). Beim GLex wird der Aspekt der
Motiviertheit wie in der vorangegangenen Ausführung stärker betont: „Bei Modifikationen wird zusätzlich der Verweis auf die Grundform und die Motivation der Ausführung
in Bezug auf die Bedeutung angegeben“ (Konrad et al. 2007:1009).
In der folgenden Tabelle wird farblich die Veränderung in der Bildbeschreibung
zwischen Zitierform und Modifikation hervorgehoben (rot) sowie die Konkretisierung
der Bildbeschreibung in Bezug auf die Verwendung (blau).
Zitierform
• Glosse u. HamNosys
• Bildbeschreibung
• Bedeutungen
GLex • ORGAN1A
Modifikation
• Glosse u. HamNosys
• Bild
Bedeutungsangabe
Verwendung
Fachbegriffe
Konventionell verwen- Organ
det für „Organ“.
Modifikation von
• Eine kugelförmige Struk-tur • Mehrere kugelförmige
oder ein kugelförmiger Ge- Strukturen oder Gegenstände ORGAN1A; Motivation
genstand (z.B. ein Or-gan
an verschiedenen Stellen am der Ausführung: „Veroder ein Tumor) am oder im oder im Körper; rechte Hand: schiedene Organe im
Körper“.
Körper; rechte Hand:
Substitutor.
Substitutor.
• „Organ“, „Tumor“
Produktive VerwenMetastase
dungen; Modifikation
von ORGAN1A;
Motivation der Ausführung: „Verschiedene
Organe oder Gebilde
im Körper“.
SLex • GLEICH1 () • GLEICH11**
Konventionell verwen- Chancendet für „gleich“, „Gleich- gleichheit,
• Zwei Dinge nähern sich an ()
und kommen auf gleicher
• Zwei Dinge bewegen sich heit“, „Gleichstellung“; GleichstelModifikation von
lungsgesetz,
Höhe zusammen.
auf eine gleiche Höhe und
GLEICH1: „Auf gleicher Gleichstel• „Ausgleich“, „(sich) ausglei- kommen zusammen.
Höhe zusammenlungsbeaufchen“
kommen“.
tragte
Produktive Verwendun- kompensatogen; Modifikation von rische
GLEICH1: „Ein Unter- Erziehung
schied wird ausgeglichen“.
HLex • AUSPRESSEN1B
• AUSPRESSEN12B
Konventionell verwen- auspressen
det
für „auspressen“,
(Zitrone)
() (
„Presse“; Modifikation
• Frucht festhalten und auf
)
von AUSPRESSEN1B:
einer Presse (linke Hand)
• Frucht (z. B. Zitronenhälfte) „Zitrone auf Zitronenauspressen;
festhalten und auf dem Mittel- presse (linke Hand)
• „auspressen“, „Presse“
teil einer Zitronenpresse
aufsetzen und aus(Presswiderstand; linke
pressen“.
Hand) auspressen
TLex • STRAHLEN1
• STRAHLEN11***
Modifikation von
Schallschutz
STRAHLEN1: „Schall()
()
wellen dringen ins
• [ohne Bildbeschreibung]
• [ohne Bildbeschreibung]
Ohr“.
• [ohne Bedeutungsangabe]
()
• OGAN11A*
()
* Produktionsglosse im Gebärdenverzeichnis des GLex’; in der Datenbank: ORAGN18A.
** Produktionsglosse im Gebärdenverzeichnis des SLex’; in der Datenbank: GLEICH11B.
*** Produktionsglosse im Gebärdenverzeichnis des TLex’; in der Datenbank noch nicht erfasst.
Tabelle 8: Bedeutungsangaben bei Modifikationen
Zusammenfassung
9
112
Zusammenfassung
In dieser Arbeit wird die Vorgehensweise bei der Erstellung von sechs Fachgebärdenlexika am IDGS in der Zeit von 1993 bis 2010 von der Datenerhebung bis zur Ausarbeitung bestimmter Informationseinheiten im Gebärdenverzeichnis dargestellt. Der Schwerpunkt liegt dabei auf der Transkription, die in mehreren Schritten durchgeführt wird mit
dem Ziel, eine konsistente Token-Type-Zuordnung zu gewährleisten im Sinne einer
Tokenisierung und Lemmatisierung der Token. Neben den Transkriptionskonventionen
werden der Aufbau und die ständige Aktualisierung der lexikalischen Datenbank an die
Erfordernisse der Transkription sowie die abschließende Lemmarevision beschrieben.
Als Reaktion auf den Bedarf an adäquaten DGS-Übersetzungen für Fachbegriffe aus
den verschiedensten Berufsfeldern erstellte das IDGS von 1990 bis 2010 Fachgebärdenlexika, die Fach- und Sprachwissen kombinieren. Damit sollen Grundlagen geschaffen
werden für gehörlose Auszubildende und Studierende, die für Hörende selbstverständlich sind. Die gezeigten DGS-Entsprechungen sind als Angebot zu verstehen, die die
Fachkommunikation zwischen Gehörlosen, Dolmetschern und Ausbildern erleichtern
sollen. Sie sind nicht in der Absicht entstanden, die Fachkommunikation auf standardisierte Gebärden zu beschränken. Dazu ist das empirisch-deskriptive, korpusbasierte
Vorgehen, das seit dem Fachgebärdenlexikon Psychologie (Arbeitsgruppe Fachgebärdenlexika 1996) ständig weiter entwickelt wurde, nicht geeignet.
Im Vordergrund steht das Bemühen, die bereits vorhandenen Gebärden zu erheben und
zu dokumentieren. Die Methode der Elizitation ist unverzichtbar, um in einem begrenzten Zeitrahmen für alle im Voraus festgelegten Fachbegriffe eine DGS-Übersetzung zu
erarbeiten. Sie ist nicht die Methode der Wahl, um Gebärden im natürlichsprachlichen
Kontext zu erheben, zeigt jedoch, welche Übersetzungsstrategien gehörlose Fachleute
anwenden, um einen Fachbegriff in DGS zu übersetzen. Die Transkription ermöglicht
es, die Antworten hinsichtlich ihrer lexikalischen Bestandteile zu vergleichen und die
Häufigkeit gleicher oder ähnlicher Antworten als Kriterium bei der Auswahl zu berücksichtigen. Die Beschränkung auf ein Korpus von ca. 7000 (SLex) bis 15000 (GLex)
transkribierten Antworten schließt andere Übersetzungsmöglichkeiten aus, hat jedoch
den Vorzug, dass Entscheidungen überprüfbar, korrigierbar und nachvollziehbar sind.
Im Laufe der Projekte, die seit 1996 mit einem konstanten Team aus vier bis sechs
gehörlosen und drei hörenden Mitarbeitern durchgeführt werden konnten, wurde die
Datenerhebung, insbesondere die Elizitationsmethoden und die Dokumentation der
Gesprächssituation, ständig verbessert. Gleich geblieben ist dagegen die Aufteilung in
drei Teile:
• ein standardisiertes Interview zur Erhebung der sozialen Daten, die als Teil der
Metadaten ausgewertet werden;
Zusammenfassung
•
•
113
ein vorstrukturiertes Gespräch, um möglichst natürlichsprachliche, zusammenhängende Äußerungen zu erheben sowie DGS-Entsprechungen von Fachbegriffen im Kontext, als Korrektiv zu den elizitierten Antworten;
die Elizitation von DGS-Entsprechungen der Fachbegriffe; die als Stimuli verwendeten geschriebenen Wörter wurden, soweit möglich, durch geeignete Illustrationen ergänzt.
Bei der Dokumentation und Aufbereitung der Daten wurde neben der technischen Qualität und der Bereitstellung von Metadaten auch auf die Nachhaltigkeit der Rohdaten
geachtet. Die Segmentierung dient dazu, das Rohmaterial inhaltlich zu erschließen,
ohne jedoch schon eine Wertung i. S. v. „geeignet – ungeeignet“ vorzunehmen. Dies
geschieht erst durch die Sichtung, durch die festgelegt wird, welche Ausschnitte transkribiert werden sollen. Damit wird gleichzeitig die Größe des Korpus bestimmt.
In den Transkriptionskonventionen ist festgelegt, nach welchen Kriterien Token
annotiert werden. Ziel dieser Konventionen ist es, dass alle gebärdensprachlichen
Phänomene im Korpus nach einheitlichen Kriterien in derselben Weise konsistent
beschrieben und klassifiziert werden. Die grobe Aufteilung in konventionelle und
produktive Gebärden folgt einer gängigen Einteilung des Lexikons von Gebärdensprachen in lexikalisierte Gebärden, sogenannte frozen signs, und ein produktives
Lexikon. Johnston/Schembri (1999:136) listen phonologische, morphosyntaktische,
semantische und nonmanuelle Merkmale auf, nach denen konventionelle und produktive Gebärden unterschieden werden können. Dennoch ist es im Einzelfall schwierig,
den Grad der Lexikalisierung einer Gebärde ohne verlässliche Korpusdaten zu bestimmen.67 Die aus lexikographischer Sicht notwendige Trennung zwischen Lexemen und
Nicht-Lexemen – denn nur über ausreichend konventionalisierte Gebärden lassen sich
verlässliche Aussagen zu Form und Bedeutung machen – blendet jedoch die Tatsache
aus, dass die meisten konventionellen Gebärden ikonisch sind. Diese „schlafende“
Ikonizität kann reaktiviert werden, um z.B. die Bedeutung einer Gebärde graduell zu
modifizieren. Sie ist weiterhin der Grund dafür, warum das Bedeutungsspektrum, das
eine Gebärde abdecken kann, wesentlich größer ist als bei Wörtern. Denn die Ikonizität
spielt auch eine wesentliche Rolle bei der wechselseitigen Kontextualisierung von
Wörtern und Gebärden. Auch hier, bei der gleichzeitigen Artikulation von Ablesewort
und Gebärde, ist eine Unterscheidung möglich zwischen konventionell und produktiv
eingesetzten Ablesewörtern. Die Frage der Lemmaselektion ist daher nicht nur eine
Frage der Unterscheidung zwischen konventionellen und produktiven Gebärden
(s. ➚ 4.1.5).
67
Johnston (1998b) gibt daher in der CD-ROM-Ausgabe des Auslan-Wörterbuchs den Grad der Lexikalisierung auf einer Skala von 1-7 an.
Zusammenfassung
114
Durch Zusätze im Glossennamen können konventionelle Gebärden weiter aufgeteilt
werden in lexikalisierte Ausführungsvarianten und Modifikationen. Weiterhin können
Besonderheiten wie Fremdwörter, regionale Variation, aus dem LBG stammende Gebärden, Namensgebärden oder sogenannte Spezialgebärden im Glossennamen ausgewiesen werden. Neben den produktiven Gebärden, die in der lexikalischen Datenbank
entweder als verschiedene Types beschrieben oder alle einem Type zugeordnet werden
– die Token werden durch eine sogenannte Sammelglosse etikettiert –, gibt es noch
weitere Zeichen wie das Fingeralphabet, Zahlgebärden, indexikalische Gebärden oder
Gesten, die ebenfalls in den Transkriptionskonventionen berücksichtigt werden müssen.
Ein Überblick über die am IDGS entwickelten Transkriptionskonventionen wird gleichzeitig dazu genutzt, diese Konventionen mit anderen zu vergleichen. Dazu wurden gut
dokumentierte Transkriptionskonventionen herangezogen, die anhand großer Datenmengen erprobt wurden und deren Autoren die Notwendigkeit einer konsistenten Identifizierung lexikalischer Gebärden im Sinne einer Lemmatisierung betonen. Die Konsistenzprobleme zeigen sich im Detail, etwa wenn versucht wird, die Bedeutungen eines
Lexems im Glossennamen wiederzugeben oder die Glossierung in Standardwerken zu
berücksichtigen. Ebenso wird das Problem der zirkulären Argumentation deutlich, wenn
mit dem Hinweis auf ein vorhandenes Wörterbuch verschiedene Lexeme für dieselbe
Gebärde angenommen werden, die sich nur durch das Ablesewort unterscheiden. Der
Vergleich zeigt, dass abhängig vom Forschungsschwerpunkt die Annotation der Token
nach syntaktischen Kategorien verschieden stark ausgeprägt ist. Dementsprechend sind
die im Transkript angelegten Spuren mehr oder weniger stark ausdifferenziert.
Segmentierung von Einzelgebärden (Tokenisierung) und Lemmatisierung sind die
Voraussetzungen, um Rohdaten mit korpuslinguistischen Methoden auswerten zu
können. Bei der Glossentranskription werden Token mithilfe eines eindeutigen
Glossennamens einem Type zugeordnet. Diese Token-Type-Zuordnung entspricht der
Lemmatisierung, die bei Korpora verschrifteter Lautsprachen oft zusammen mit oder
nach der Tokenisierung vorgenommen wird. Bei einer orthographischen Transkription,
d.h. einer Verschriftlichung gesprochener Sprache in der Standardschrift, müssen
zunächst die Token bestimmt werden, da bedingt durch die Orthographie
(Getrenntschreibung von Namen, Verwendung von Abkürzungen, Bindestrich oder
Satzzeichen) die Wortformen im Transkript nicht eindeutig als Buchstabenfolge
zwischen zwei Leerzeichen definiert sind und damit nicht automatisiert erfasst werden
können. Durch die Tokenisierung wird dieser Mangel behoben, sodass die
Lemmatisierung fast vollständig automatisiert vorgenommen werden kann. Dabei
werden die Wortformen im Transkript den lexikalischen Einheiten zugeordnet. Dem
entspricht die Token-Type-Zuordnung durch die Glossierung.
Zusammenfassung
115
Die Lemmatisierung setzt jedoch die Bestimmung der lexikalischen Einheiten einer
Sprache voraus, die üblicherweise in Wörterbüchern beschrieben sind. Die wenigsten
Gebärdensprachwörterbücher wurden ausgehend von der Gebärdensprache erstellt
und/oder basieren auf einem Korpus. Bei den meisten muss man davon ausgehen, dass
die Lemmaselektion inkonsistent ist, da sie durch die Lautsprache beeinflusst wurde
(„lemma dilemma“; Johnston/Schembri 1999:178-181). Gibt es kein verlässliches
lexikalisches Standardwerk, dann besteht die einzige Möglichkeit, eine konsistente
Glossierung im Sinne einer zuverlässigen Lemmatisierung zu erreichen, darin, parallel
zur Transkription eine lexikalische Datenbank aufzubauen. Dies bedeutet, dass die in
der Korpuslinguistik ansonsten übliche Trennung zwischen lexikalischer Ressource und
Transkript aufgehoben wird, da nicht vorhandene Types in der Datenbank erst angelegt
werden müssen, bevor ihnen Token zugewiesen werden können. Die dem Bottom-upAnsatz entsprechende Veränderung der lexikalischen Ressource durch Anlegen neuer
Types wird bereits in der Phase der Rohtranskription vorgenommen.
Dieses Vorgehen bringt eine erheblich Zeitersparnis, da Type-Informationen nicht
immer neu beim Token eingetragen werden müssen, hat aber den methodischen
Nachteil, dass die auf der Lemma-Ebene getroffenen Entscheidungen empirisch noch
nicht abgesichert sind. Erforderlich ist daher eine Lemmarevision nach Abschluss der
Rohtranskription. Zum einen muss die Token-Type-Zuordnung auf der Grundlage aller
Token, die einem Type zugeordnet sind, überprüft werden. Im Vordergrund dabei steht
die Übereinstimmung von Form und Bedeutung zwischen Token und Type. Diese
Lemmarevision kann beim Token zu einer Korrektur der Token-Type-Zuordnung
führen. Zum anderen muss die bis dahin vorläufige Lemmaselektion überprüft werden,
d.h. die Type-Umgebung. Es kann sein, dass die eingetragenen Types unterdifferenziert
sind und stärker aufgeteilt werden müssen in Ausführungsvarianten und Modifikationen, oder dass sie überdifferenziert sind und Types wieder gelöscht werden müssen, da
die Token z.B. Modifikationen eines anderen Types sind oder idiosynkratische Ausführungen und nicht als konventionalisierte Ausführungsvarianten zählen. Neben Form und
Bedeutung wird zusätzlich die Ikonizität bei der Identifikation gebärdensprchlicher Einheiten berücksichtigt. Die Konsequenzen, die sich dadurch für die Lemmaselektion
ergeben, sind in Konrad (in Vorb., Kap. ➚ 4.2.2) beschrieben. Erst nach Abschluss der
Lemmrevision ist die Lemmatisierung abgeschlossen. Für alle Transkriptionen, die
nicht in diesem Sinne lemmatisiert sind, gilt, dass Analysen, die aufgrund dieser
Transkriptionen erstellt werden, im korpuslinguistischen Sinn nicht abgesichert sind.
Johnston (2008a/b) benennt das Problem noch grundsätzlicher, indem er es auf die
einfache Formel bringt: no lemmata, no corpus.
An die Transkription schließen sich die Auswahl geeigneter DGS-Übersetzungen sowie
die Ausarbeitung der lexikographischen Beschreibung der Einzelgebärden im Gebärdenverzeichnis jedes Fachgebärdenlexikons an, bevor die Produktionsphase beginnt.
Zusammenfassung
116
Zur Auswahl gehört auch eine Überprüfung der während der Sichtung getroffenen Entscheidung, eine elizitierte DGS-Entsprechung eines Fachbegriffs aus der Transkription
auszuschließen. Die Auswahl wird nach bestimmten Kriterien vorgenommen, in erster
Linie nach der formalen und inhaltlichen Angemessenheit der Antwort sowie ihrer
Häufigkeit. Dabei wird ein Kompromiss angestrebt, der einerseits möglichst viele Ausführungsvarianten von Gebärden berücksichtigt, andererseits die Zahl der ausgewählten
Antworten dadurch nicht unnötig vergrößert.
Die Beschreibung der Einzelgebärden hinsichtlich Form, Bedeutung und ikonischem
Gehalt ergibt sich aus den durch die Transkription und Lemmarevision zusammengetragenen Daten, die vor der Produktion nochmals überprüft werden. Nicht auf die Korpusdaten, sondern auf das sprachliche Wissen der gehörlosen Mitarbeiter gestützt sind die
Angaben zur Gebärdenraumnutzung. Damit soll dem Benutzer ein grober Hinweis
gegeben werden, wie die Gebärden unabhängig von der Übersetzung von Fachbegriffen
in der DGS verwendet werden können. Nach der anfänglichen Orientierung an
Johnstons (1991b) Typologie der Verbgebärden wurde seit dem Fachgebärdenlexikon
Sozialarbeit/Sozialpädagogik (Konrad et al. 2003) bewusst auf einen theoretischen
Bezug verzichtet. Die von Johnston unterschiedenen Richtungs-, Orientierungs- und
Positionsgebärden wurden als variierbare Gebärden ausgewiesen, in Abgrenzung zu den
invarianten Gebärden. Weiterhin wurden Gebärden, deren Ausführung nur am Körper
variiert wird, um die Ausführungsstelle mit in die Bedeutung aufzunehmen, als
körperbezogen variierbaren Gebärden gekennzeichnet, entsprechend Johnstons
körperbezogen variierbaren Positionsgebärden.
Die Bedeutungsangabe bei Modifikationen gibt einen Hinweis auf die ikonische Motivation der Gebärdenform, die im Hinblick auf die Bedeutung des Fachbegriffs beschrieben wird. Sie ist eine Interpretation des Bildes, die die Brücke schlägt zwischen dem
allgemeinen ikonischen Gehalt und der konkreten Verwendung, ähnlich wie bei produktiven Gebärden, die eine allgemeine, mehr oder weniger unspezifische Bedeutung
haben, die je nach Äußerungskontext verschieden interpretiert wird.
In den bisherigen Ausführungen wurde an verschiedenen Stellen darauf hingewiesen,
dass es für die Erforschung und Beschreibung des Lexikons von Gebärdensprachen
notwendig ist, die Ikonizität der Gebärden sowie die Verwendung von Ablesewörtern
angemessen zu berücksichtigen. Angemessen heißt, dass auch die Frage, warum eine
Gebärde wie ORGAN18A sowohl die Bedeutung „Organ“ als auch „organisch“, „Organismus“ und „Metastase“ ausdrücken kann und ebenso für die Pluralformen „Organe“
und „Metastasen“ verwendet werden kann, befriedigend geklärt werden kann. Dazu ist
es wichtig zu wissen, dass das ikonische Potential der Gebärde in der Bedeutung „Organ“ nicht genutzt wird, sondern lediglich nach dem Prinzip der spezifizierten Bedeutung (Johnston/Schembri 1999:146) eine ikonische Gebärde, die „mehrere kugelförmige
Zusammenfassung
117
Gegenstände im oder am Körper“ visualisiert, konventionell für die Bedeutung „Organ“
verwendet wird. Die Pluralform „Organe“ ist jedoch durch die wiederholte Ausführung
motiviert. Die versetzte Wiederholung ist insbesondere dann wichtig, wenn es um eine
Kontrastierung geht i. S. v. „nicht ein Organ, sondern mehrere Organe“. Weiterhin ist es
wichtig zu wissen, dass diese Gebärde üblicherweise mit dem Ablesewort ‚organ‘
ausgeführt wird. Die Kombination mit anderen Ablesewörtern wie ‚organisch‘,
‚organismus‘ oder ‚metastase‘ ist möglich, jedoch nicht besonders häufig. Sie ist im Fall
von „Metastase“ deshalb möglich und sinnvoll, weil das ikonische Potential einen
Bedeutungsrahmen absteckt, innerhalb dessen das lautlos artikulierte Ablesewort zu
finden ist, d.h. die ikonisch motivierte Gebärde gibt einen Kontextualisierungshinweis
für das Ablesen. Im Fall von „organisch“ und „Organismus“ steht eher der Wortbezug
im Vordergrund. Da diese Gebärde in der Bedeutung „Organ“ konventionalisiert ist,
sind ähnlich geschriebene und artikulierte Wörter ebenfalls leichter abzulesen. In
diesem Fall muss die Bedeutung nicht innerhalb des Bedeutungsrahmens liegen, der
durch die Ikonizität der Gebärde abgesteckt wird.
Sutton-Spence/Woll (1999:165-166) stellten schon vor zehn Jahren fest, dass mittlerweile die Konventionalität von Gebärden in den Vordergrund gerückt ist und sich die
Erkenntnis durchgesetzt hat, dass die Arbitrarität sprachlicher Zeichen der oral-akustischen Modalität geschuldet ist. Würden Gebärdensprachen als visuell-gestische Sprachen keine visuellen Symbole benutzten, dann wäre dies unnatürlich.
Linguists used to focus disproportionately on the fact that sign languages could use
arbitrary signs. The existence of visually motivated signs suggested that sign
languages were not real languages, as the lexicon was not totally arbitrary. Now we
know that symbols do not have to be arbitrary to be part of a language. They are
mostly arbitrary in spoken languages because spoken languages are not designed to
represent visual forms in the real world. They are able to reflect some sounds, but
the names of sounds are only a small part of any language’s lexicon, so most
symbols are arbitrary. Sign languages do not need to rely so heavily on arbitrary
symbols because they use the visual form. It would be unnatural for sign languages
not to use visual symbols. The fact that all meanings are conventionalised is now
considered more important than issues of arbitrariness.
Es stellt sich jedoch die Frage, ob es für die lexikologische und lexikographische Beschreibung von Gebärdensprachen ausreicht, nur die vorgefertigten Form-BedeutungsEinheiten zu beschreiben und die „visuelle Motiviertheit“ von Gebärden gänzlich in den
Bereich des produktiven Lexikons zu verbannen, das eher im Rahmen der Grammatik,
wie Johnston/Schembri (1999:115) es vorschlagen, der Gebärdenbildung oder des
Sprachwandels beschrieben werden sollte. Die Aussage am Ende des Zitats, dass alle
Bedeutungen konventionalisiert seien, ist verkürzt und bezieht sich lediglich auf all
diejenigen Bedeutungen konventionalisierter Gebärden, die in einem Gebärdenwörterbuch aufgeführt werden bzw. werden sollten. Die im Sprachgebrauch tatsächlich
kommunizierten Inhalte sind dadurch bei weitem nicht abgedeckt. Die nicht konventionalisierten Bedeutungen lassen sich wiederum nicht allesamt durch die Verwendung
Zusammenfassung
118
produktiver Gebärden erklären. Wird eine konventionalisierte Gebärde mit Ablesewörtern artikuliert, die nicht der konventionalisierten Bedeutung dieser Gebärde entsprechen, dann wird daraus nicht automatisch eine produktive Gebärde. Ebenso ist es
problematisch, mehrere Lexeme anzusetzen bei formgleichen Gebärden, die sich lediglich durch das Ablesewort unterscheiden. Ein solches Vorgehen setzt die Annahme
voraus, dass das Ablesewort Bestandteil der phonologischen oder morphologischen
Struktur einer Gebärde und ebenso wie die manuelle Form konventionalisert ist. Es legt
die Bedeutung des Lexems fest und grenzt es gegenüber anderen Gebärden ab.
Das Wissen um das ikonische Potential von Gebärden sowie die Möglichkeiten, wie
dieses Potential genutzt werden kann zur Kodierung von Bedeutung, ist Teil der metasprachlichen Kompetenz der Sprecher einer Gebärdensprache. Dies explizit zu machen,
sollte ebenso Aufgabe der lexikologischen und lexikographischen Beschreibung von
Gebärdensprachen sein wie die traditionelle Bestimmung von Lexemen. Das Beispiel
der Modifikation zeigt, dass ikonische Gebärden, die als fertige Form-BedeutungsEinheiten dem Benutzer zur Verfügung stehen, nach denselben Prinzipien verändert
werden können wie produktive Gebärden. Wer das zugrunde liegende Bild einer
Gebärde kennt, kann dies entsprechend der intendierten Bedeutung verändern. Wie
stark diese Visualisierungsmöglichkeiten genutzt werden, zeigen Gebärdenneubildungen68 und Sprachspiele sowie Gebärensprachtexte im Rahmen der Gebärdensprachpoesie, die die Grenzen der visuellen Motivierung ausloten oder bewusst überschreiten. In der Alltagskommunikation weiß der kompetente Gebärdensprachbenutzer
um die Grenzen dieser Veränderbarkeit, die durch das Bild und die zur Visualisierung
eingesetzte Bilderzeugungstechnik festgelegt sind. Umgekehrt erschließt sich jedem,
der das zugrunde liegende Bild einer modifizierten Gebärde kennt, deren Bedeutung.
68
Ein nicht nur in der DGS, sondern auch in der LSF bekanntes Beispiel ist die Gebärde, die zu Beginn
der 1990er Jahre für an BSE erkrankte Kühe aufkam, bei der eine der beiden Y-Hände, die die Hörner
der Kuh visualisieren, nach unten gedreht wird i. S. v. „vache folle“ (verrückte Kuh).
119
Literatur
10
Literatur
Akamatsu, Carol T. 1985: Fingerspelling formulae: a word is more or less than the sum
of its letters. In: Stokoe, William C. / Volterra, Virginia (eds.): Sign Language
Research ‘83. Silver Spring: Linstok Press, 126-132.
Arbeitsgruppe Fachgebärdenlexika (Hg.). 1994: Fachgebärdenlexikon Computer.
2 Bde. Hamburg: Signum.
Arbeitsgruppe Fachgebärdenlexika (Hg.). 1996: Fachgebärdenlexikon Psychologie.
2 Bde. Hamburg: Signum.
Arbeitsgruppe Fachgebärdenlexika (Hg.). 1998: Fachgebärdenlexikon Tischler/Schreiner. 2 Bde. Hamburg: Signum.
Baker, Charlotte / Cokely, Dennis Richard. 1988: American Sign Language. A teacher’s
resource text on grammar and culture. 4. ed. Silver Spring, MD: T.J. Publishers.
[1. Aufl. 1980].
Battison, Robin. 1974: Phonological deletion in American Sign Language. In: Sign
Language Studies 5, 1-19.
Bechinger, Hiltrud. 1969: Phonembestimmtes Manualsystem (PMS) und Lautsprache.
In: Berufsverband Bayerischer Taubstummenlehrer e.V. (Hg.): Ist die Lautsprache
für Gehörlose noch zeitgemäß? Bericht über die Bodenseeländertagung in
Würzburg. München: 1969, 62-69.
Becker, Claudia. 2003: Verfahren der Lexikonerweiterung in der Deutschen Gebärdensprache. Hamburg: Signum. [Dissertation].
Bergenholtz, Henning. 1994: Fachsprache und Gemeinsprache: Lemmaselektion im
Fachwörterbuch. In: Schaeder, Burkhard / Bergenholtz, Henning (Hg.): Fachlexikographie. Fachwissen und seine Repräsentation in Wörterbüchern. Tübingen: Narr,
285-304.
Blanche-Benveniste, Claire. 1987: Le français parlé. Transcription et édition. Paris:
Didier Érudition.
Bonnal-Vergès, Françoise. 2005: Sémiogenèse de la langue des signes française LSF.
Étude critique des signes attestés sur support papier depuis le XVIIIe siècle et
nouvelles perspectives de dictionnaires. 2 vol. Toulouse: Université de Toulouse 2.
[Unveröffentl. Dissertation].
Boyes Braem, Penny. 1995: Einführung in die Gebärdensprache und ihre Erforschung.
3. überarb. Aufl. Hamburg: Signum.
Breiner, Herbert L. 1984: Die Gemik – sprechgebundene motorische Ausdruckserscheinungen im Sinnesvikariat. Frankenthal: Pfalzinstitut für Hörsprachgeschädigte.
Brennan, Mary. 1992: The visual world of BSL. An introduction. In: Brien, David (ed.):
Dictionary of British Sign Language/English. London: Faber and Faber, 2-133.
Brennan, Mary. 2005: Conjoining Word and Image in British Sign Language (BSL): An
Exploration of Metaphorical Signs in BSL. In: Sign Language Studies 5, 3, 360-382.
Brien, David (ed.). 1992: Dictionary of British Sign Language/English. London: Faber
and Faber.
Cogill-Koez, Dorothea. 2000: Signed language classifier predicates. Linguistic structures or
schematic visual representation? In: Sign Language & Linguistics 3, 2, 153-207.
Literatur
120
Crasborn, Onno / Hanke, Thomas. 2003: Additions to the IMDI metadata set for sign
language corpora. Agreements at an ECHO workshop, May 8-9, 2003, Nijmegen
University. [Word-Dokument im Internet; URL:
http://www.let.ru.nl/sign-lang/echo/docs/ECHO_Metadata_SL.pdf; letzter Zugriff:
2010-12-14].
Crasborn, Onno / Zwitserlood, Inge. 2008: Annotation of the video data in the Corpus
NGT. Nijmegen: Radboud University. [Online im Internet; URL:
http://www.ru.nl/aspx/download.aspx?File=/contents/pages/515436/corpusngt_anno
tationconventions.pdf; letzter Zugriff: 2010-12-14].
Crasborn, Onno / Zwitserlood, Inge / Ros, Johan. 2008. Corpus NGT. An open access
digital corpus of movies with annotations of Sign Language of the Netherlands.
Centre for Language Studies, Radboud University Nijmegen. [Online im Internet;
URL: http://www.ru.nl/corpusngt/; letzter Zugriff: 2010-12-14].
Croft, William. 2001: Radical Construction Grammar. Oxford u.a.: Oxford University Press.
Cuxac, Christian. 2000: La langue des Signes Française (LSF). Les voies de l’iconicité.
Paris: Ophrys.
Cuxac, Christian. 2004: «Phonétique» de la LSF: Une formalisation problématique. In:
Silexicales 4. (Linguistique de la LSF: recherches actuelles. Actes du colloque de
Villeneuve d’Ascq, 23-24 sept. 2003), 93-113.
Danielzik, Nicole. 2003: Die hörende Hochschule: Möglichkeiten und Grenzen eines
integrierten Studiums für Gehörlose. In: Hillert, Gudrun / Heßmann, Jens (Hg.): Mehr
lernen: Gehörlose in der nachschulischen Bildung. Beiträge zur internationalen
Fachtagung des EU-Leonardo-da-Vinci-Projekts MAS in Berlin, 6./7. September
2002. Magdeburg: Verlag der Erich-Weinert-Buchhandlung, 129-137.
Darwin, Charles. 1871: The descent of man and selection in relation to sex. 2 vol.
London: John Murray.
Darwin, Charles. 1872: The expression of emotion in man and animals. London: John Murray.
DeMatteo, Asa. 1977: Visual imagery and visual analogues in American Sign
Language. In: Friedman, Lynn A. (ed.): On the other hand: New perspectives on
American Sign Language. New York: Academic Press, 109-136.
Deutsche Forschungsgemeinschaft. 1998: Vorschläge zur Sicherung guter wissenschaftlicher Praxis: Empfehlungen der Kommission „Selbstkontrolle in der Wissenschaft“
(Proposals for safeguarding good scientific practice/Recommendations of the
Commission on Professional Self Regulation in Science. Denkschrift). Weinheim:
Wiley-VCH. [Pdf-Dokument im Internet: URL:
http://www.dfg.de/aktuelles_presse/reden_stellungnahmen/download/empfehlung_
wiss_praxis_0198.pdf; letzter Zugriff: 2010-12-14].
Dipper, Stefanie / Hinrichs, Erhard / Schmidt, Thomas / Wagner, Andreas / Witt,
Andreas. 2006: Sustainability of Linguistic Resources. In: Hinrichs, Erhard / Ide,
Nancy / Palmer, Martha / Pustejovsky, James (eds.): Proceedings of the LREC 2006
Workshop on Merging and Layering Linguistic Information, Genoa, Italy, 48-54.
[Pdf-Dokument im Internet; URL: http://www.linguistics.ruhr-unibochum.de/~dipper/papers/merge06_webVersion.pdf; letzter Zugriff: 2010-12-14].
Ebbinghaus, Horst. 1996: Direktionale Verben in gebärdensprachlichen Handlungsszenarien – Zum Verhältnis von Syntax, Topographie und szenischem Gehalt
gebärdensprachlicher Räume. In: Das Zeichen 38, 544-553.
Literatur
121
Ebbinghaus, Horst. 1998: Warum deutsche Wörter wesentliche Bestandteile der
Deutschen Gebärdensprache sind. Teil 1. In: Das Zeichen 45, 443-451; Teil 2. In:
Das Zeichen 46, 594-611.
Ebbinghaus, Horst / Heßmann, Jens. 1989: Gehörlose, Gebärdensprache, Dolmetschen.
Chancen der Integration einer sprachlichen Minderheit. Hamburg: Signum.
Ebbinghaus, Horst / Heßmann, Jens. 1991: Gebärdensprachen Gehörloser als Gegenstand der Semiotik. Von den Grenzen der Nützlichkeit linguistischer Beschreibungsmodelle. In: Das Zeichen 15, 55-65.
Ebbinghaus, Horst / Heßmann, Jens. 1994a: Formen und Funktionen von Ablesewörtern
in gebärdensprachlichen Äußerungen. Teil I. In: Das Zeichen 30, 480-487.
Ebbinghaus, Horst / Heßmann, Jens. 1994b: Identifikation gebärdensprachlicher Einheiten als Problem der Datenaufbereitung. [Unveröffentl. Arbeitspapier].
Ebbinghaus, Horst / Heßmann, Jens. 2000: Leben im Kommunikationskonflikt. Zur
Ungleichsprachigkeit Hörender und Gehörloser. In: Hess-Lüttich, Ernest W. B. /
Schmitz, H. Walter (Hg.): Botschaften Verstehen. Kommunikationstheorie und
Zeichenpraxis. Festschrift für Helmut Richter. Frankfurt a.M.: Lang, 47-66.
Ebbinghaus, Horst / Heßmann, Jens. 2001: Sign language as multidimensional communication: Why manual signs, mouthings, and mouth gestures are three different things.
In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the
mouth: The mouth as articulator in sign language. Hamburg: Signum, 133-151.
Ekman, Paul / Friesen, Wallace V. 1969: The repertoire of nonverbal behavior:
Categories, origins, usage, and coding. In: Semiotica 1, 49-98.
Emde, Doris. 2005: Ikonizität und der Wandel ihres Stellenwertes innerhalb der neueren
Gebärdensprachforschung. Universität Hamburg. [Unveröffentl. Magisterarbeit].
Emmorey, Karen. 1999: Do signers gesture? In: Messing, L. / Campbell, R. 1999:
Gesture, speech, and sign. New York: Oxford University Press, 133-159.
Engberg-Pedersen, Elisabeth. 1993: Space in Danish Sign Language. The semantics and
morphosyntax of the use of space in a visual language. Hamburg: Signum.
Engberg-Pedersen, Elisabeth / Pedersen, Annegrethe. 1985: Proforms in Danish Sign
Language, their use in figurative signing. In: Stokoe, William / Volterra, Virginia
(eds.): SLR ’83 – Sign Language Research. Silver Spring, MD: Linstok Press, 202-210.
Erlenkamp, Sonja. 2000: Syntaktische Kategorien und lexikalische Klassen.
Typologische Aspekte der Deutschen Gebärdensprache. München: Lincom Europa.
Fischer, Renate / Kollien, Simon. 2006: Constructed action in DGS: Roses Aktions=
Fragmente. Teil I. In: Das Zeichen 72, 96-106; Teil II. In: Das Zeichen 74, 448-463.
Friedman, Lynn A. (ed.). 1977: On the other hand: New perspectives on American Sign
Language. New York: Academic Press.
Frishberg, Nancy. 1975: Arbitrariness & Iconicity: Historical change in American Sign
Language. In: Language 51, 696-719.
Garcia, Brigitte / Boutet, Dominique / Roch, Gaëlle. 2008: The morpho-phonetic
structuring of LSF (French Sign Language). In: de Quadros, Ronice M. (ed.): Sign
Languages: spinning and unraveling the past, present and future. TISLR9, forty five
papers and three posters from the 9th. Theoretical Issues in Sign Language
Research Conference, Florianopolis, Brazil, December 2006. Editora Arara Azul.
Literatur
122
Petrópolis/RJ. Brazil, 125-139. [Online im Internet; URL: http://editora-araraazul.com.br/ebooks/catalogo/complete.pdf; letzter Zugriff: 2010-12-14].
Gielen, Klaus / Thöne, Meinolf. 1974: Artikulation mit PMS: Artikulationslehrgang mit Hilfe
des Phonembestimmten Manualsystems. Marburg: Medizinische Verlagsgesellschaft.
Girod, Michel (éd.). 1997: La Langue des Signes. Dictionnaire Bilingue LSF/Français.
Tome 2 et 3. Paris: I.V.T. Edition.
Goldberg, Adele E. 2006: Constructions at Work: The Nature of Generalization in
Language. Oxford: Oxford University Press.
Grundgebärden 1. Für Einsteiger. 1999. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM].
Grundgebärden 2. 2000. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM].
Günther, Klaus-Burkhard. 1990: Zweisprachigkeit von Anfang an durch Gebärden- und
Schriftsprache. Neue Perspektiven für die Gehörlosenpädagogik. Teil I. In: Das
Zeichen 13, 293-306.
Hanke, Thomas. 2001: Sign language transcription with syncWRITER. In: Sign
Language & Linguistics 4, 1/2, 275-283.
Hartmann, Merle. 2006: „Constructed Action“ in Deutscher Gebärdensprache. Universität Hamburg. [Unveröffentl. Magisterarbeit].
Henke, Margret / Heßmann, Jens. 1995: Schritte aufeinander zu. In: Das Zeichen 32, 170-172.
Heßmann, Jens. 2001a: GEHÖRLOS SO! Materialien zur Gebärdensprache. Bd. 1:
Grundlagen und Gebärdenverzeichnis; Bd. 2: Gebärdensprachtexte. Hamburg: Signum.
Heßmann, Jens. 2001b: GEHÖRLOS SO! Materialien zur Gebärdensprache. Hamburg:
Signum. [Video].
Hoiting, Nini / Slobin, Dan I. 2007: From gestures to signs in the acquisition of sign
language. In: Levy, Elena / Duncan, Susan / Cassell, Justine (eds.): Gesture and the
dynamic dimension of language: essays in honor of David McNeill.
Amsterdam/Philadelphia: Benjamins, 51–65.
Humphries, Tom / Padden, Carol / O’Rourke, Terrence J. 1994: A basis course in
American Sign Language. (Second edition). Silver Spring: T.J. Publishers.
Hundt, Markus. 2005: Grammatikalität – Akzeptabilität – Sprachnorm. Zum Verhältnis von
Korpuslinguistik und Grammatikalitätsurteilen. In: Lenz, Friedrich / Schierholz, Stefan
(Hg.): Korpuslinguistik in Lexik und Grammatik. Tübingen: Stauffenburg, 15-40.
IMDI (ISLE Metadata Initiative; 2003). IMDI Metadata Elements for Session
Descriptions, Version 3.0.4, MPI Nijmegen. [Pdf-Dokument im Internet; URL:
http://www.mpi.nl/IMDI/documents/Proposals/IMDI_MetaData_3.0.4.pdf; letzter
Zugriff: 2010-12-14].
Johnston, Trevor. 1989: AUSLAN Dictionary. A Dictionary of the Sign Language of the
Australian Deaf Community. Maryborough, Victoria: Australian Print Group.
Johnston, Trevor. 1991: Spatial syntax and spatial semantics in the inflection of signs
for the marking of person and location in AUSLAN. In: International Journal of
Sign Linguistics 2, 1, 29-62.
Johnston, Trevor. 1993a: Räumliche Syntax und Semantik in der Australischen
Gebärdensprache. Zur personen- und positionsmarkierenden Flexion von Gebärden.
Teil I: Typen von Verbgebärden in der Australischen Gebärdensprache. In: Das
Zeichen 25, 344-360.
Literatur
123
Johnston, Trevor. 1993b: Räumliche Syntax und Semantik in der Australischen Gebärdensprache. Zur personen- und positionsmarkierenden Flexion von Gebärden. Teil II:
Ikonizität in räumlicher Syntax und räumlicher Semantik. In: Das Zeichen 26, 484-491.
Johnston, Trevor (ed.). 1998a: Signs of Australia. A new dictionary of Auslan the sign
language of the Australian deaf community. Rev. ed. North Rocks, NSW: North
Rocks Press.
Johnston, Trevor (ed.). 1998b: Signs of Australia on CD-ROM. A Dictionary of Auslan
(Australian Sign Language). North Rocks, NSW: Royal Institute for Deaf and Blind
Children. [CD-ROM].
Johnston, Trevor. 2001: The lexical database of Auslan (Australian Sign Language). In:
Sign Language & Linguistics 4, 1/2, 145-169.
Johnston, Trevor. 2008a: Corpus linguistics and signed languages: no lemmata, no
corpus. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd,
Ernst D. / Zwitserlood, Inge (eds.): LREC 2008 Workshop Proceedings. W 25: 3rd
Workshop on the Representation and Processing of Sign Languages: Construction
and Exploitation of Sign Language Corpora, 82-87. Paris: ELRA.
[Pdf-Dokument im Internet; URL
http://www.lrec-conf.org/proceedings/lrec2008/workshops/W25_Proceedings.pdf;
letzter Zugriff: 2010-12-14].
Johnston, Trevor. 2008b: Corpus linguistics and signed languages: no lemmata, no
corpus. Paper presented at the 3rd Workshop on the Representation and Processing
of Sign Languages, June, 1. LREC, Marrakech, Morocco, May 26-June 1, 2008.
[Unveröffentl. Handout zum Vortrag].
Johnston, Trevor. 2010a: Guidelines for annotation of the video data in the Auslan
Corpus. [Manuskript in ständiger Überarbeitung, Stand: Nov. 2010; aktuelle
Version online im Internet; URL: http://www.auslan.org.au/about/annotations/;
letzter Zugriff: 2010-12-14].
Johnston, Trevor. 2010b. From archive to corpus: Transcription and annotation in the
creation of signed language corpora. In: International Journal of Corpus
Linguistics, 15, 1, 106-131.
Johnston, Trevor / de Beuzeville, Louise. 2008: The Auslan corpus: background and
guidelines for annotators. [Manuskript in ständiger Überarbeitung, Stand: Mai 2008].
Johnston, Trevor / Ferrara, Lindsay. 2010: Lexicalization in signed languages: when is an
idiom not an idiom? Paper presented at the 3rd UK Cognitive Linguistics Conference,
University of Hertfordshire, 6-8 July 2010.
Johnston, Trevor / Schembri, Adam. 1996: On Defining and Profiling Lexis in AUSLAN
(Australian Sign Language). [Unveröffentl. Manuskript].
Johnston, Trevor / Schembri, Adam. 1998: On Defining Lexeme in a Sign Language.
[Unveröffentl. Manuskript].
Johnston, Trevor / Schembri, Adam. 1999: On Defining Lexeme in a Signed Language.
In: Sign Language & Linguistics 2, 2, 115-185.
Johnston, Trevor / Schembri, Adam. 2010: Variation, lexicalization and grammaticalization in signed languages. In: Langage et société n° 131, mars 2010, 19-35.
Kaufmann, Peter. 1991: LBG, LUG und TRUG? – Eine Stellungnahme aus der
Gehörlosenschule Zürich. In: Das Zeichen 16, 207-211.
Literatur
124
Kendon, Adam. 2008: Some reflections on the relationship between ‘gesture’ and
‘sign’. In: Gesture, Vol. 8, No. 3, 348-366.
Kiesling, Scott / Dilley, Laura / Raymond, William D. 2006: The Variation in
Conversation (ViC) Project: Creation of the Buckeye Corpus of Conversational
Speech (Buckeye Corpus Manual, 11/30/06).
[Pdf-Dokument im Internet; URL:
http://buckeyecorpus.osu.edu/BuckeyeCorpusmanual.pdf?PHPSESSID=96c891419
5f79135f80f8c45301d883f/; letzter Zugriff: 2010-12-14].
Klima, Edward S. / Bellugi, Ursula (eds.). 1980: The signs of language. 3rd printing.
Cambridge, MA/London: Harvard University Press. [1. Aufl. 1979].
König, Susanne / Reiner Konrad / Gabriele Langer. 2003: Hintergrundinformationen.
In: Konrad, Reiner / Schwarz, Arvid / König, Susanne / Langer, Gabriele / Hanke,
Thomas / Prillwitz, Siegmund. 2003: Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik. Hamburg: Signum, 444-475.
König, Susanne / Reiner Konrad / Gabriele Langer. 2008: What’s in a sign? Theoretical
lessons from practical sign language lexicography. In: Quer, Josep (ed.): Signs of
the time. Selected papers from TISLR 2004. Hamburg: Signum.
König, Susanne / Konrad, Reiner / Langer, Gabriele (in Vorb.): Lexikon – Der Wortschatz der DGS. In: Eichmann, Hanna / Hansen, Martje / Heßmann, Jens: Handbuch
Deutsche Gebärdensprache: Sprachwissenschaftliche und anwendungsbezogene
Perspektiven. Hamburg: Signum.
KOMVA (ed.). 1988: Handen uit de mouwen. Gebaren uit de Nederlandse Gebarentaal
in kaart gebracht. Vol. 1 & 2. Amsterdam: NSDSK.
KOMVA (ed.). 1989: Basis-Gebarenschat. En beknopt gebarenwoordenboek. Amsterdam: NSDSK.
Konrad, Reiner. 2010a: Transkriptionskonventionen im Vergleich. Universität Hamburg.
[Online im Internet; URL: http://www.sign-lang.uni-hamburg.de/projekte/mfl/
TranskrKonv_Vergleich.pdf; letzter Zugriff: 2010-12-14].
Konrad, Reiner. 2010b: Gebärdensprach-Korpora. Universität Hamburg. [Online im
Internet; URL:
http://www.sign-lang.uni-hamburg.de/dgs-korpus/index.php/gs-korpora.html;
letzter Zugriff: 2010-12-14].
Konrad, Reiner. (in Vorb.): Die lexikalische Struktur der DGS im Spiegel empirischer
Fachgebärdenlexikographie. Zur Integration der Ikonizität in ein korpusbasiertes
Lexikonmodell. Tübingen: Narr Verlag. [Dissertation].
Konrad, Reiner / Hanke, Thomas / Schwarz, Arvid / Prillwitz, Siegmund / Bentele,
Susanne. 2000: Fachgebärdenlexikon Hauswirtschaft. 2 Bde. Hamburg: Signum.
Konrad, Reiner / Langer, Gabriele / König, Susanne / Schwarz, Arvid / Hanke, Thomas
/ Prillwitz, Siegmund (Hg.). 2007: Fachgebärdenlexikon Gesundheit und Pflege. 2
Bde. Seedorf: Signum.
Konrad, Reiner / Langer, Gabriele / König, Susanne / Hanke, Thomas / Rathmann,
Christian. 2010: Fachgebärdenlexikon Gärtnerei und Landschaftsbau. 2 Bde.
Seedorf: Signum.
Konrad, Reiner / Schwarz, Arvid / König, Susanne / Langer, Gabriele / Hanke, Thomas
/ Prillwitz, Siegmund. 2003: Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik.
Hamburg: Signum.
Literatur
125
Laatz, Wilfried. 1993: Empirische Methoden. Ein Lehrbuch für Sozialwissenschaftler.
Thun, Frankfurt a.M.: Harri Deutsch.
Lakoff, Georg / Johnson, M. 1980. Metaphors we live by. Chicago/London: University
of Chicago Press.
Langer, Gabriele. 2005: Bilderzeugungstechniken in der Deutschen Gebärdensprache.
In: Das Zeichen 70, 254-270.
Lauck, Toni. 1981: Das phonembestimmte Manualsystem als Sprechlehrhilfe. In: Die
Sprachheilarbeit: Fachzeitschrift für Sprachgeschädigten- und Schwerhörigenpädagogik 26, 110-114.
Liddell, Scott K. 1977: An investigation into the syntactic structure of American Sign
Language. University of California, San Diego. [Unveröffentl. Dissertation (Ph.D)].
Liddell, Scott K. 2003a: Grammar, gesture and meaning in American Sign Language.
Cambridge: Cambridge University Press.
Liddell, Scott K. 2003b: Sources of meaning in ASL classifier predicates. In: Emmorey,
Karen (ed.): Perspectives on classifier constructions in sign languages. Mahwah,
NJ: Erlbaum, 199-220.
Lucas, Ceil / Bayley, Robert / Valli, Clayton. 2001a: Sociolinguistic Variation in
American Sign Language. Washington, DC: Gallaudet University Press.
Lucas, Ceil / Bayley, Robert / Reed, Ruth / Wulf, Alyssa. 2001b: Lexical variation in
african american and white signing. In: American Speech 76, 4, 339-360.
Machabée, Dominique / Dubuisson, Colette. 1995. Initialized Signs in (or outside of?)
Quebec Sign Language. In: Bos, Heleen F. / Schermer, Gertrude M. (eds.): Sign
Language Research 1994: Proceedings of the Fourth European Congress on Sign
Language Research, Munich, September 1-3, 1994. Hamburg: Signum, 69-84.
Macken, Elizabeth / Perry, John / Haas, Cathy. 1993: Richly grounding symbols in
ASL. In: Sign Language Studies 81, 375-394.
MacWhinney, Brian. 2008: The CHILDES Project: Tools for Analyzing Talk –
Electronic Edition. Part 1: The CHAT Transcription Format. Carnegie Mellon
University, oct. 26, 2008. [Pdf-Dokument im Internet; URL:
http://childes.psy.cmu.edu/manuals/chat.pdf; letzter Zugriff: 2010-12-14].
Maisch, Günter / Wisch, Fritz-Helmut. 1988-1994: Gebärdenlexikon. 4 Bde. Hamburg:
Verlag hörgeschädigte kinder. [Bd. 1. 1988. Grundgebärden; Bd. 2. 1988. Mensch;
Bd. 3. 1989. Natur; Bd. 4. 1994. Aufbaugebärden].
Mally, Gertrud. 1992: Redewendungen der Deutschen Gebärdensprache. Münchner
Dialekt 1-3. Hamburg: Signum. [3 Videos].
Mally, Gertrud. 1993: Redewendungen der Deutschen Gebärdensprache. Münchner
Dialekt. Hamburg: Signum.
Mandel, Mark A. 1977: Iconic devices in American Sign Language. In: Friedman, Lynn
A. (ed.): On the other hand. New perspectives on American Sign Language. New
York: Academic Press, 57-107.
Marchark, M. 1994: Gesture and sign. In: Applied Psycholinguistics 15, 2009-236.
McNeill, David. 1985: So you think gestures are nonverbal? In: Psychological Review 92,
3, 350-371.
Literatur
126
McNeill, David. 1992: Hand and mind: what gestures reveal about thought. Chicago:
University of Chicago Press.
McNeill, David. 2005: Gesture and Thought. Chicago, London: University of Chicago Press.
Metzger, Melanie. 1995: Constructed dialogue and constructed action in American Sign
Language. In: Lucas, Ceil (ed.): Sociolinguistics in deaf communities. Washington,
DC: Gallaudet University Press, 255-271.
Metzger, Christiane / Herrmann, Bettina. 2005: eLearning in der Gebärdensprachlehre.
In: Das Zeichen 70, 248-252.
Miller, Christopher. 2001: Some reflections on the need for a common sign notation. In:
Sign Language & Linguistics 4, 1/2, 11-28.
Mittelberg, Irene. 2007: Methodology for multimodality. One way of working with
speech and gesture data. In: Gonzalez-Marquez, Monica / Mittelberg, Irene /
Coulson, Seana / Spivey, Michael J.: Methods in Cognitive Linguistics. Amsterdam/Philadephia: Benjamins, 225-248.
Neidle, Carol. 2002: SignStream™ Annotation: Conventions used for the American
Sign Language Linguistic Research Project. (American Sign Language Linguistic
Research Project. Report No. 11). Boston University. [Pdf-Dokument im Internet;
URL: http://www.bu.edu/asllrp/asllrpr11.pdf; letzter Zugriff: 2010-12-14].
Neidle, Carol. 2007: SignStream™ Annotation: Addendum to Conventions used for the
American Sign Language Linguistic Research Project. (American Sign Language
Linguistic Research Project. Report No. 13). Boston University. [Pdf-Dokument im
Internet; URL: http://www.bu.edu/asllrp/asllrpr13.pdf; letzter Zugriff: 2010-12-14].
Obando, I. / Vega, E. / Javier, E. / Ellis, M., / Kegl, J. 2000: Lip pointing in Idioma de Senas
de Nicaragua. Paper presented at 7th International Conference on Theoretical Issues in
Sign Language Research, Amsterdam. [Unveröffentl. Handout zum Vortrag].
Padden, Carol A. 1988: Interaction of Morphology and Syntax in American Sign
Language. New York: Garland Publ.
Patterson, Brian R. / Neupauer, Nicholas C. / Burant, Patricia A. / Koehn, Steven C. / Reed,
April T. 1996: A preliminary examination of conversation analytic techniques: Rates of
inter-transcriber reliability. In: Western Journal of Communication 60, 1, 76-91.
Pitt, Mark A. / Johnson, Keith / Hume, Elizabeth / Kiesling, Scott / Raymond, William:
2005: The Buckeye corpus of conversational speech: Labeling conventions and a
test of transcriber reliability. In: Speech Communication 45, 89-95.
Popist, Frauke-Maria. 2002: Erhebungsmethoden in der Gebärdensprachlexikographie.
Dokumentation und Vergleich am Beispiel des Fachgebärdenlexikons ‚Hauswirtschaft‘. Universität Hamburg. [Unveröffentl. Magisterarbeit].
Projektgruppe München. 1989: Das lautsprachbegleitende Gebärdenverfahren. München:
[ohne Verlag].
Rammel, Georg. 1989: Das lautsprachbegleitende Gebärdenverfahren – Aufgabenstellung und
Probleme. In: Bausch, Karl H. / Grosse, Siegfried (Hg.): Spracherwerb und
Sprachunterricht für Gehörlose. Zielsetzungen und Probleme. Tübingen: Niemeyer, 61-68.
Rasmus, Brian A. / Allen, Donald M. 1988: Testing new signs for teaching biology. In:
Sign Language Studies 60, 313-330.
Literatur
127
Raymond, William D. 2003: An analysis of coding consistency in the transcription of
spontaneous speech from the Buckeye corpus. Proceedings of the Workshop on
Spontaneous Speech: Data and Analysis. August, 2002. Tokyo. [Pdf-Dokument im
Internet; URL:
http://buckeyecorpus.osu.edu/pubs/SSDA.proof.pdf?PHPSESSID=a7349c246c53d2
2f00f6a445acacb553; letzter Zugriff: 2010-12-14].
Russo, Tommaso. 2004: Iconicity and Productivity in Sign Language Discourse: An
Analysis of Three LIS Discourse Registers. In: Sign Language Studies 4, 2, 164-197.
Sallandre, Marie-Anne. 2001: Va et vient de l’iconicité en Langue des Signes Française.
In: Acquisition et Interaction en Langue Étrangère (A.I.L.E.) 15, 37-59.
Sallandre, Marie-Anne. 2003: Les unités du discours en Langue des Signes Française.
Tentative de catégorisation dans le cadre d’une grammaire de l’iconicité. 2 vol.
Paris: Université Paris 8. [Unveröffentl. Dissertation]. [Pdf-Dokumente im Internet;
URL: http://tel.archives-ouvertes.fr/tel-00185376/en/; letzter Zugriff: 2010-12-14].
Schembri, Adam. 2000: Nachdenken über Klassifikatoren in Gebärdensprachen. Teil 1
in: Das Zeichen 53, 470-483; Teil 2 in: Das Zeichen 54, 629-639.
Schembri, Adam. 2003: Rethinking “classifiers” in signed languages. In: Emmorey,
Karen (ed.): Perspectives on classifier constructions in sign languages. Mahwah,
NJ: Erlbaum, 3-34.
Scherer, Klaus. 1974: Ausgewählte Methoden der empirischen Sprachforschung. In: Koolwijk,
Jürgen van / Wieken-Mayser, Maria (Hg.): Techniken der empirischen Sozialforschung.
Ein Lehrbuch in 8 Bänden. Bd. 3. München, Wien: Oldenbourg Verlag, 110-157.
Schmidt, Thomas. 2005: Computergestützte Transkription: Modellierung und Visualisierung gesprochener Sprache mit texttechnologischen Mitteln. Frankfurt a.M.: Lang.
[Dissertation].
Schmidt-Brücken, Sabine. 2001: Das Sozialgesetzbuch IX. Behinderte Menschen erhalten
Recht auf Rehabilitation und soziale Teilhabe. In: Das Zeichen 57, 400-403.
Schnell, Rainer / Hill, Paul B. / Esser, Elke. 1993: Methoden der empirischen Sozialforschung. 4. Aufl. München, Wien: Oldenbourg Verlag.
Schulte, Klaus. 1980: Sprechlehrhilfe PMS. Informationen des Phonembestimmten
Manualsystems zur Sprachtherapie und Artikulation. Heidelberg: Groos.
Skant, Andrea / Orter, Reinhold / Okorn, Ingeborg / Dotter, Franz / Bergmeister, Elisabeth.
2001: Die Bearbeitung des Klagenfurter Fragebuchs zum Grundwortschatz der
Österreichischen Gebärdensprache. In: Grazer Linguistische Studien 56, Herbst, 95-114.
Slobin, Dan I. / Hoiting, Nini / Anthony, Michelle / Biederman, Yael / Kuntze, Marlon /
Lindert, Reyna B. / Pyers, Jennie E. / Thumann, Helen / Weinberg, Amy M. 2001:
Sign language transcription at the level of meaning components. The Berkeley
Transcription System BTS. In: Sign Language & Linguistics 4, 1/2, 63-104.
Standaard Lexikon Nederlandse Gebarentaal. Deel 1 & 2. 2002. Bunnik: Nederlands
Gebarencentrum. [2 CD-ROM]. [Online im Internet; URL:
http://www.gebarencentrum.nl/woordenboek.asp?color=y&idrelease=31;
letzter Zugriff: 2010-12-14].
Starcke, Hellmuth / Maisch, Günter. 1977: Die Gebärde der Gehörlosen. Ein Hand-,
Lehr- und Übungsbuch. Hamburg: Deutsche Gesellschaft zur Förderung der Gehörlosen und Schwerhörigen.
Literatur
128
Sternberg, Martin L. 1981: American Sign Language dictionary: A comprehensive
dictionary. New York: Harper & Row.
Supalla, Ted. 1978: Morphology of verbs of motion and location. In: Caccamise, Frank /
Hicks, Doin (eds.): Proceedings of the Second National Symposium on Sign Language
Research and Teaching. Siver Spring, MD: National Association of the Deaf, 27-45.
Supalla, Ted. 1986: The classifier system in American Sign Language. In: Craig,
Colette (ed.): Noun classes and categorization. Amsterdam: Benjamins, 181-214.
Supalla, Ted / Newport, Elissa L. 1978: How many seats in a chair? The derivation of
nouns and verbs in ASL. In: Siple, Patricia (ed.): Understanding language through
sign language research. New York, San Francisco, London: Academic Press, 91-132.
Sutton-Spence, Rachel / Woll, Bencie. 1999: The Linguistics of British Sign Language.
An Introduction. Cambridge: Cambridge University Press.
Troelsgård, Thomas / Kristoffersen, Jette H. 2008: An Electronic dictionary of Danish Sign
Language. In: Quadros, Roncie M. de (ed.): Sign Languages: spinning and unraveling
the past, present and future. TISLR 9, forty five papers and three posters from the 9th
Theoretical Issues in Sign Language Research Conference, Florianopolis, Brazil,
December 2006. Petrópolis/RJ, Brazil: Editora Arara Azul, 652-663. [Pdf-Dokument
im Internet; URL: http://www.editora-araraazul.com.br/ebooks/catalogo/complete.pdf; letzter Zugriff: 2010-12-14].
Wallin, Lars. 1996: Polysynthetic signs in Swedish Sign Language. Stockholm: University
of Stockholm. [Englische Ausg. der Dissertation, Orig. in Schwedisch, 1994].
Wiegand, Herbert E. 1994: Zur Unterscheidung von semantischen und enzyklopädischen Daten in Fachwörterbüchern. In: Schaeder, Burkhard / Bergenholtz, Henning
(Hg.): Fachlexikographie. Fachwissen und seine Repräsentation in Wörterbüchern.
Tübingen: Narr, 104-132.
Winston, Elizabeth A. 1991: Spatial referencing and cohesion in an American Sign
Language text. In: Sign Language Studies, 73, 20, 397-410.
Anhang
129
Anhang: Abkürzungen
ASL
BSL
BTS
CA
CHAT
CHILDES
CL
CLAN
CLex
CODA
DGS
ECHO
ELAN
American Sign Language
British Sign Language
Berkeley Transcription System
Constructed Action
Codes for the Human Analysis of Transcripts
Child Language Data Exchange System
Classifier
Computerized Language Analysis
Fachgebärdenlexikon Computer
Child of Deaf Adult
Deutsche Gebärdensprache
European Cultural Heritage Online
Eudico Linguistic Annotator (EUDICO = European Distributed Corpora
Project)
GaLex
Fachgebärdenlexikon Gärtnerei und Landschaftsbau
GLex
Fachgebärdenlexikon Gesundheit und Pflege
HLex
Fachgebärdenlexikon Hauswirtschaft
HamNoSys Hamburger Notationsystem für Gebärdensprachen
ID
Identifier (engl. für Identifikator zur Kennzeichnung eines Datensatzes
einer Datenbank, s. Datenbanik-ID)
IDGS
Institut für Deutsche Gebärdensprache
IMDI
ISLE Metadata Initiative (ISLE = International Standards for Language
Engineering)"
IPA
International Phonetic Alphabet oder International Phonetic Association
LBG
Lautsprachbegleitendes Gebärden
LingLex
Fachgebärdenlexikon Linguistik
LIS
Lengua Italiana des Signas (Italienische Gebärdensprache)
LSF
Langue des Signes Française (Französische Gebärdensprache)
LUG
Lautsprachunterstützendes Gebärden
NGT
Nederlandse Gebarentaal (Nierderländische Gebärdensprache)
PLex
Fachgebärdenlexikon Psychologie
PM
Property Marker
PMS
Phonembestimmtes Manualsystem
SEE 1
Seeing Essential English
SEE 2
Signing Exact English
SLex
Fachgebärdenlexikon Sozialarbeit/Sozialpädagogik
SQL
Structured Query Language (engl. für standardisierte Datenbanksprache
zum Anlegen, Abfragen und Ändern von Daten in relationalen
Datenbanken)
TLex
Fachgebärdenlexikon Tischler/Schreiner
TRUG
Tonreceptionsunterstützende Gebärden
TSP
Technical Signs Project (Project zur Verbreitung und Standardisierung von
Fachgebärden in ASL)
XML
Extensible Markup Language (engl. für erweiterbare Auszeichnungssprache)
Anhang
Anhang: Fingeralphabet der DGS
130