Universität des Saarlandes
Fachschaft Computerlinguistik
Proceedings 17. StuTS

Sprache, was ist das eigentlich?

Gerhard Kordmann · Predigerstraße 6 · 54290 Trier
e-Mail: kordmann@ldv01.uni-trier.de

Irgendwann, im Optimalfall vor dem Studium, meist eher später, sollte im Studium die Frage aufkommen: Wozu mache ich das eigentlich? Bei der Beschäftigung mit Sprache bieten sich viele Blickwinkel an, wie maschinelle Textbe/verarbeitung, Fremdsprachenunterricht, Anwendung in der Werbung oder die Suche nach menschlichen Denkstrukturen. Für LinguistInnen ist das Ziel wohl nicht nur die Beschreibung und Anwendung von Sprache, sondern die Frage, wie Sprache funktioniert und warum gerade so und nicht anders. Auch mit Blick auf Anwendungen bietet ein grundlegendes Modell Vorteile gegenüber rein ergebnisorientierter Planung, langfristig jedenfalls. Nun ist aber das anvisierte Forschungsobjekt »Sprache« ein sehr flüchtiges Ding. Es fängt mit den drastischen Unterschieden zwischen gesprochener Alltagssprache und geschriebenen Texten an, geht weiter mit Dia-, Sozio-, Ideo- und sonstigen -lekten, und läßt uns am Ende mit solch einem Bündel von Variationen zurück, daß eine einheitliche Definition unmöglich scheint. Trotzdem sind wir uns alle einig, daß etwa »die deutsche Sprache« ein sinvoller Begriff ist. Eine Erklärung dafür liegt in der Geschichte der Sprachwissenschaft: Ob Arabien, Indien, Rom oder das mittelalterliche Europa, die frühesten Ahnen der Linguistik liegen in der Auslegung und Beschreibung klassischer, oft religiöser Texte. Das heißt, es liegen eng begrenzte, unveränderliche Korpora vor, die schon für sich genommen da verschriftlicht eine Normierung der älteren gesprochen Sprache darstellen. Das Ziel, die ðreineÐ Sprache der untersuchten Texte zu beschreiben, verschärft noch die Idee von der starren, optimalen Sprache.

Ein weiterer früher Bereich, in dem sich Menschen intensiv mit Sprache beschäftigt haben, war das Beschreiben und Lehren von Fremdsprachen. Hier ist eine Vereinfachung und Normierung geradezu zwangsläufig. Der Zweck war/ist die Möglichkeit, sich verständlich zu machen, und das so schnell und einfach wie möglich. Da stören all zu vielfältige und gründliche Beschreibungen nur. Der größte Schnitt war dann vielleicht die Erfindung des Buchdrucks, die es nötig machte, Sprache ohne Handlungskontext, ohne die Möglichkeit zu Gesten oder Intonation verständlich zu machen. Daß der Gedanke, ein Wort bei jedem Vorkommen gleich zu schreiben, nicht so selbstverständlich war wie heute, zeigt der Blick auf die Uneinheitlichkeit älterer Texte.

Die zunehmende Standardisierung und Verschriftlichung hat sich so durchgesetzt, daß sie allgemein als »die korrekte Sprache« angesehen wird, ungeachtet der ziemlich abweichenden Standardsprache. Die erfüllt nämlich ihren Zweck auch in fröhlichem Chaos von unterbrochenen, »falschen« Sätzen, genuschelten oder fehlenden Worten, übersät von Nichtworten wie »äh«. Und es stört noch nicht mal die VerfasserInnen des Duden ...

Es gibt also wohl noch eine andere Ebene, eher kognitiv, die alles akzeptiert, was den Zweck erfüllt. Das paßt hervorragend zu den Erkenntnissen aus der allgemeinen Psychologie, die ähnliche Mechanismen für alle Arten von Wahrnehmung beschreibt: Mustererkennung, die Klassifizierung von ungenauen Daten, Problemlösestrategien. Das legt auch eine gewisse Universalität von Sprache nahe, jedenfalls der Grundmechanismen. Nehmen wir dazu, daß im Gehirn angeborene Mechanismen zur optischen oder akustischen Informationsverarbeitung existieren, klingt das alles sehr positiv für die Existenz eines Language Acquisition Device. Nur, Sprache ist mit Blick auf die Entwicklung des Lebens etwas so junges, kann sich da wirklich evolutionär eine so komplexe Struktur entwickelt haben? Und ist Sprache nicht so eng mit Weltwissen und Wahrnehmung verwoben, daß sich die Annahme verwandter Mechanismen geradezu aufdrängt? Den Deus ex machina bietet die Kognitionsforschung uns auch nicht.

Ein weiteres Problem liegt in der Repräsentation, die wir wählen. Ausgehend vom Zweck der Sprache, Gedanken zu übermitteln, steht am Anfang nicht das Wort, sondern die Idee. Die muß dann erst mal in eine lineare Form gebracht werden, um sie auszusprechen, begleitet noch von Intonation und Gestik. Die Schrift als weitere Abstraktion nimmt Zeitlichkeit, Intonation etc. weg, und eine linguistische Beschreibung, z.B. ein Syntaxbaum oder eine Klammerstruktur entfernt sich noch weiter vom Anfang.

Die Frage ist: was repräsentiert diese Darstellung jetzt eigentlich? Welche Ebene der Sprache wird erfaßt, und ist sie für meine Zwecke geeignet? So kann eine recht flache Strukturierung für ein System zur Textverarbeitung perfekt sein, aber für die Untersuchung kognitiver Ablufe völlig ungeeignet. Und damit kommen wir, tadaa!, zum Fazit des Ganzen. Es sieht so aus, als gäbe es die Sprache gar nicht, sie entzieht sich jedem Zugriff, und wie man auch rangeht, irgendwas klappt immer nicht. Nun könnte man sich W. S. Burroughs anschließen, sagen: »Language is a virus from outer space« und Medizin studieren. Oder aber man gewöhnt sich an ein anderes Konzept von Sprache. Sie ist weniger ein Forschungsgegenstand, der im ganzen beschrieben werden kann, als vielmehr ein Wissenschaftsbereich, in dem viele Leute viele vage verwandte Phänomene untersuchen. Emotionsforschung an Intonationskurven und ein effektives Rechtschreibeprogramm mögen zwar beide Sprachwissenschaft sein, haben aber praktisch nichts gemeinsam. Eine Sprachbeschreibung, die allen gerecht wird, ist nicht nur unmöglich, sondern auch unsinnig. JedeR muß sich darüber klar werden, welches Ziel verfolgt wird und sorgfältig die geeigneten Mittel und Repräsentationen suchen. Daß dabei Probleme in den Randbereichen entstehen und das Modell für die Fragen anderer Bereiche ungeeignet ist, sollte nicht als Fehler gesehen werden, sondern als hilfreiche Einschränkung.

Achtung, Ebenenwechsel: Soweit ging also in etwa mein Vortrag, der dann doch überraschenderweise eine Stunde dauerte. Danach kam es noch zu angeregter Diskussion, zunächst über die Frage der Grammatikalität. Soll man komplexe und ungewöhnliche Beispielstze wählen, da ja gerade Grenzfälle als Prüfstein für ein Modell dienen? Oder soll man sie vergessen, da sie künstlich sind und in der freilebenden Sprache keine Rolle spielen? Es kam der Vorschlag auf, Grammatikalität in etwa als Gebräuchlichkeit zu definieren. Eine Satzkonstruktion, die so abstrus ist, daa Versuchsperson A sie akzeptiert, B aber nicht, kann immerhin auf ihr Vorkommen in Texten geprüft werden. Zugegebenermaßen ist aber die Frage, welche Texte man wählt und wie die Datenmengen zu bewältigen sind, kaum klarer als die nach der Zuverlässigkeit von subjektiver Bewertung.

Im Weiteren kam es dann zu der immer wieder gerne diskutierten Frage, wie man angesichts der Vernetztheit von allem mit allem, der Komplexität des Problems, der Unerreichbarkeit von umfassenden Lösungen überhaupt noch studieren soll. Schließlich kann es auch lähmend sein, wenn man sich immer wieder vor Augen hält, daß alle Forschung nur kleine Splitter der Sprache erfassen kann, und selbst die vermutlich in einigen Jahren bis Jahrzehnten nichts mehr gelten. Andererseits, soviel als positives Schlußwort, kann es auch helfen, entspannter an die Sache ranzugehen, da die Ansprüche kleiner werden, und es kann öffnen für neue und heute noch ungewöhnliche Ansätze.


Zurück zur Übersicht der Beiträge