Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Leichte Sprache: Theoretische Grundlagen ?Orientierung für die Praxis
Leichte Sprache: Theoretische Grundlagen ?Orientierung für die Praxis
Leichte Sprache: Theoretische Grundlagen ?Orientierung für die Praxis
eBook1.002 Seiten8 Stunden

Leichte Sprache: Theoretische Grundlagen ?Orientierung für die Praxis

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Die Dudenredaktion und die Autorinnen legen das erste umfassende Handbuch zum Thema Leichte Sprache vor. Es richtet sich an Wissenschaftler(innen), fortgeschrittene Studierende, Mitarbeiter(innen) in öffentlichen Verwaltungen, Übersetzer(innen) und andere Personen, die sich mit dem Thema Leichte Sprache beschäftigen.

Im ersten Teil des Bandes wird Leichte Sprache definiert und ihre Genese dargestellt. Es werden die gesetzlichen Grundlagen aufgezeigt sowie die Adressat(inn)en von Texten in Leichter Sprache benannt. Weiterhin werden die existierenden Regelwerke zum Übersetzen in Leichte Sprache kritisch gewürdigt und die Strukturen von Leichter Sprache auf allen Ebenen des Sprachsystems beschrieben.

Im zweiten Teil wreden die existierenden Regeln für Leichte Sprache auf wissenschaftlicher Grundlage präzisiert und Forschungsdesiderate formuliert. Als Ergebnis werden Prinzipien Leichter Sprache formuliert, die gleichzeitig die Grundlage für das Verständnis des Übersetzens in Leichte Sprache sind.
SpracheDeutsch
HerausgeberDuden
Erscheinungsdatum13. Mai 2016
ISBN9783411911783
Leichte Sprache: Theoretische Grundlagen ?Orientierung für die Praxis

Mehr von Ursula Bredel lesen

Ähnlich wie Leichte Sprache

Ähnliche E-Books

Literaturkritik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Leichte Sprache

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Leichte Sprache - Ursula Bredel

    I  Leichte Sprache: Konzept und Funktion

    1  Leichte Sprache in soziolinguistischer Perspektive

    In diesem Kapitel richten wir einen soziolinguistischen Blick auf Leichte Sprache, die nicht im engeren Sinne eine Sprache ist, sondern eine Varietät im Diasystem des Deutschen. Welche Eigenschaften zeichnen aber nun Leichte Sprache als Varietät des Deutschen aus und welches sind die ihr benachbarten Varietäten? Wer sind die Kommunikationspartner, die sich dieser Varietät bedienen, und welche Formen der Interaktion bringt Leichte Sprache hervor? Welche Arten von Sprachbewertungen zieht sie auf sich und woraus ergibt sich diese Wahrnehmung? Was sind ihre gesellschaftlichen Funktionen und inwieweit haben sie Auswirkungen auf die Ausprägung der Varietät und der konkreten Einzeltexte?

    Diesen und ähnlichen Fragen gehen wir im vorliegenden Kapitel nach, um eine erste, soziolinguistische Einordnung Leichter Sprache zu ermöglichen. Dabei beschreiben wir Leichte Sprache zunächst im Rahmen eines varietätenlinguistischen Ansatzes. Der zweite Abschnitt ist der Wahrnehmung und Bewertung Leichter Sprache gewidmet, der dritte den gesellschaftlichen Funktionen.

    1.1  Leichte Sprache im Varietätengefüge des Deutschen

    Das Deutsche hat als natürliche, kultur- und traditionsgebundene Sprache ein ganzes Bündel an Varietäten ausgeprägt. Jede dieser Varietäten weist spezifische Merkmale auf, nach denen sie beschrieben und ihr Stellenwert im Varietätengefüge bestimmt werden kann. Zur Ermittlung des Varietätenstatus von Leichter Sprache lassen wir uns von den folgenden fünf Kriterien leiten: Gebrauch/Reichweite, Medialität/Medienspezifik, Entstehung, Kodifizierung/Normiertheit, Erwerbsbedingungen.

    1.1.1  Gebrauch/Reichweite

    Mit dem Kriterium Gebrauch/Reichweite bezieht man sich auf den Umstand, dass nicht alle Varietäten überall von jedem und jederzeit für alle kommunikativen Zwecke verwendet werden können. Nur die Standardsprache ist gebrauchsneutral. Das zeichnet sie gegenüber den Non standardvarietäten aus, die mit Coseriu (1988) in diaphasische, diastratische und diatopische Varietäten unterteilt werden können:

    Diaphasische Varietäten sind Varietäten, deren Gebrauch situations- und kontextabhängig ist. Die Umgangssprache ist dafür ein typisches Beispiel.

    Von diastratischen Varietäten spricht Coseriu, wenn der Varietätengebrauch von sozialen Faktoren abhängig ist. So wird die Jugendsprache als sehr typische diastratische Varietät eben nicht von allen Gesellschaftsmitgliedern genutzt, sondern nur von Kindern und Jugendlichen. Mit dem Gebrauch diastratischer Varietäten errichten die Varietätennutzer Kommunikationsbarrieren. Sie schotten sich gegen andere ab und erzeugen und stabilisieren so zugleich eine Gruppenidentität.

    Diatopische Varietäten sind in Bezug auf ihre lokale Reichweite spezifiziert; ein Dialekt ist in dem ihm entsprechenden Dialektraum unauffällig, außerhalb des entsprechenden Dialektraums ist sein Gebrauch markiert.

    Dem reinen Kriterium der Reichweite / des Gebrauchs folgend müsste Leichte Sprache zunächst als diastratische Varietät charakterisiert werden: Sie wird nicht von allen Gesellschaftsmitgliedern gleichermaßen gebraucht, sondern von Leser(inne)n, die keinen oder einen nur eingeschränkten Zugang zu standardsprachlichen Ausgangstexten haben. Allerdings weist Leichte Sprache keine Tendenz zur Abschottung auf. Sie dient umgekehrt dem Abbau von Barrieren. Außerdem ist sie nicht gruppenbildend. Dies schon deshalb, weil eine entscheidende Voraussetzung für die Herstellung einer Gruppenidentität fehlt, denn Leichte Sprache ist asymmetrisch: Die Produzenten sind nicht zugleich die Rezipienten. Produziert werden Texte in Leichter Sprache nicht von denen, die die Texte lesen, sondern von Schreibern, die über den geschriebenen Standard verfügen und Texte in Leichte Sprache übersetzen.

    Diese Interaktionsasymmetrie ist möglicherweise weniger selten als häufig angenommen wird: Auch bei fachsprachlichen Texten sind die Produzenten häufig weder mit den Rezipienten identisch – nur fachintern unter Experten gibt es einen symmetrischen Austausch – noch ist ein solcher Rollenwechsel intendiert. Auch hier entsteht, ebenso wie bei Produzenten und Rezipienten von Texten in Leichter Sprache, keine Gruppenidentität zwischen Produzenten und Rezipienten.

    In dieser Hinsicht weist die Leichte Sprache die größte Ähnlichkeit zu den Xenolekten auf, d. h. Varietäten, die Nichtmuttersprachler(inne)n gegenüber zur Anwendung kommen; verbreitet ist hierfür auch der von Ferguson ab 1971 in seinen Publikationen verwendete Terminus „Foreigner Talk". Xenolekte sind Leichter Sprache darüber hinaus auch strukturell ähnlich, denn sie sind ebenfalls mit Bezug auf Lexikon und Grammatik vereinfachte Varietäten. Anders als Leichte Sprache sind diese Varietäten jedoch monomedial mündlich (s. dazu nachfolgend 1.1.2). In der Forschung ist die Position vertreten worden, die Sprecher näherten sich mit Xenolekten an die vermutete oder beobachtete Sprechweise der Kommunikationspartner an und förderten damit die Entstehung von Pidgins (so auch Ferguson 1971).

    Studien wie die von Roche (1989) oder Jakovidou (1993) legen jedoch nahe, dass es sich um einseitige Modifikationsstrategien handelt, die je nach Sprecher und Kommunikationssituation mehr oder weniger ausgeprägt zum Einsatz kommen. Auch Xenolekte sind damit asymmetrisch: Sie werden einseitig vom Muttersprachler gegenüber dem Nichtmuttersprachler verwendet und das insbesondere in Situationen, in denen die Muttersprachler den adressierten Nichtmuttersprachlern einen niedrigeren sozialen Status zuweisen (Long 1983, der noch weitere Parameter benennt, die die Verwendung von Xenolekten auslösen können). Xenolekte sind damit keine neutrale Option, sondern weisen ein ausgeprägtes Potential auf, den Gesprächspartner zu diskriminieren (s. Kap. 1.2). Zumindest vordergründig werden sie eingesetzt, um das Verständnis in einer gegebenen (mündlichen) Interaktionssituation zu erleichtern. Sinner (2014: 200) nennt die folgenden Strategien, die dabei zum Einsatz kommen; sie weisen deutliche Überschneidungen mit Leichter Sprache auf:

    Kürzere und syntaktisch weniger komplexe Konstruktionen;

    logische Satzordnung wird nicht verändert;

    Simplifizierung oder Tilgung syntaktischer und morphologischer Komponenten (wie Ausfall von Artikeln, Präpositionen, Suffixen oder Kasus, Reduzierung von Flektionen usw.);

    Vermeidung eher wenig gebräuchlicher Wörter und Idiome, lexikalische Reduktion und ggf. kompensierende semasiologische Erweiterung;

    Vermeidung von Funktionsverben;

    Vermeidung von Ellipsen bzw. Beibehaltung von Elementen, die in der Kommunikation zwischen Muttersprachlern ausfallen können;

    reduziertes Sprechtempo und sorgfältige Aussprache;

    Vermeidung dialektaler Merkmale;

    starke Betonung der als wichtig erachteten Lexeme oder Satzteile;

    Markierung relevanter Aussagen durch Pausen;

    geschlossene Fragen;

    Verständnisfragen bzw. Rückversicherungsfragen.

    Hier sind Strategien, die in das Regelsystem der Sprache eingreifen, mit solchen Strategien kombiniert, die sich auf die Realisierung konkreter Texte beziehen. Dieses Spektrum findet sich auch in Leichter Sprache, aber ebenfalls in anderen vereinfachten Varietäten. Sinner (2014: 198) nennt hier neben Varietäten, die mit Nichtmuttersprachlern gesprochen werden, auch solche, mit denen Kleinkinder, Personen mit geistiger oder sensorischer Behinderung oder von Demenz Betroffene in mündlicher Kommunikation adressiert werden. Hier eröffnet sich ein breites Feld: Kindgerichtete Sprachvarietäten haben eine Lernerperspektive, bei ausgeprägten Demenzen ist bereits die reine Verständnissicherung prekär. Gemeinsam ist allen diesen Varietäten jedoch, dass sie die Asymmetrie der Gesprächssituation mitkodieren; mit Bezug auf die Kommunikation von Pflegepersonal mit Bewohner(inne)n von Altenheimen stellen Hummert/ Ryan (1996) heraus, dass es sich dabei um patronisierende Kommunikation handelt, die nicht unbedingt auf die tatsächlichen Kommunikationsbedürfnisse der älteren Menschen abgestimmt ist, sondern vielmehr auf einer stereotypen Wahrnehmung Älterer als inkompetent und abhängig basieren (Hummert/Ryan 1996: 149). Auch Leichte Sprache läuft Gefahr, dass sie die adressierten Personen in unangemessener Weise anspricht und dadurch stigmatisiert (Kap. 1.2).

    Die Überschneidungen von Xenolekten und Leichter Sprache seien nachfolgend mit Fergusons (1977) Ansatz erläutert. Ferguson (1977: 29 f., deutsche Terminologie nach Jakovidou 1993: 10 f.) unterscheidet vier Arten von Modifizierungsprozessen:

    Xenolekten und Leichter Sprache ist gemein, dass Perzipierbarkeit und Verständlichkeit ihre ersten Zielgrößen sind. Dazu greifen sie in die Standardsprache ein und reduzieren das dort zur Verfügung stehende Inventar. Zusätzlich wird die phonische bzw. visuelle Perzipierbarkeit erhöht. In beiden Fällen hat die Art der Adressierung das Potenzial, die Adressaten zu diskriminieren. Beide Varietäten sind für die Konstruktion einer Gruppenidentität nicht geeignet.

    Im Unterschied zu Xenolekten, die eine breite Ausfächerung aufweisen, ist Leichte Sprache jedoch durch ein umgrenztes Regelsystem bestimmt und damit als Varietät auch sprachlich viel genauer beschreibbar. Wegen des ausgesprochen heterogenen Adressatenkreises von Leichter Sprache zeichnet sich jedoch bereits ab, dass sich weitere vereinfachte Varietäten herausbilden werden (vgl. Magris/Ross 2015, Bock 2014; s. auch Kap. 14).

    1.1.2  Medialität/Medienspezifik

    Mit dem Kriterium der Medialität/Medienspezifik bezieht man sich auf den Umstand, dass nicht alle Varietäten in mündlicher und schriftlicher Ausprägung vorliegen. Das ist nur anders bei der Standardsprache, die sich auch in dieser Hinsicht als herausgehobene Varietät innerhalb des Varietätengefüges erweist. Nonstandardvarietäten sind in der Regel monomedial. Für Dialekte oder Soziolekte gibt es – bis auf eher folkloristische Fassungen einzelner Texte – keine produktiven schriftsprachlichen Ausprägungen. Leichte Sprache in Deutschland liegt dagegen derzeit nur in schriftlicher Form vor. Die vom Netzwerk Leichte Sprache offerierten „Regeln für Treffen und Tagungen" (BMAS 2013: 76 ff.) suggerieren zwar eine Verankerung in der Mündlichkeit, jedoch ist eine spontan-mündliche Sprachproduktion, die tatsächlich den Regeln der Leichten Sprache entspricht, nicht denkbar: Komplexe Informationen in derart reduzierter Form aufzubereiten erfordert einen hohen Planungsaufwand, weshalb Leichte Sprache in dieser Hinsicht der konzeptionellen Schriftlichkeit zuzuordnen ist.

    Der Begriff der konzeptionellen Schriftlichkeit ist eng mit Koch/Oesterreicher (1985) assoziiert. Die Autoren beschreiben konzeptionell mündlich verfasste Sprache als Sprache der Nähe, konzeptionell schriftlich verfasste Sprache als Sprache der Distanz. Dabei beziehen sie sich sowohl auf Unterschiede in den Kommunikationsbedingungen als auch auf Unterschiede in den Versprachlichungsstrategien:

    Tabelle 1: Sprache der Nähe – Sprache der Distanz; Darstellung nach Koch/Oesterreicher (1985)

    Die Sprache der Nähe, so Koch/Oesterreicher (1985: 25), weist einen „pragmatischen Modus auf, bei der Sprache der Distanz sprechen die Autoren von einem „syntaktischen Modus. Gemeint ist, dass es die Situationseingebundenheit der Sprache der Nähe erlaubt, situationsspezifische Informationen und Dynamiken für die Diskursstrukturierung zu nutzen; demgegenüber macht es die Situationsentbundenheit der Sprache der Distanz erforderlich, die Textstrukturierung über syntaktische Mittel einzuholen. Daraus ergibt sich die vergleichsweise höhere Informationsdichte, Kompaktheit, Integration, Komplexität und Elaboriertheit geschriebensprachlicher Texte.

    Leichte Sprache, die im Gegensatz zu den anderen Nonstandardvarietäten nur schriftlich vorkommt, steht nun vor einem gewissen Dilemma: In Bezug auf die Kommunikationsbedingungen ist Leichte Sprache eine Sprache der Distanz; sie erfordert auf Seiten der Produzent(inn)en, wie angesprochen, einen hohen Planungsaufwand, die Rezeption ist idealerweise situationsentbunden. Bei den Versprachlichungsstrategien dominieren jedoch Verfahren der Nähe (s. Kap. 13), denn gerade die hohe Komplexität, Informationsdichte und Elaboriertheit, die die Struktur der Sprache der Distanz wesentlich ausmachen, müssen in Leichter Sprache reduziert werden. Damit muss sich Leichte Sprache in Bezug auf die Versprachlichungsstrategien der Sprache der Nähe annähern. Der pragmatische Modus steht jedoch wegen der Situationsentbindung nicht in vollem Umfang zur Verfügung. Eine Annäherung an den pragmatischen Modus findet sich u. a. in den Adressierungsstrategien, wie sie z. B. in der Regel 2 der BITV-2.0-Regeln formuliert sind: „Die Leserinnen oder Leser sollten, soweit inhaltlich sinnvoll, persönlich angesprochen werden" (BITV 2.0 2011); in den Kapiteln 7 und 12 stellen wir weitere Adressierungsstrategien wie die Begleitung durch Leitfiguren, die Personifizierung und Polyphonie oder auch bestimmte Verfahren der Bildunterstützung vor.

    Durch solche Verfahren wird eine Brücke zur Sprache der Nähe geschlagen, so dass die Leichte-Sprache-Texte, obwohl medial schriftlich realisiert, eher nähesprachlich situiert sind. Weil damit aber kein weiterer Orientierungskontext für den pragmatischen Modus generiert wird, entstehen im Ergebnis Texte, die weder die Struktur der Sprache der Nähe noch die Struktur der Sprache der Distanz haben. Die syntaktische Komplexität ist reduziert, ohne dass Kontexthilfen in Anspruch genommen werden können, die ein durch syntaktische Einfachheit entstehendes Informationsdefizit beheben könnten.

    Das vorangehende Beispiel von der Homepage des Landesbildungszentrums für Hörgeschädigte (http://www.lbzh-hi.de/massschneider.ls.html; geprüft am 30. 10. 2015) zeigt, dass die notwendige Verbindung zwischen umfassender Information und struktureller Einfachheit eine gewisse strukturelle und informationelle Gleichförmigkeit erzeugt, die so weder in der Sprache der Distanz noch in der Sprache der Nähe vorkommt.

    1.1.3  Entstehung

    Sprachen und Varietäten entstehen normalerweise durch dauernden aktiven Gebrauch; als regulierende Instanzen gelten die Kommunikationsteilnehmer(innen), die aus den möglichen Formen eines Sprach- oder Varietätensystems diejenigen ausfiltern, die kommunikativ funktional, strukturhomogen mit bereits gefundenen Lösungen und ökonomisch sind. Durch dauernden Gebrauch entstehen so Strukturen, die die kommunikativen Bedürfnisse der Sprachgemeinschaft optimal erfüllen.

    So entstandene Sprachen werden natürliche Sprachen genannt, selbst wenn sie – wie die meisten Standardsprachen – auch Normierungen von außen erfahren können. Abzugrenzen von natürlichen Sprachen sind die Plansprachen. Schubert (2014: 209) weist darauf hin, dass sich zwischen diesen beiden Kategorien zahlreiche Zwischenstufen mit einem aufsteigenden Grad an sprachlicher Lenkung finden. Mit Moch (1897) unterscheidet er apriorische und aposteriorische Plansprachen, wobei es sich bei ersteren um die „so genannten philosophischen Sprachen mit frei erfundenen lexikalen Elementen" (Schubert 2014: 2010), bei letzteren um diejenigen Plansprachen handelt, die sprachliches Material aus dem Lexikon einer natürlichen Sprache entlehnen. In jedem Fall aber geht die Entstehungsgeschichte von Plansprachen auf einen bewussten, nicht interaktiv gesteuerten Konstruktionsakt zurück. Ein herausragendes Beispiel für eine aposteriorische Plansprache ist das Esperanto, dessen Grundlagen der russische Augenarzt Ludwik Lejzer Zamenhof 1887 publizierte. Nachdem das Lateinische als lingua franca im Europäischen Sprachraum ausgedient hatte und durch Nationalsprachlichkeit verdrängt worden war, versuchte Zamenhof mit dem Esperanto eine Sprache zur Verfügung zu stellen, die dem zersplitterten europäischen Sprachraum als universelles, leicht lernbares und national neutrales Kommunikationsinstrument zur Verfügung stehen sollte.

    Aposteriorischen Plansprachen ist gemeinsam, dass sie zwar auf existierende Sprachen, sogenannte Quellsprachen, zurückgreifen, jedoch eigene lexikalische und grammatische Mittel finden, die in sich widerspruchsfrei und architektonisch transparent sind. So ist etwa das Esperanto strikt agglutinierend: Alle grammatischen Informationen erhalten spezi fische, unverwechselbare Ausdrucksmittel, die nacheinander an Stämme angefügt werden. Wortarten werden durch gesonderte Affixe kenntlich gemacht, während der Stamm konstant gehalten wird (nombr-o = Zahl, nombr-i = zählen). Die grammatischen Kategorien sind reduziert (Zweikasussystem aus Nominativ und Akkusativ; Genitiv und Dativ werden analytisch ausgedrückt), die Syntax weist eine homogene Wortstellung auf (SVO).

    Leichte Sprache ist nicht im engeren Sinne eine Plansprache, da sie zum Diasystem einer anderen natürlichen Sprache – des Deutschen gehört. Auf Schuberts Skala der Sprachformen mit aufsteigendem Lenkungsgrad nimmt sie einen mittleren Platz ein. Im Gegensatz zu einer Plansprache ist sie weder in Bezug auf ihre Quellsprache(n) frei – ihre Bezugssprache ist die entsprechende Nationalsprache (hier das Deutsche) –, noch ist es möglich, eigene, von der entsprechenden Quellsprache nicht gedeckte Regeln zu implementieren.

    Für Texte in Leichter Sprache hat dies vielfältige Konsequenzen: Natürliche Sprachen sind nicht in derselben Weise nach einem Baukastenprinzip organisiert wie herkömmliche Plansprachen.

    So weist das Deutsche kein agglutinierendes, sondern ein flektierendes System auf. Viele Strukturen flektierender Systeme sind auf den ersten Blick irregulär und intransparent:

    Formfusion: manchmal werden verschiedene grammatische Informationen mit nur einem Morphem ausgedrückt (den Mensch-en – n-Marker = Plural und Dativ)

    Synkretismen: ein und dieselbe Form kann verschiedene Funktionen haben (das gute Kind kann Nominativ oder Akkusativ Singular sein)

    Suppletivformen: im selben Paradigma können Formverschiedenheiten auftreten (ist, sein, bin, sind)

    Kontextsensitivität: die Wahl der Flexive kann von der syntaktischen Umgebung abhängen (der grüne Tee, aber ein grüne-r Tee)

    Residualformen: Flexionsmuster aus älteren Sprachschichten können erhalten bleiben. In der Verbflexion stehen starke (geben – gab – gegeben) Verben der älteren Sprachschicht neben den für das heutige Deutsch regulären schwachen Verben (lachen – lachte – gelacht).

    Die Leichte Sprache kann hier keine Ausgleichsprozesse anstrengen, sondern muss die Varianz der Quellsprache in ihr Repertoire übernehmen. Für Nutzer(innen) von Leichter Sprache kann diese Varianz zu Leseerschwernissen führen; insbesondere dann, wenn ihnen die Quellsprache auch in ihrer mündlichen Fassung nicht zur Verfügung steht, wie dies etwa bei Gehörlosen der Fall ist. Im Kapitel zur Morphologie (Kap. 8) und zur Syntax (Kap. 10) werden wir Punkte wie diese erneut aufgreifen und zeigen, welche Strategien in Bezug auf die Bearbeitung morphologischer und syntaktischer Varianz zur Verfügung stehen, welche Kompromisse gefunden werden können und wo die Grenzen liegen. Es wird sich dort aber auch zeigen, dass die Struktur Leichter Sprache einige Analogien zur Struktur von herkömmlichen Plansprachen aufweist (etwa reduziertes Kasussystem, Wortstellung, Komplexitätsreduktion bei Einbettungsstrukturen).

    Der Vergleich zwischen einem deutschen Ausgangstext und seiner Übersetzung in Esperanto kann zeigen, was gemeint ist. Bei der Analyse der syntaktischen Struktur, der Wortstellung und der lexikalischen Ausdrücke des Beispieltextes ignorieren wir für einen Moment, dass die Nacherzählung des biblischen Quelltextes (Der Turmbau zu Babel) im deutschen Ausgangstext inhaltlich nicht korrekt ist. Es geht zunächst nur um die sprachlichen Strukturen:

    Analyse der syntaktischen Struktur

    Der Ausgangstext besteht aus einem Satz mit vierfacher Einbettung (HS = Hauptsatz; RS = Relativsatz, KS = Konjunktionalsatz), IS (Satz mit zu-Infinitiv):

    Der Esperantotext weist erheblich geringere Komplexität auf, auch wenn durch die Komma- statt Punktsetzung syntaktische Komplexität suggeriert wird. Es findet sich lediglich eine (einfache) Relativsatzeinbettung; die übrigen Sätze sind gereihte Hauptsätze:

    Die Analyse der Abfolge von Subjekt und Prädikat zeigt, dass der deutsche Ausgangstext mit der für das Deutsche typischen Inversionsstruktur arbeitet, bei der das Subjekt nicht im Vorfeld, sondern nach dem finiten Verb steht (Der biblischen Legende zufolge wurdefin im altertümlichen Babylon ein riesiger TurmSubj gebaut). Im Esperantotext steht das Subjekt stets vor dem Prädikat; die Sätze weisen eine regelhafte SVO-Struktur auf.

    Analyse der lexikalischen Ausdrücke

    Bei der Wahl der lexikalischen Ausdrücke greift das Esperanto auf semantische Prototypen zu (alt [malnova], groß [grandega]), der Ausgangstext auf die lexikalische Peripherie (altertümlich, riesig). Zusätzlich präferiert der Esperantotext einfache Ausdrücke, wo im Ausgangstext zusammengesetzte bzw. komplexe Ausdrücke stehen (Zusammensturz vs. kolapso; Männer und Frauen vs. homoj = Menschen).

    Eine Eigenschaft, die Ausgangs- und Esperantotext teilen, ist die Verwendung von Passivformen (bestraft wurden, verurteilt wurden; estis punataj, [estis] devigitaj), die es in Leichter Sprache nicht gibt (s. Kap. 8.1.2.1).

    Beim Versuch, den Ausgangstext in Leichte Sprache zu übersetzen, muss deshalb deutlich mehr geleistet werden als bei der Übersetzung in Esperanto. Der Versuch einer Übersetzung zeigt aber zugleich eine der Problemstellen des Ausgangstextes: Bei den Passivkonstruktionen ist das Subjekt der Bestrafung / der Verurteilung ausgespart. Der Leser / die Leserin des Ausgangstextes muss sich auf sein Weltwissen stützen. Der Übersetzer / die Übersetzerin muss zusätzliche Informationen einholen, die nur außerhalb des Ausgangstextes zu finden sind.

    Eine Übersetzung in Leichte Sprache könnte unter Einbezug der außerhalb des Ausgangstextes gewonnenen Informationen – zusammen mit den erforderlichen inhaltlichen Korrekturen – wie folgt aussehen:

    In der Bibel stehen viele Geschichten.

    Eine von den Bibel·geschichten erzählt von den Menschen in Babylon:

    Die Menschen in Babylon wollten einen sehr hohen Turm bauen.

    Die Menschen wollten zeigen:

    Wir sind stark.

    Wir gehören zusammen.

    Gott hat die Menschen dafür bestraft:

    Gott hat den Menschen verschiedene Sprachen gegeben.

    Die Menschen haben sich nicht mehr verstanden.

    Die Menschen konnten den Turm nicht fertig·bauen.

    Die syntaktische Struktur des Leichte-Sprache-Textes ist strikt reihend (keine Einbettung), die Wortfolge folgt bis auf den Einleitungssatz, der den thematischen Rahmen setzt (dazu ausführlicher Kap. 10), überall dem SV-Muster und die lexikalischen Ausdrücke weisen eine prototypische Semantik auf (s. Kap. 9). Die morphologischen Irregularitäten der Quellsprache Deutsch (hier etwa: Synkretismus Menschen, starke Flexion von verstehen/verstanden, Suppletivform sind) müssen jedoch erhalten bleiben.

    1.1.4  Kodifizierung/Normiertheit

    Das Kriterium Kodifizierung/Normiertheit macht Aussagen darüber, wie gut eine Varietät beschrieben ist (Kodifizierung) und wie verbindlich die herausgearbeiteten Regeln für die Sprachnutzer(innen) sind (Normiertheit). Auch hier nimmt die Standardvarietät eine Sonderrolle ein: Sie wird spätestens seit dem 18. Jh. kontinuierlich in Grammatiken und Wörterbüchern aufbereitet, die deutsche Orthografie wird seit 1901 verbindlich geregelt. Mit dem Institut für Deutsche Sprache Mannheim (IDS) unterhält die Gesellschaft eine wissenschaftliche Institution, die neben der Dokumentation des Deutschen die Aufgabe hat, Zweifelsfälle zu ermitteln und Lösungen auszuarbeiten (http://hypermedia.ids-mannheim.de/call/public/fragen.ansicht; geprüft am 30. 10. 2015). Die Kodifizierung und Normiertheit der Standardsprache ist auch deshalb hoch, weil mit ihr als allgemein verbindlicher Verkehrssprache zweifelsfreies Verstehen, maximale Explizitheit und hohe Reziprozität gesichert werden muss.

    Bei den Nonstandardvarietäten teilt sich das Bild: Natürliche Varietäten wie Dialekte oder Soziolekte weisen nur eine äußerst geringe Normiertheit/Kodifizierung auf. Für manche Dialekte liegen Wörterbücher und Grammatiken vor, deren Zweck jedoch nicht in der Normierung, sondern in der Bewahrung liegt. Auch Soziolekte wie die Jugendsprache sind teilweise beschrieben und in Wörterbüchern gesichert; eine von außen kommende Normierung von soziolektalem Sprechen gibt es aber ebensowenig wie eine von außen kommende Normierung von Dialekten.

    Plansprachen weisen gegenüber den natürlichen Nonstandardvarietäten eine starke Normiertheit auf. Zwar ist nicht alles, was eine Plansprache ausmacht, geregelt; so hatte etwa Zamenhof keine eigenen Wortstellungsregeln aufgestellt, sondern die Normalabfolge SVO (s. o.) mit musterbildenden Beispielen eingespielt. Dennoch sind Plansprachen in noch stärkerem Maße als die Standardsprache von Normen geprägt: Es handelt sich um Sprachen, die im Gegensatz zu natürlichen Sprachen noch vor ihrer Existenz kodifiziert und normiert sind – die also überhaupt erst durch eine Regulierung entstehen.

    Wie Plansprachen hat die Leichte Sprache gegenüber Standardvarietäten und insbesondere gegenüber den Nonstandardvarietäten einen höheren Regulierungsgrad, sie verbleibt jedoch innerhalb des Diasystems der deutschen Sprache und ist damit „eine durch planmäßige Regelsetzung in Wortschatz und Syntax reduzierte Variante" (Schubert 2014: 211) einer natürlichen Sprache. Das zeigt sich an den vorliegenden Regelwerken, insbesondere am Regelanhang in der Anlage der BITV 2.0 (2011), die Leichte Sprache in einen juristisch-administrativen Kontext einordnet (Hervorhebungen durch die Verfasserinnen, U.B., C.M.):

    Ein Vergleich mit der ebenfalls strikt regulierten (zuvor aber beschriebenen) Orthografie verdeutlicht den Unterschied der Regelformate, hier am Beispiel der Hauptregeln zur h-Grafie (§§ 6–8 der Amtlichen Regelung der deutschen Rechtschreibung 2006; Hervorhebung durch die Verfasserinnen, U.B., C.M.):

    Im Unterschied zu den Normen der Leichten Sprache, die Anweisungscharakter haben (sind zu vermeiden, sind zu verwenden etc.), ist das Format für die Orthografie deskriptiv, beschreibend (steht, wird eingefügt etc.). Die Matrix für die Leichte Sprache ist somit das Verhalten, das sie erzeugt, die Matrix für die Orthografie ist ein vorgängiges System, dessen Ausführungspraxis geregelt wird.

    Searle hat zur Beschreibung dieses Unterschieds das Begriffspaar konstitutive und regulative Regeln verwendet: „Regulative rules regulate a pre-existing activity, an activity whose existence is logically independent of the rules. Constitutive rules constitute (and also regulate) an activity the existence of which is logically dependent on the rules" (Searle 1969: 34). Regulative Regeln regulieren also bereits bestehende Verhaltensweisen oder Systeme, konstitutive Regeln erschaffen neue.

    Die Regeln der Leichten Sprache sind konstitutiv im Sinne Searles. Durch ihre Anwendung wird Leichte Sprache überhaupt erst erzeugt. Umso bedeutsamer ist es, dass diese konstitutiven Regeln so strukturiert sind, dass mit ihnen tatsächlich erzeugt wird, was sie intendieren. Wie groß die Abweichungen zwischen den Regeln und den bislang vorliegenden Texten in Leichter Sprache sind, zeigt Kuhlmann (2013) in einer vergleichenden Analyse von Regelwerken mit einem Korpus von 59 Leichte-Sprache-Texten.

    In Kapitel 3 werden wir die Profile der bisher existierenden, öffentlich zugänglichen Regelwerke herausarbeiten, die bislang eher eine lose Sammlung von (konstitutiven) Einzelregeln als die (regulative) Beschreibung eines Systems sind, wie wir in einer tabellarischen Synopse am Ende von Kapitel 3 zeigen werden.

    Ein bedeutsames Problem ist die häufig auftretende Verbots- statt Gebotsstruktur (s. o., „sind zu vermeiden"). Um zu einer Beschreibung der Leichten Sprache im regulativen Format zu gelangen, muss Leichte Sprache jedoch positiv spezifiziert sein. In Großkapitel II werden wir auf der Basis der vorliegenden Regeln die Mittel, die in Leichter Sprache zur Verfügung stehen, auch diejenigen, mit denen nicht lizenzierte Strukturen kompensiert werden können, herausarbeiten und ordnen. Im Ergebnis wird es möglich sein, die allgemeinen Gesetzmäßigkeiten der Leichten Sprache positiv zu spezifizieren und in ein regulatives Format zu bringen. Die tabellarische Synopse in Kapitel 13 zeigt diese Kippbewegung von der Norm zur Beschreibung.

    Mit dem regulativen Beschreibungsformat wird zugleich die defizitorientierte Sicht („sind zu vermeiden, „Verwenden Sie niemals …) aufgegeben und stattdessen eine ressourcenorientierte Perspektive eingenommen.

    1.1.5  Erwerbsbedingungen

    Varietäten können zusätzlich zu den bisher genannten Kriterien auf der Basis typischer Erwerbsszenarien unterschieden werden. Der wichtigste Unterschied ist hier der zwischen gesteuertem und ungesteuertem Erwerb. Von ungesteuertem Erwerb spricht man, wenn eine Sprache bzw. Varietät beiläufig, durch alltäglichen Gebrauch und weitgehend ohne regulierenden Eingriff von außen erworben wird; die Lernprogression folgt der natürlichen Erwerbslogik. Gesteuerte Erwerbsszenarien folgen demgegenüber einer von außen gesteuerten, curricularen Logik; die Sprache/Varietät wird für die Lerner(innen) in spezifischer Weise aufbereitet, im Gelingensfall wird das sprachliche Kenntnissystem auf der Basis der von einem Lehrprogramm intendierten Erwerbsfolge aufgebaut.

    Ein typisches Beispiel für ein gesteuertes Erwerbsszenario ist der Fremdsprachenerwerb in deutschen Schulen. Englisch wird in Deutschland nicht beiläufig, in einer englischsprachigen Umgebung erworben, sondern der Erwerb geschieht unterrichtlich gesteuert, in einer nicht englischsprachigen Umgebung. Ein typisches Beispiel für ein ungesteuertes Erwerbsszenario ist der Erwerb der Erstsprache, aber auch der Erwerb einer Zweitsprache; davon spricht man, wenn sich Lerner(innen) eine zweite Sprache in der Zielsprachenumgebung im Kontakt mit Zielsprachensprecher(inne)n aneignen.

    Die bislang besprochenen Varietäten unterscheiden sich in Bezug auf die Erwerbsszenarien erheblich: Die gesprochene Standardvarietät kann, wenn sie die Umgebungssprache ist, im ungesteuerten Erwerb als Erst- oder als Zweitsprache erworben werden. Demgegenüber ist die Aneignung des geschriebenen Standards auf gesteuerte Szenarien angewiesen. Diesem Umstand verdankt sich die Schulpflicht.

    Monomedial mündlich ausgeprägte Nonstandardvarietäten (Dialekte, Soziolekte, Umgangssprache) werden ausschließlich ungesteuert erworben.

    Wegen der Asymmetrie von Produktion und Rezeption müssen für die Rekonstruktion der Erwerbsbedingungen von Leichter Sprache zwei verschiedene Szenarien konturiert werden: Denn die Frage, wie man Leichte Sprache schreiben lernt, ist eine andere als die, wie man Leichte Sprache lesen lernt.

    Rezeptionserwerb

    Häufig wird ohne weitere Prüfung davon ausgegangen, dass Leichte Sprache allen Gesellschaftsmitgliedern barrierefreie Kommunikation gestattet. Jedoch ist auch die Rezeption von Texten in Leichter Sprache nicht voraussetzungslos. In den programmatischen Bestimmungen des Netzwerks Leichte Sprache (BMAS 2013: 121) heißt es:

    Die Voraussetzung für das Verstehen von Texten in Leichter Sprache sind also eine mindestens basale Lesefähigkeit und eine mindestens basale Kenntnis des Deutschen. Dabei sind diese Bedingungen nicht alternativ zueinander, sondern müssen zusammenkommen. Wir stehen hier vor einer ganz erheblichen Forschungsaufgabe. Denn bislang ist noch nicht hinreichend beschrieben, wie genau die Kenntnisstruktur beschaffen sein muss, damit die Rezeption von Leichter Sprache gelingt. Wir zeigen das am Beispiel des Analphabetismus sowie am Beispiel des Zweitspracherwerbs. Es ist anzunehmen, dass die Leser, die dem „Analphabetismus im engeren Sinn" zugerechnet werden (Grotlüschen/Riekmann 2011a: 2, s. auch Kap. 5.2), nicht über hinreichende Lesekompetenzen verfügen, um Leichte-Sprache-Texte zu rezipieren. Definierend für den Analphabetismus im engeren Sinn ist das Unterschreiten der Satzebene, d. h., „dass eine Person zwar einzelne Wörter lesend verstehen bzw. schreiben kann – nicht jedoch ganze Sätze. Zudem müssen die betroffenen Personen auch gebräuchliche Wörter Buchstabe für Buchstabe zusammensetzen." (Ebd.)

    Betroffen sind laut der Studie von Grotlüschen/Riekmann mehr als vier Prozent der erwerbsfähigen Bevölkerung.

    Bei den Lerner(inne)n des Deutschen als zweiter Sprache muss vermutet werden, dass das Lesen von Texten in Leichter Sprache frühestens dann gelingt, wenn das vom Gemeinsamen Europäischen Referenzrahmen (GER) definierte Niveau A1 erreicht ist, wobei im GER die Schriftlichkeit bei der Beschreibung der Niveaustufen A1, A2 und B1 ignoriert wurde, weshalb über die Lese- und Schreibfähigkeiten von Sprechern auf diesen Niveaus nur begrenzt Aussagen möglich sind:

    Kann vertraute, alltägliche Ausdrücke und ganz einfache Sätze verstehen und verwenden, die auf die Befriedigung konkreter Bedürfnisse zielen. Kann sich und andere vorstellen und anderen Leuten Fragen zu ihrer Person stellen – z. B. wo sie wohnen, was für Leute sie kennen oder was für Dinge sie haben – und kann auf Fragen dieser Art Antwort geben. Kann sich auf einfache Art verständigen, wenn die Gesprächspartnerinnen oder Gesprächspartner langsam und deutlich sprechen und bereit sind zu helfen (GER, Niveaustufe A 1)

    Für Nichtleser(innen) (Analphabetismus im engeren Sinn) und für Lerner(innen) des Deutschen, die noch keine hinreichenden Deutschkenntnisse erworben haben (< A1), ist vermutlich auch das Lesen und Verstehen von Texten in Leichter Sprache eine Erwerbsaufgabe.

    Die Chance, die Schrift- und die Sprachkompetenz über den gezielten Erwerb des Lesens von Texten in Leichter Sprache zu initiieren und von dort aus ggf. zu erweitern, wird jedoch, soweit wir sehen, noch nicht hinreichend genutzt.

    Bislang stehen kein Lehrwerk und kein bekanntes Programm für den Erwerb des Lesens von Texten in Leichter Sprache zur Verfügung. Im Zusammenhang mit Alphabetisierungsprogrammen sehen wir im Gegenteil in der Praxis einen teilweise lebhaften Widerstand gegen die Arbeit mit und an Texten in Leichter Sprache. Demgegenüber empfiehlt der Bundesverband Alphabetisierung in seiner Broschüre Funktionaler Analphabetismus – Ursachen und Lösungsansätze hier und anderswo (Nickel 2002) die Aufbereitung von Lesetexten in Alphabetisierungskursen, die dem Format der Leichten Sprache in vieler Hinsicht nahekommen (vgl. aber Löffler 2015).

    Dass es bislang keine Lehr-Lern-Programme gibt, deren Ziel die Aneignung von Texten in Leichter Sprache ist, und dass die Praktiker(innen) sich mit Leichte-Sprache-Texten schwertun, hat verschiedene Gründe, die teilweise auch in pädagogischen Traditionen zu suchen sind. Die wichtigsten davon tragen wir zusammen:

    Hier werden außerordentliche Chancen verspielt: Wie die Schrift als Ganze legen auch Texte in Leichter Sprache die Strukturen einer Sprache offen; das gilt vor allem für die morphologischen Markierungen, die in der gesprochenen Sprache häufig unhörbar bleiben, aber auch für die basalen syntaktischen Strukturen insgesamt.

    Wegen ihrer konstruierten Einfachheit bieten Texte in Leichter Sprache gegenüber anderen Texten strukturelle und lexikalische Basismuster des Deutschen an, deren regelmäßige Rezeption den Alphabetisierungsprozess und den Zweitspracherwerb erheblich voranbringen könnte: Die Gleichförmigkeit der angebotenen Muster gibt den Neuleser(inne)n und den Lerner(inne)n des Deutschen als zweite Sprache die Möglichkeit, über die Einzelkonstruktionen hinaus Generalisierungen über sprachliche Strukturen abzuleiten und selbständig wiederzuverwenden. Die Red undanz der Texte gestattet eine flexible Zugriffsstruktur, die Prototypik der lexikalischen Ausdrücke erlaubt den Aufbau eines funktionierenden Basiswortschatzes.

    Um diese Chancen optimal nutzen zu können, wäre ein gesteuertes Szenario erforderlich, das sich zum Ziel setzt, die Lesefähigkeit von Texten in Leichter Sprache schrittweise aufzubauen. Für einige Lerner(innen) wäre Leichte Sprache dann die Zielvarietät, für andere wäre sie zugleich eine Lernvarietät für den Ausbau der Vollverschriftung, Leichte Sprache hätte in didaktischer Perspektive dann Scaffolding-Funktion, wäre also ein Gerüst, das ein Weiterlernen erlaubt. In der Didaktik spricht man auch von transitorischen Normen, das sind Vorgaben, die einen Zwischenstand auf dem Weg zu einer voll ausgebauten Kompetenz beschreiben.

    In diesem Zusammenhang würden dann auch die gestuften Leichtigkeitsstrukturen, wie sie mit der Methode Capito bereits auf den Weg gebracht sind (s. 5.2.1), von Bedeutung. Ein ähnliches Modell vertritt Bock (2015). So könnte verschiedenen Lerner(inne)n ein an ihren Lernstand angepasstes Angebot gemacht werden. Wir greifen den Gedanken systematisch abgestufter Verständlichkeitsgrade des Deutschen im letzten Kapitel (Kap. 14) des Buchs wieder auf.

    Produktionserwerb

    Die Übersetzung von Texten in Leichte Sprache ist nur auf den ersten Blick leicht und die vorliegenden Regelformate suggerieren, dass diese Übersetzungspraxis quasi voraussetzungslos ist. So heißt es in den Netzwerk-Regeln (BMAS 2013: 28):

    Die Erläuterung des Begriffs „Verb sowie der Gebrauch des schulnahen Terminus „Hauptwort legen es nahe, dass man den Übersetzungsvorgang auch Personen zutraut, die weder den Verbbegriff noch den Begriff des Substantivs kennen.

    Hier zeigt sich eine erhebliche Problematik der Regelformulierung des Netzwerks: Sie sind in ihrer Form auf die Rezipient(inn)en, nicht auf die Produzent(inn)en zugeschnitten, also selbst in Leichter Sprache formuliert. Damit wird eine Interaktionssymmetrie vorgetäuscht, die gerade nicht vorliegt. Zusätzlich wird genau dadurch potenziellen Produzent(inn)en nahegelegt, Leichte Sprache sei nicht nur leicht zu rezipieren, sondern auch leicht zu produzieren.

    Auch hier werden erhebliche Chancen vergeben. Nicht nur sind die Regeln selbst nicht hinreichend präzise für die Erstellung von Texten in Leichter Sprache. Zusätzlich verstellt dieser Zuschnitt die Einsicht in das Erfordernis der Professionalisierung von Übersetzer(inne)n für Leichte-Sprache-Texte.

    Die bislang entstandenen und entstehenden Texte werden überwiegend von Laien und eher intuitiv als kategoriengeleitet erstellt; die Ergebnisse weisen entsprechend unterschiedliche Güte auf. Besonders problematisch ist, dass die Qualität der Zieltexte vom Zufall abhängt, d. h. davon, ob der/ die Übersetzer(in) über eine gute Intuition verfügt oder nicht.

    Eine Professionalisierung ist nur in einem gesteuerten Szenario möglich. Hier wäre – analog zu anderen Ausbildungsgängen von Übersetzer(inne)n – mindestens Folgendes zu leisten:

    In Bezug auf die Ausgangstexte müssen grundlegende Verfahren der Textanalyse erworben werden, um Probleme und Potentiale des Ausgangstexts zu ermitteln.

    Der Text muss als Vertreter einer Textsorte aufgefasst und in Bezug auf die in ihm enthaltenen Schwierigkeiten auf morphologischer, lexikalischer, semantischer, syntaktischer und textueller Ebene durchleuchtet werden.

    Angehende Übersetzer(innen) müssen ein Bewusstsein über den Status von Ausgangs- und Zieltext haben – so verlieren etwa Rechtstexte bei einer Übersetzung in Leichte Sprache ihre Justiziabilität, d. h. sie können nicht belastbare Grundlage für juristische Auseinandersetzungen sein.

    Übersetzer(innen) müssen die nötigen übersetzerischen Hilfsmittel (Wörterbücher – analog und digital; Datenbanken – Verwendung, Erstellung und Pflege; Translation Memory etc.) einbinden können und die Abläufe in Übersetzungsprojekten kennen (Kontakt und Zusammenarbeit mit dem Auftraggeber, Vieraugenprinzip, interne Korrektur, Zielgruppenkorrektur etc.) (s. Kap. 6).

    Übersetzungsregeln vom Typ „Verwenden Sie Verben. Verben sind Tu-Wörter. Vermeiden Sie Haupt-Wörter" werden diesem professionellen Anspruch erkennbar nicht gerecht.

    1.2  Sprachbewertung: Leichte Sprache als Provokation und Stigma

    1.2.1  Leichte Sprache als Provokation

    Leichte Sprache war in den vergangenen Jahren in der Presse wie auch auf unterschiedlichen Web-Plattformen öffentlicher Kritik ausgesetzt. Leichte Sprache wird einerseits als dysfunktional dargestellt, andererseits sieht man in ihr ein Zeichen des Sprachverfalls (Bock 2015: 10). Sie wird von den Lesern häufig als „restringierter Code sowie „als abweichend von mit hohem Prestige verknüpften Sprachformen wahrgenommen und verstößt gegen ein „gewisses normatives Bildungs- und Sprachideal, das der Wertung zugrunde liegt und das verteidigt werden soll" (ebd.).

    Diese Wahrnehmung der Leichten Sprache ist ernst zu nehmen: In ihrer Privilegierung von Perzeptibilität und Verständlichkeit verstößt Leichte Sprache gegen etablierte Normen und Konventionen konzeptueller Schriftlichkeit. Die Regeln der Leichten Sprache beeinträchtigen sprachliche Ebenen und Aspekte, die zunächst einmal nicht direkt mit der Verständlichkeit zu tun haben: Reichtum der Register und Stile, Prägnanz und Kürze, Vielfalt der Textsorten. Einige ihrer Regeln wie der Verzicht auf pronominale Anaphern oder auf Nebensätze aller Art widersprechen dem Sprachgefühl der Leser und greifen tief in die Ästhetik der Texte ein. Auch pragmatische Aspekte wie Höflichkeit, Hedging oder Expressivität sind betroffen. Die Regeln der Leichten Sprache führen zu einer Uniformität der sprachlichen Mittel, die potenziell ein gewisses Stigma für Leichte Sprache insgesamt darstellt. In ihrer Redundanz und Explizitheit verstoßen Leichte-Sprache-Texte in der Wahrnehmung durchschnittlicher Leser(innen) permanent gegen die Grice’sche Konversationsmaxime der Quantität:

    Mache deinen Gesprächsbeitrag mindestens so informativ, wie es für den anerkannten Zweck des Gesprächs nötig ist. Mache deinen Beitrag nicht informativer, als es für den anerkannten Zweck des Gesprächs nötig ist. (Grice 1975: 45, dt. Übersetzung in Meggle 1993)

    Ein mittlerer Grad von Informativität – also Texte, die explizit genug, aber eben auch nicht zu explizit sind – entspricht dem Default (De Beaugrande/ Dressler 1981: 168) für Standardtexte; Leichte-Sprache-Texte sind in ihrer Explizitheit und durch die charakteristische Fülle an Erläuterungen auch hier gegenüber dem Standard auffällig.

    Leichte Sprache wirkt darum für viele Leser als Provokation, auf die sie mit Abwehr reagieren. Dies umso stärker, wenn sie als Vorschlag für eine neue standarddeutsche Norm missverstanden wird. Das provoziert bei den Lesern jenseits der primären Adressatenschaft verachtende Vorurteile im Sinne der sozialpsychologischen Stereotypforschung. Wir beziehen uns hier auf den Ansatz von Fiske/Cuddy/Glinck/Xu (2002), in dem die Autoren Stereotypen klassifizieren und dabei zwei Dimensionen (Wärme und Kompetenz) sowie zwei Variablen (Status und Konkurrenz) als leitend herausarbeiten. Gemäß den Ausführungen der Autor(inn)en werden anderen Gruppen je nach Ausprägung der Variablen „Status und „Konkurrenz auf stereotype Weise die Eigenschaften der beiden Dimensionen zugeschrieben, was wiederum zu bestimmten Formen von Vorurteilen führt: „Groups (like individuals) are distinguished according to their potential impact on the in-group (or the self) (Fiske/Cuddy/Glinck/Xu 2002: 879). Wird eine Gruppe beispielsweise als hierarchieniedriger eingestuft (Status), jedoch nicht als Konkurrenz für die eigene Position empfunden, so wird sie üblicherweise als warm(herzig), aber inkompetent eingeschätzt, was gemäß Fiske/Cuddy/Glinck/Xu (2002: 880) regelmäßig zu paternalistischem Vorurteil führt. Als Beispielgruppen werden ältere Menschen oder auch Menschen mit Behinderung genannt. Anders sieht es aus, wenn eine als hierarchieniedriger eingeschätzte Gruppe als Konkurrenz angesehen wird: Eine solche Gruppe wird üblicherweise als inkompetent sowie kalt bzw. anmaßend oder undankbar konzeptualisiert und mit einem verachtenden Vorurteil belegt; die Autor(inn)en nennen hier als Beispiel u. a. Sozialhilfeempfänger, die dann als Sozialschmarotzer konzeptualisiert würden, die gewissenlos (= mangelnde Wärme) Steuergelder verbrauchen, da sie nicht in der Lage sind (= mangelnde Kompetenz), sich selbst zu ernähren. Typische Gefühle diesen Gruppen gegenüber sind dann Verachtung, Abscheu, Zorn und Ressentiment: „Pity targets the warm but not competent subordinates; envy targets the competent but not warm competitors; contempt is reserved for out-groups deemed neither warm nor competent (Fiske/Cuddy/Glinck/Xu 2002: 879). Die nachfolgende Tabelle zeigt die möglichen Ausprägungen der Stereotype und Vorurteile, wobei zu beachten ist, dass die Beispiele dem amerikanischen Gesellschaftssystem entstammen und in ihrer Kulturgebundenheit nur bedingt auf deutsche Verhältnisse übertragbar sind. So ist in einem Land mit einer staatlichen Vorsorge für Alter, Krankheit und soziale Bedürftigkeit möglicherweise keine so klare kategoriale Ausdifferenzierung der Vorurteile in diesem Bereich gegeben wie in einem Land, in dem ein Teil dieser Risiken privat getragen, während ein anderer Teil aus Steuergeldern bestritten wird. Da es uns um die Kategorien selbst geht, zitieren wir dennoch die Übersicht von Fiske/Cuddy/Glick/Xu (2002):

    Tabelle 2: Vier Arten von Out-Groups, Kombination von Status und Konkurrenz und entsprechende Formen von Vorurteilen als Funktion der Dimensionen Wärme und Kompetenz (Fiske/Cuddy/Glinck/Xu 2002: 881)

    Kommunikation in Leichter Sprache ist, wie wir bereits ausgeführt haben, asymmetrisch und enthält mithin die Zuschreibung als statusniedrig. Wird sie nun von den Protagonisten der Leichte-Sprache-Bewegung als „neuer Standard proklamiert, so wird sie als Konkurrenz zur Standard- und Bildungssprache wahrgenommen und mit verachtender Geste abgewehrt. Insbesondere von Seiten des Netzwerks Leichte Sprache wird der Anspruch, Leichte Sprache solle in die Domänen des Standards hinein generalisiert werden, teilweise offensiv vertreten. Im Februar 2014 richtete das Netzwerk Leichte Sprache beispielsweise ein Schreiben an Professor(inn)en deutscher Universitäten, reklamierte die bestehenden Regeln für sich („wir haben die Regeln für Leichte Sprache gemacht) und forderte die Wissenschaftler(innen) zu einer Einbeziehung von Personen mit geistiger Behinderung in ihre Forschung zu Leichter Sprache auf:

    Wichtig ist:

    Bei der Leichten Sprache müssen immer Menschen

    mit Lern-Schwierigkeiten mitmachen.

    Sie sind die Fach-Leute für das Verstehen. […]

    Deshalb bitten wir Sie:

    Bitte forschen Sie inklusiv über Leichte Sprache.

    Inklusiv bedeutet, [sic]

    Menschen mit und ohne Behinderung arbeiten zusammen.

    Dieses Schreiben ist ausschließlich in Leichter Sprache verfasst; zentrale diskursive Konzepte („inklusiv") werden gemäß den Regularien Leichter Sprache erläutert, was im gegebenen Kontext der Adressierung an Forschende unangemessen erscheint. Der ohnehin höchst problematische Anspruch, alle Leichte-Sprache-Texte müssten eine Zielgruppenprüfung (s. Kap. 3 und Kap. 5) durchlaufen, wird hier noch dahingehend generalisiert, dass das Netzwerk um ein Mitspracherecht bei der Erforschung der Leichten Sprache nachsucht. Derlei Aktivitäten führen dazu, dass das Netzwerk Leichte Sprache nicht als Instanz wahrgenommen wird, die Leichte Sprache als Zusatzangebot einführen möchte, sondern die darauf hinwirkt, dass Leichte Sprache ausgangssprachliche (und diaphasisch wie diastratisch angemessene) Kommunikation ersetzen soll. Einem solchen Ansinnen wird dann entsprechend abwehrend begegnet.

    Ein ausgeprägtes Beispiel für die Abwehr dieses Anspruchs zeigt sich im Interview der Neuen Zürcher Zeitung mit dem Bildungsforscher Rainer Bremer vom 8. September 2014, das den bezeichnenden Titel „Schlimmer als Realsatire. Der Bildungsexperte Rainer Bremer kritisiert die „Leichte Sprache als bildungsfeindlich und befürchtet eine Abwertung der sprachlichen Bildung trägt. Bremer nimmt Leichte Sprache als Angriff auf die Bildungssysteme wahr und begegnet den Protagonisten der Leichte-Sprache-Bewegung mit dem abwertenden Vorurteil, sie würden sich an den Übersetzungen bereichern (http://www.nzz.ch/wissenschaft/bildung/schlimmer-als-realsatire-1.18378993; geprüft am 30. 10. 2015):

    Frage des Reporters: Führen solche Angebote also zur Abwertung der Sprache?

    Antwort Bremer: Dahinter verbirgt sich natürlich ein Klientelismus. Es gibt Leute, die schlagen sich auf die Seite der Benachteiligten und wollen damit eigentlich nur ein Geschäft betreiben. Indem sie gegen Geld eine sogenannte Dienstleistung erbringen, die im besten Fall zu einer Verfälschung führt.

    Dabei ist zu konstatieren, dass viele Leichte-Sprache-Texte aktuell tatsächlich kein zufriedenstellendes Niveau erreichen. Zu Recht wird in Blogs und im Feuilleton immer wieder auf schlechte Textbeispiele verwiesen. Jan-Philipp Hein kritisiert beispielsweise in seinem Blog-Beitrag im Online-Auftritt der Schweriner Volkszeitung vom 18. April 2015 die Umsetzung der Wahlinformation anlässlich der Bremischen Bürgerschaftswahl im Mai 2015, die an alle Wähler(innen) (ausschließlich) in Leichter Sprache zugänglich gemacht wurde. Er zitiert aus den Wahlunterlagen:

    Guten Tag, am 10. Mai 2015 ist die Wahl von der Bremischen Bürgerschaft. Und die Wahl vom Beirat. In diesem Brief sind zwei Hefte. Die Hefte sind Muster-Stimm-Zettel. Das weiße Heft ist für die Wahl von der Bürgerschaft. Das gelbe Heft ist für die Wahl von dem Beirat. […]

    Dann kommentiert er:

    In diesem Duktus werden derzeit alle Insassen Bremens auf

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1