Byte-Reihenfolge

Die Byte-Reihenfolge (englisch byte order oder endianness) bezeichnet in der Computertechnik die Speicherorganisation für einfache Zahlenwerte, in erster Linie die Ablage ganzzahliger Werte (Integer) im Arbeitsspeicher.

Die ersten Rechnerarchitekturen haben die Darstellung mehrstelliger Zahlen aus dem Alltag entsprechend der Konvention des Stellenwertsystems übernommen, zunächst für dezimal, dann auch für binär dargestellte Zahlen. In dieser Konvention beginnt die Notation einer Zahl mit der Ziffer an der höchstwertigen Stelle. Addition, Subtraktion und Multiplikation beginnen aber mit der niedrigstwertigen Ziffer, der Einerstelle.

Solange man innerhalb ähnlicher Rechnerarchitekturen blieb, musste man sich nicht um die Endianness kümmern, sie entsprach ja der gewohnten. Da die genannten drei mathematischen Grundfunktionen jedoch einen Maschinenzyklus früher starten können, wenn man die Bitreihenfolge umkehrt, haben in der Folge einige Hersteller ein entsprechendes Architekturprinzip erstellt. Das heißt: die Einerstelle wird an die Anfangsadresse gelegt, und die 3 genannten Algorithmen schreiten nach rechts in die höheren Stellen und Adressen fort. Diese Abweichung vom Gewohnten machte die Begriffsbildung Endianness erforderlich:

Die Begriffe big-endian und little-endian bezeichnen also dasjenige Ende der Darstellung, das an erster Stelle notiert bzw. an der kleinsten Adresse gespeichert wird. Da letztere Adresse auch in aller Regel das ganze (mehrstellige) Feld adressiert, wären die Bezeichnungen „Big-Startian“ und „Little-Startian“ noch treffender, weil das Feld an der betrachteten Stelle nicht endet, sondern startet.

Im Sprachgebrauch werden die beiden Varianten in der Computertechnik oft auch nach den Herstellern von Mikroprozessoren benannt, die die jeweilige Variante in mehreren Prozessorfamilien verwenden bzw. verwendet haben: „Motorola-Format“ steht für big-endian, „Intel-Format“ für little-endian.

Werden Daten bitweise seriell übertragen, so ist zusätzlich die Bit-Reihenfolge festzulegen. Logisch erscheint

Bisweilen sieht man jedoch auch umgekehrte Zuordnungen, etwa bei Bildwiederholspeichern.

Vereinbarungen

Folgende Aussagen, über die in der Literatur hochgradiger Konsens besteht, seien als Ausgangsbasis für die Diskussion und Definition der Sachverhalte explizit gemacht:

Steigt bei einer im Speicher abgelegten Zahl die Wertigkeit einer Stelle mit der wachsenden Adresse, dann ist sie im Little-Endian-Format dargestellt.

Fällt bei einer im Speicher abgelegten Zahl die Wertigkeit einer Stelle mit der wachsenden Adresse, dann ist sie im Big-Endian-Format dargestellt.

Wird bei einem Computersystem eines dieser beiden Formate für die Speicherung numerischer [2] Felder durchgehalten, so wird das erste als Little-Endian-, das zweite als Big-Endian-System bezeichnet.

Beispiel: Speicherung einer 32 Bit-Ganzzahl in 4 Bytes

Adresse Big
Endian
Mixed
Endian
Little
Endian
10000 01 02 04
10001 02 01 03
10002 03 04 02
10003 04 03 01

Im Beispiel wird die Ganzzahl 16.909.060 als 32-Bit-Integer-Wert gespeichert (hexadezimal: 01020304h). Die Speicherung erfolgt in 4 Bytes ab einer angenommenen Speicheradresse von 10000:

Einige ältere Systeme (z.B. PDP-11) speichern die Bytes auch in der Reihenfolge 02 01 04 03 = 02h01h04h03h (aber nicht als 03 04 01 02 = 03h04h01h02h). Dies wird als mixed-endian oder auch middle-endian bezeichnet.

Einige Systeme speichern sowohl big-endian als auch little-endian, was als bi-endian bezeichnet wird.

Reihenfolge der Ziffern innerhalb von Zahlen in der Sprache

Auch die gewöhnliche Darstellung von (Dezimal-)Zahlen ist – im Sinne der Leserichtung der meisten europäischen Sprachen von links nach rechts – big-endian. Dies kommt dadurch zustande, dass die Ziffernreihenfolge der indisch-arabischen Zahlen bei den Schriften Mitteleuropas beibehalten wurde. Im Arabischen, das sich von rechts nach links liest, werden die Zahlen gleich geschrieben, d.h. für Zahlen unter 100 werden sie als „little-endian“ gelesen (für Zahlen ab 100 werden sie „big-endian“ gelesen). Auch im Deutschen werden die Zahlen von 13 bis 99 little-endian ausgesprochen: „Ein-und-Zwanzig“; die Eins als weniger wertige Stelle wird zuerst gesprochen (diese Reihenfolge gibt es auch in anderen Sprachen).

Ein Beispiel für Dezimalzahlen: In der gebräuchlichsten Darstellung (big-endian) wird die Dezimalzahl Eintausend-zweihundert-dreißig dargestellt als „1230“, wobei die „1“ die Wertigkeit 1000 hat, die „2“ die Wertigkeit 100 und die „3“ die Wertigkeit 10. In der „Little-Endian“-Darstellung ist es umgekehrt, so dass die Darstellung der Zahl „0321“ wäre (ausgesprochen vielleicht „Dreißig-Zweihundert-Eintausend“).

Kontexte des Byte-Reihenfolge-Problems

Das Problem der Byte-Reihenfolge betrifft solche Datentypen, die aus mehreren Byte zusammengesetzt sind und vom jeweiligen Prozessor direkt unterstützt werden, also hauptsächlich Ganzzahl- und Gleitkommatypen, sowie Datentypen, die vom Prozessor effektiv als solche interne Datentypen behandelt werden, z.B. UTF-16.

Um dieses Problem bei Unicode-Zeichen zu umgehen, wird oft eine Bytereihenfolge-Markierung (BOM) benutzt. In einem Hex-Editor sieht ein Text folgendermaßen aus:

00 44 00 69 00 65 | D i e| BOM 00 44 = FE FF am Dateianfang \Rightarrow  UTF-16 Big Endian / UCS-2BE
44 00 69 00 65 00 |D i e | BOM 44 00 = FF FE am Dateianfang \Rightarrow  UTF-16 Little Endian / UCS-2LE

Plattformübergreifende Darstellung von Zahlen

Um einen fehlerfreien Datenaustausch zwischen Computern verschiedener Plattformen zu ermöglichen, ist bei Netzwerkprotokollen immer die Byte-Reihenfolge festgeschrieben. Diese wird als „Network Byte Order“ bezeichnet. Die natürliche Byte-Reihenfolge des Systems wird demgegenüber als „Host Byte Order“ bezeichnet. Arbeitet das System nicht mit dieser Byte-Reihenfolge, so muss diese im Netzwerktreiber beziehungsweise zum Teil im Anwendungsprogramm entsprechend umgewandelt werden.

Im Falle des heute vornehmlich verbreiteten Internetprotokoll-Satzes entspricht die Network Byte Order dem Big-Endian-Format. Es existieren jedoch noch immer Protokolle, die eine andere Byte-Reihenfolge verwenden. Darüber hinaus gibt es Datentypen, die nicht oder nicht nur durch die Endianness charakterisiert sind, wie z.B. Gleitkommazahlen, bei deren Umwandlung auch Genauigkeitsverluste möglich sind.

In der auf den meisten Betriebssystemen angebotenen BSD-IP-Socket-API existieren zur Umwandlung der Byte-Reihenfolge sechs Funktionen:

Datentyp (Wortbreite) Umwandlung
Host-to-network Network-to-host
double (64 bit) htond() ntohd()
long (32 bit) htonl() ntohl()
short (16 bit) htons() ntohs()

Die korrekte Umwandlung ist garantiert für vorzeichenlose Ganzzahlen. Negative Ganzzahlen werden korrekt umgewandelt, wenn sie im Zweierkomplement dargestellt sind und die Bitbreite übereinstimmt.

Auf Big-Endian-Maschinen sind diese Funktionen trivial, da Host- und Network-Byteorder identisch sind.

Für Programmierer von Netzwerkanwendungen empfiehlt sich die Verwendung dieser Funktionen, da sich der Quellcode dadurch auch auf andere Systeme übertragen lässt.

Die Auswahl der zur laufenden Hardware passenden Implementierung geschieht normalerweise implizit durch das Betriebssystem – im Notfall auch durch den Benutzer beim Download.

Der Endianness-Typ einer Maschine lässt sich programmtechnisch wie folgt feststellen:

 union {
   uint16_t sixteenBits;
   uint8_t twoBytes[2];
 } test_endianness;

 test_endianness.sixteenBits = 1 << 15; // 0x8000, 32768
 if (test_endianness.twoBytes[0] != 0) {
    // Das Programm läuft auf einer Big-Endian-Maschine.
 }
 else {
    // Das Programm läuft auf einer Little-Endian-Maschine.
 }

In der BitConverter-Klasse des .NET Framework gibt es das Feld IsLittleEndian, das den Endianness-Typ (der laufenden Hardware) abzufragen gestattet.

Byte-Order-Probleme können auch beim Austausch von Dateien sowie zum Teil beim Austausch von Datenträgern zwischen verschiedenen Plattformen auftreten. Hier muss entweder durch eindeutige Definition des entsprechenden Dateiformats beziehungsweise Dateisystems oder durch einen Kompatibilitätsmodus, der während des Ladens eine Erkennung und eventuelle Umwandlung durchführt, Abhilfe geschaffen werden.

Die Problematik der Darstellung von Daten auf unterschiedlichen Systemen und ihres Austauschs wird ganz allgemein adressiert von der Darstellungsschicht des OSI-Modells.

„Nuxi“

Scherzhaft wird das Problem verschiedener Endianness unterschiedlicher Architekturen auch oft als NUXI-Problem bezeichnet: Wenn das Wort UNIX in zwei Zwei-Byte-Words (zwei 16-Bit-Register für „UN“ und „IX“) gespeichert wird, liegt es in einem Big-Endian-System als „UNIX“ im Speicher, in einem Little-Endian-System dagegen wegen der Vertauschung der Bytes in jedem Wort als „NUXI“ (auf 32-Bit Systemen stünde dagegen „XINU“ in einem einzelnen 32-Bit-Register).

Wichtige Eigenschaften

Bei den ersten Mikroprozessoren waren dies nur 4 Bit (später dann lange Zeit 8 Bit). Der Adressbus ist aber bei diesen CPUs wesentlich breiter. Damit ergab sich die Notwendigkeit, Daten mit einem Befehl zu laden oder zu speichern, welche auf mindestens zwei gekoppelte Register verteilt waren. Um die Komplexität der CPU zu verringern (jede einzelne Transistorfunktion war noch teuer) war es einfacher, bei jeder Operation automatisch das niederwertige „Datenhäppchen“ zu laden, während dieser Speicheroperation konnte dann der Befehl weiter dekodiert und gegebenenfalls die weiteren Daten im nächsten Zyklus bearbeitet werden. Bei Großrechnern („main frames“) bestand dieses Problem weniger, da sie damals schon mit Datenbus-Breiten von 16 bis 48 Bit arbeiteten, diese also in einem einzigen Speicherzyklus laden konnten und somit die (Byte)-Reihenfolge keine Rolle spielte.

Big-Endian-Format

  1. Da die Maschineninstruktionen die Operanden bei ihrer kleinsten Adresse ansprechen, muss bei Operationen, deren Algorithmus an der kleinstwertigen Stelle beginnt, auf diese durch eine Erhöhung der Anfangsadresse um die Operandenlänge–1 positioniert werden. Somit ist Addieren, Subtrahieren und Multiplizieren geringfügig aufwendiger.
  2. Dividieren und Vergleichen beginnen dagegen beim höchstwertigen Byte, sind deshalb marginal einfacher.
  3. Dieselben Vergleichsoperationen können zum Vergleichen von (vorzeichenlosen) Big-Endian-Zahlen wie von kurzen Texten (2, 4 oder 8 Byte lang) genommen werden, da beide lexikographisch sortiert werden.
  4. Zum Vergleichen von Zeichenketten gibt es beim Großrechnersystem IBM/370 den Maschinenbefehl CLCL (Compare Logical Character Long) mit zwei (verschieden und beliebig) langen Speicheroperanden, der die lexikographische Ordnung implementiert.[3]
  5. Im Big-Endian-Format sind Hexdumps von Zahlen leichter lesbar, da die Reihenfolge der Ziffern die gleiche ist wie in der üblichen Schreibweise des Stellenwertsystems.

Little-Endian-Format

  1. Da die Maschineninstruktionen die Operanden bei ihrer kleinsten Adresse ansprechen, entfällt bei Operationen, deren Algorithmus an der kleinstwertigen Stelle beginnt, so bei Addition, Subtraktion und Multiplikation, das initiale Inkrementieren mit der Operandenlänge. Diese Operationen sind somit geringfügig einfacher in der Hardware zu implementieren.
  2. Um auf einer Little-Endian-Maschine eine Zwei-Byte-Zahl in eine Vier-Byte-Zahl zu verwandeln, müssen lediglich zwei mit Null gefüllte Bytes am Ende angefügt werden, ohne dass sich die Speicheradresse ändert. Auf einer Big-Endian-Maschine muss der Wert zuvor im Speicher um zwei Bytes verschoben werden. Auch die umgekehrte Umwandlung gestaltet sich einfacher. Auf einer Little-Endian-Maschine werden einfach die höherwertigen Byte verworfen, ohne dass sich die Speicheradresse ändert.
  3. Dagegen ist die Implementierung von Operationen wie der Division, deren Algorithmus an der höchstwertigen Stelle beginnt, marginal aufwendiger.
  4. Maschinenbefehle für das lexikographische Vergleichen von langen Texten fehlen bei manchen Maschinen und müssen durch Unterprogramme, wie memcmp(), ersetzt werden.

Beispiel für eine dezimale Little-Endian-Addition:

   717
 + 0452
   ----
   7523
   ====

(Probe: 717+2540=3257)

Beispiel: Interpretation eines Hexdumps

Der Zweck eines Dumps ist die eindeutige Darstellung des Speicherinhalts bspw. zur Fehleranalyse. Bei Maschinen, deren Speicherstelle (Byte) aus 8 Bits besteht, wird hierfür die Darstellung im Hexadezimalsystem gewählt, bei dem die 28 = 256 = 162 verschiedenen Inhalte eines Bytes in 2 Hexadezimalziffern ausgedrückt werden. Dieser Codierung, die sowohl Binärwerte wie Maschineninstruktionen wie Dezimalwerte im BCD-Code unmittelbar abdeckt, wird üblicherweise eine Spalte beigegeben, die jedes einzelne Byte sofern möglich als alphabetisches Zeichen darstellt, so dass eventuell im Speicher vorhandene Texte leichter erkannt und lesbar werden.

Das folgende Beispiel zeigt, wie zwei aufeinander folgende Bytes (4 Halbbytes) in einem Hexdump mit dem lesbaren hexadezimalen Inhalt a732 zu interpretieren sind.

  Hexdump 2 vorzeichenlose 8-Bit-Binärzahlen 1 vorzeichenlose 16-Bit-Binärzahl
  Bytes Text Byte0: Bits hex dez Byte1: Bits hex dez Bits hex dez
Offset 0 1   0123 4567   0123 4567   0123 4567 89ab cdef  
lesbar a7 32 §2  
  big-endian
interne Bitfolge 1010 0111   0011 0010   1010 0111 0011 0010  
Interpretation 1010 01112 a7h 16710 0011 00102 32h 5010 1010 0111 0011 00102 a732h 4280210
  little-endian
interne Bitfolge 1110 0101   0100 1100   1110 0101 0100 1100  
Interpretation 1010 01112 a7h 16710 0011 00102 32h 5010 0011 0010 1010 01112 32a7h 1296710

Besteht das Feld nur aus einem einzelnen Byte (8-Bit-Binärzahl mit oder ohne Vorzeichen) oder einer Ansammlung davon (bspw. Text im Code ISO 8859) – in der Tabelle die Spalten „2 vorzeichenlose 8-Bit Binärzahlen“ –, dann unterscheidet sich die Interpretation bei den beiden Formaten big- oder little-endian nicht. Zwar ist zwischen den beiden Formaten die interne Reihenfolge der Bits pro Byte genauso gespiegelt wie die der Bytes pro Integer. Durch die Maßgaben der Hexadezimaldarstellung ist der Hexdump aber Byte für Byte vollkommen festgelegt, so dass sich big- oder little-endian nicht unterscheiden.

Besteht das Feld aus mehr als einem Byte, kommt bei little-endian die sog. „Intel-Konvention“ zum Zuge. Diese besagt, dass – anders als bei big-endian – das niederwertige Byte auf der niederen Speicheradresse abgelegt wird und die höherwertigen Bytes auf den nachfolgenden Speicheradressen. Im Ergebnis sind bspw. bei ganzzahligen Feldern der Länge 16, 32 oder 64 Bits die beiden Hexdump-Darstellungen byteweise Spiegelungen voneinander. Zur Verdeutlichung ist in der Tabelle bei den Spalten „1 vorzeichenlose 16-Bit Binärzahl“ der Inhalt des ersten der 2 Bytes mit einem Überstrich versehen.

Verwendung und Hardware-Beispiele

Big-endian

Das Format big-endian wurde z.B. eingesetzt bei der Motorola-6800- sowie der Motorola-68000- bzw. -Coldfire-Familie, den Prozessoren der System-z- und Sun-SPARC-CPUs und dem Power (bis Power7) und PowerPC.

Big-endian wird verwendet von Mainframe-Systemen (z.B. IBM-Mainframe) sowie MIPS-, SPARC-, Power-, PowerPC-, Motorola 6800/68k-, Atmel-AVR32- und TMS9900-Prozessoren. Auch Alpha-Prozessoren lassen sich in diesem Modus betreiben, dies ist jedoch unüblich. Mit dem IBM POWER8 wurde die Power-Architektur (PAPR) auf little-endian umgestellt, jedoch kann der POWER8 ebenfalls noch im Big-Endian-Modus betrieben werden.

PowerPC kann bei einigen Modellen auch auf little-endian umgeschaltet werden, sowie POWER8 vom Little- in den Big-Endian-Modus umgestellt werden – IBM forciert jedoch seit dem POWER8 den Little-Endian-Modus.

Little-endian

Das Little-Endian-Format wurde ursprünglich beim Prozessor 6502, der NEC-V800-Reihe, PICmicro oder den Intel-x86-Prozessoren verwendet.

Auch heutige PC-Systeme (x86-kompatible) verwenden little-endian. Weitere sind Alpha, Altera Nios, Atmel AVR, IBM Power ab POWER8, manche SH3/SH4-Systeme oder VAX. Dies sind True-Little-Endian-Systeme.

Im Gegensatz dazu stehen Architekturen, wie manche PowerPC-Varianten (u.a. 603, 740, 750), die nur als Little-Endian-Systeme konfiguriert werden können (s.u. bi-endian) und aus der Sicht des laufenden Programms dann little-endian verwenden, Werte im Speicher jedoch weiterhin im big-endian-Format ablegen. Bei Lade- und Speicheroperationen wird die Darstellung implizit umgewandelt. Bei der Softwareerstellung für diese Systeme muss dies gegebenenfalls berücksichtigt werden, z.B. bei der Treiber-Programmierung.

Mischvarianten (bi-endian)

Einige Prozessoren, z.B. bestimmte MIPS-Varianten und POWER/PowerPC (PAPR) sowie alle Alpha-Prozessoren, lassen sich zwischen little-endian und big-endian umschalten.

Auch ARM-Prozessoren (inkl. des Intel XScales) können bei Datenzugriffen sowohl in little- als auch in big-endian betrieben werden; auf Code wird bei ARM-Prozessoren allerdings immer im Little-Endian-Format zugegriffen.

Die von Hewlett-Packard und Intel gemeinsam entwickelte Itanium-Architektur „IA-64“ beherrscht ebenfalls beide Byte-Reihenfolgen, was zur Erleichterung der Portierung von Betriebssystemen hatte dienen sollen (insbesondere zwischen HP-UX (big-endian) und Windows (little-endian)).

Dateiformate

Die typische Verwendung einer Byte-Reihenfolge in einer Prozessorarchitektur zur Ablage von Werten im Arbeitsspeicher hat Einfluss auf die Byte-Reihenfolge von Werten im Sekundärspeicher (oft Festplatten). Bei der Neuerstellung von Dateiformaten wurde die Byte-Reihenfolge der Zahlenwerte so gelegt, dass sie beim Speichern und Zurückladen vom Sekundärspeicher ohne Wandlung auskommen. Mittels Speichervirtualisierung können Daten auf dem Sekundärspeicher sogar direkt vom Programm angesprochen werden.

Bedeutsam ist dies für Containerformate mit einer allgemeinen Strukturdefinition. So wurde das Interchange File Format (IFF) für Amiga-Programme entworfen, und entsprechend diesem Motorola-68000-Prozessor wurden die Vier-Byte-Chunk-Längen im Motorola-Format big-endian abgelegt. Auf dem ebenfalls mit Motorola-Prozessoren arbeitenden Macintosh-Rechnern wurde dieses u.a. für das Audioformat AIFF übernommen.

Bei der Übernahme auf die Windows-Plattform mit Intel-Prozessoren wurden die Chunk-Längen umdefiniert auf das Vier-Byte Intel-Format little-endian und das neue allgemeine Containerformat als Resource Interchange File Format (RIFF) bezeichnet. Dieses RIFF-Dateiformat ist die Grundlage verbreiteter Dateiformate wie RIFF WAVE (*.wav-Dateien) für Audio und Audio Video Interleave (*.avi-Dateien) für Video.

Auch bei Dateiformaten ist es möglich, eine Definition zu entwickeln, die beide Byte-Reihenfolgen der Prozessorarchitekturen zulässt. So steht z.B. bei TIFF-Dateien (Tagged Image File Format) in den ersten zwei Bytes der Datei:

Nachfolgende Längen- und Offset-Werte in der Datei werden dann entsprechend kodiert.

Etymologie

Die Bezeichnungen gehen auf den satirischen Roman Gullivers Reisen von Jonathan Swift zurück, in dem die Bewohner des Landes Liliput in zwei verfeindeten Gruppen leben: Die einen schlagen ihre Frühstücks-Eier am dicken, „großen“, englisch „big“, Ende auf und werden deshalb als Big Ender bezeichnet, während die Little Ender die Eier am spitzen, „kleinen“, englisch „little“ Ende öffnen. Swift spielte damit auf die Abspaltung der englischen Kirche (Spitz-Ender) von der katholischen Kirche (Dick-Ender) an – in Zusammenhang mit der Byte-Reihenfolge wurde dies erstmals 1980 von Danny Cohen in dem Aprilscherz-Paper On Holy Wars and a Plea for Peace gebracht.

Anmerkungen

  1. Dies gilt vor allem für Maschinen, bei denen die Länge der Operanden im Maschinenbefehl codiert ist.
    Nicht in dieses Schema passen Maschinen wie die IBM 1401, bei der sogenannte „Wortmarken“ im Speicher die Ausdehnung der Speicheroperanden bestimmen. Solche Maschinen können – je nach Maschinenbefehl – ein aus (mehreren zusammenhängenden Speicherstellen bestehendes) Feld an seiner niedrigen oder seiner hohen Adresse ansprechen und zum anderen Ende hin abarbeiten; so adressiert beispielsweise der Addieren-Befehl der IBM 1401 die Operanden an der Einerstelle (bei dieser Maschine an der hohen Adresse) und arbeitet sich zur Wortmarke vor. Beim Dividieren-Befehl wird der Dividend an der höchstwertigen Stelle (der niedrigen Adresse) und der Divisor an der Einerstelle angesprochen.
  2. Der Vergleich von Zeichenketten durch Maschineninstruktionen oder die C-Funktionen memcmp() und strcmp() startet auf jeder Maschine am Anfangsbuchstaben der Zeichenkette und wertet damit die Stellen niedriger Adresse als höherrangig, agiert also im Big-Endian-Stil. Man nennt diese Übertragung der Ordnung von den einzelnen Bytes auf mehrstellige Felder, wenn sie bei der ersten Stelle beginnt, die lexikographische Ordnung.
    Die Erwähnung von Zeichenketten („Strings“) in der Literatur, z.B. Big and Little Endian C-style strings und Byte Ordering, im Kontext der Endianness beschränkt sich häufig auf die Übertragungsweise.
  3. Damit der potentiell sehr viele Maschinenzyklen umfassende Befehl den Hauptprozessor nicht monopolisiert, ist er unterbrechbar konzipiert und kann nach einem Hardwareinterrupt an der Stelle fortgesetzt werden, an der er unterbrochen worden ist.
Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 19.04. 2023