Selbstversuch: Einen Wikipedia-Artikel (ca 1500 Worte) als Mindmap darstellen

Selbstversuch: Einen Wikipedia-Artikel (ca 1500 Worte) als Mindmap darstellen

Experiment

  • Wie viel bekommt man in 30 Min als Mindmap dargestellt?
  • Wie lange dauert hinterher das Ordnen, ggf. das Publizieren?

Text-Vorlage: http://de.wikipedia.org/wiki/Von-Neumann-Architektur (Version: 2.10.2013) (mirror: ../mirror/de.wikipedia.org_wiki_Von-Neumann-Architektur.html)

  • ca 1500 Worte

Vorgehen:

  • Text aus Wikipedia plaintext 'reinkopiert in Texteditor, dadurch gereinigt durch Links, Hervorhebungen etc.
  • dann Begriffe im emacs angewählt, in Freemind Mindmap 'reinkopiert (vgl. Schritt 1)
  • dann in Freemind besser geordnet und geprüft: Verstehe ich alles, habe ich alles? (Schritt 2)
  • dann mit semAuth als html schön gemacht, nochmal ganz leicht ergänzt.(Schritt 3)
  • dann diesen Text hier geschrieben, und die mm auf den Server hochgeladen: (Dateien: . freemind 09, mm | pdf )

Nächster Schritt:

  • Wir generieren einen Multiple Choice- (MC-) Test auf Basis der Mindmap

Schritt 1: Begriffe sammeln (Zeit: 11:50 Uhr - 12:20; 65 Nodes, 158 Worte)

Computerprogrammbefehle Daten Architektur SISD-Architekturen (Single Instruction, Single Data) Von-Neumann-Architektur VNA Von-Neumann-Rechner, VNR Princeton-Architektur x86-Architektur Parallelverarbeitung NUMA-Computing Cluster (Computer) Harvard-Architektur Bus HyperTransport Turingmaschine Compiler Interpreter Komponenten ALU (Arithmetic Logic Unit) Control Unit Memory I/O Unit Prinzipien des gespeicherten Programms linearer (1-dimensionaler) Adressraum Befehlszähler oder Programmzähler Von-Neumann-Zyklus Befehl lesen und ausführen Befehlszähler um 1 erhöhen oder Sprungbefehl oder Verzweigungs-Befehl Vorteile Parllel-Verarbeitung einfacher, deterministischer Programmablauf keine Race-Conditions Daten-Inkohärenzen Von-Neumann-Flaschenhals Von Neumann bottleneck Engpass zwischen dem Prozessor und dem Speicher Daten- und Befehls-Bus word-at-a-time thinking expliziter, erzwungener Sequentialismus Memory Wall Geschwindigkeits-Wachstum 1986 bis 2000 CPU-Geschwindigkeiten jährlich um 55 % Speichertransfergeschwindigkeit nur um 10 % Ungleichgewicht zwischen der Geschwindigkeit der CPU und des Speichers Speicherlatenz kapazitiver Widerstand inductance within solid state devices resistance-capacitance (RC) delays Harvard-Architektur Vorteil physikalische Separierung von Befehls- und Datenspeicher getrennte Busse Zugriff unabhängig und parallel Betriebssicherheit Zugriffsrechtetrennung und Speicherschutz einfach realisierbar weniger Pufferüberläufe Nachteil Race Conditions nicht-deterministischer Programmablauf erhöhte Speicherfragmentierung

Schritt 2: Nodes ordnen, ggf. Verständnis im Text prüfen (Zeit: bis 12:20-12:40 Uhr)

Flynnsche Klassifikation SISD-Architekturen (Single Instruction, Single Data) Parallelverarbeitung Von-Neumann-Architektur Benennungen VNA Von-Neumann-Rechner, VNR Princeton-Architektur z.B. x86-Architektur Eigenschaften Komponenten, Funktionsgruppen ALU (Arithmetic Logic Unit) Control Unit Memory I/O Unit Prinzipien des gespeicherten Programms linearer (1-dimensionaler) Adressraum Befehlszähler oder Programmzähler Von-Neumann-Zyklus Befehl lesen und ausführen Befehlszähler um 1 erhöhen oder Sprungbefehl oder Verzweigungs-Befehl Vorteile VNA einfacher, deterministischer Programmablauf keine Race-Conditions Daten-Inkohärenzen Nachteile VNA Von-Neumann-Flaschenhals Von Neumann bottleneck Engpass zwischen dem Prozessor und dem Speicher Daten- und Befehls-Bus word-at-a-time thinking expliziter, erzwungener Sequentialismus Memory Wall Geschwindigkeits-Wachstum 1986 bis 2000 CPU-Geschwindigkeiten jährlich um 55 % Speichertransfergeschwindigkeit nur um 10 % Ungleichgewicht zwischen der Geschwindigkeit der CPU und des Speichers Speicherlatenz kapazitiver Widerstand inductance within solid state devices resistance-capacitance (RC) delays Parallelverarbeitung Benennungen NUMA-Computing Cluster (Computer) Harvard-Architektur Eigenschaft parallele Recheneinheiten (Multicore) parallele Busse (HyperTransport) Vorteil physikalische Separierung von Befehls- und Datenspeicher getrennte Busse Zugriff unabhängig und parallel Betriebssicherheit Zugriffsrechtetrennung und Speicherschutz einfach realisierbar weniger Pufferüberläufe Nachteil Race Conditions nicht-deterministischer Programmablauf erhöhte Speicherfragmentierung miscellaneous Turingmaschine Compiler Interpreter

Schritt 3: mit semAuth als html-Seite publizieren (Zeit: bis 12:40-13:00 Uhr)

Flynnsche Klassifikation: SISD-Architekturen (Single Instruction, Single Data) | Parallelverarbeitung

Von-Neumann-Architektur

andere Benennungen Princeton-Architektur | VNA | Von-Neumann-Rechner, VNR

z.B. x86-Architektur

Eigenschaften

  • " realisiert alle Komponenten einer Turingmaschine": "alles, was mit einer Turingmaschine berechenbar ist, [ist] auch auf einer Maschine mit Von-Neumann-Architektur berechenbar [...] und umgekehrt"
  • Komponenten, Funktionsgruppen
    • ALU (Arithmetic Logic Unit)
    • Control Unit
    • Memory
    • I/O Unit Tastatur, Bildschirm | Schnittstellen
  • Prinzipien des gespeicherten Programms
    • linearer (1-dimensionaler) Adressraum
    • Befehlszähler oder Programmzähler
    • Befehle können wie Daten geändert werden.
  • sequentielle Programm-Ausführung (Von-Neumann-Zyklus)
    • Befehl lesen und ausführen
    • Befehlszähler um 1 erhöhen
      • oder Sprungbefehl
      • oder Verzweigungs-Befehl

Vorteile VNA

  • einfacher, deterministischer Programmablauf
  • keine Race-Conditions
  • keine Daten-Inkohärenzen

Nachteile VNA

Von-Neumann-Flaschenhals (Von Neumann bottleneck)

  • Engpass zwischen dem Prozessor und dem Speicher Daten- und Befehls-Bus
  • word-at-a-time thinking: expliziter, erzwungener Sequentialismus

Memory Wall

  • Geschwindigkeits-Wachstum 1986 bis 2000
    • CPU-Geschwindigkeiten jährlich um 55 %
    • Speichertransfergeschwindigkeit nur um 10 %
  • (inzwischen Umkehrung des) Ungleichgewichts zwischen der Geschwindigkeit der CPU und des Speichers
  • physikalische Probleme: Speicherlatenz, kapazitiver Widerstand ( inductance within solid state devices | resistance-capacitance (RC) delays )

Parallelverarbeitung

andere Benennungen Harvard-Architektur | NUMA-Computing | Cluster (Computer)

Eigenschaften

  • parallele Recheneinheiten (Multicore)
  • parallele, getrennte Busse (HyperTransport)
  • physikalische Separierung von Befehls- und Datenspeicher

Vorteil

  • Zugriff unabhängig und parallel
  • Betriebssicherheit
    • Zugriffsrechtetrennung und Speicherschutz einfach realisierbar
    • weniger Pufferüberläufe

Nachteil

  • Race Conditions
  • nicht-deterministischer Programmablauf
  • erhöhte Speicherfragmentierung

Abwegige Begriffe hier:

Turingmaschine | Compiler | Interpreter

Schritt 4: MC-Fragen

siehe ../intern/mc_2013-10-16.html