eBook.de : Ihr Online Shop für eBooks, Reader, Downloads und Bücher
Connect 01/2015 eBook-Shops: Testsieger im epub Angebot, Testurteil: gut Die Welt: Kundenorientierte Internetseiten Prädikat GOLD
+49 (0)40 4223 6096
€ 0,00
Zur Kasse
PORTO-
FREI

Rechnerorganisation

Die Prinzipien. 'Springer-Lehrbuch'. 3. , neu bearb. un…
Lieferbar innerhalb von 2 bis 3 Werktagen
Buch (kartoniert)
Buch € 49,99* inkl. MwSt.
Portofrei*

Produktdetails

Titel: Rechnerorganisation
Autor/en: Hans Liebig, Thomas Flik

ISBN: 3540000275
EAN: 9783540000273
Die Prinzipien.
'Springer-Lehrbuch'.
3. , neu bearb. und erweiterte Aufl. 2003.
Book.
Springer Berlin Heidelberg

10. März 2003 - kartoniert - 508 Seiten

Rechnerorganisation, nicht in die beiden Gebiete Hardware- und Software-Organisation geteilt, sondern Rechnerorganisation als "Hardware Software Approach" steht im Mittelpunkt dieses Buches. Es hat zum Ziel, ein umfassendes Verständnis der Rechnerfunktion und grundlegende Methoden des Rechnerentwurfs zu vermitteln, wobei von schaltungstechnischen, technologieabhängigen Fragestellungen abstrahiert wird. Dennoch ist durch eine ausgesprochene Detailtreue die Umsetzbarkeit in kommerziell nutzbare Produkte gewährleistet.
Das Buch wendet sich an Technische Informatiker, Elektrotechniker und Informatiker, die an grundlegenden Erkenntnissen in Algorithmik und Computerbau interessiert sind, die die zukünftige Computerentwicklung mitgestalten wollen und die den Computereinsatz insbesondere in einer technischen Umgebung sehen.
1 Grundlagen klassischer Rechnerorganisation.- 1.1 Information, Algorithmen, Automaten.- 1.1.1 Materie- und Informationsprozesse.- 1.1.2 Codierung von Information und Algorithmen.- 1.1.3 Programmsteuerung und Datenverarbeitung.- 1.1.4 Automaten.- 1.2 Elementare Maschinen.- 1.2.1 Die Turing-Maschine.- 1.2.2 Die In-/Dekrementier-Maschine (Zählmaschine).- 1.2.3 Dlie Exor-/And-Maschine (Logikmaschine).- 1.2.4 Maschinelle Verarbeitung von Daten.- 1.2.5 Maschinelle Codierung von Programmen.- 1.3 Der klassische v.-Neumann-Rechner.- 1.3.1 Geschichtliche Bedeutung.- 1.3.2 Architektur.- 1.3.3 Mikroalgorithmen für 2-Komplement-Zahlen.- 1.3.4 Die wichtigsten Rechnerbefehle.- 1.3.5 Die wichtigsten Adressierungsarten.- 1.4 Der klassische 2-Phasen-Assembler.- 1.4.1 Geschichtliche Entwicklung.- 1.4.2 Die wichtigsten Assembleranweisungen.- 1.4.3 Die wichtigsten Adreßrechnungen.- 1.4.4 Aufbau eines 2-Phasen-Assemblers.- 2 Prinzipien der Rechnerstrukturen.- 2.1 Einteilung von Rechnern nach Befehlsformaten.- 2.1.1 Adreßanzahl gegenüber Adreßlänge.- 2.1.2 Hardware-Programme.- 2.1.3 n+1-Adreß-Architektur.- 2.1.4 n-Adreß-Architektur.- 2.1.5 Stack-Architektur.- 2.2 Aufwands-, geschwindigkeits- und durchsatzoptimale Systeme.- 2.2.1 Organisationsformen.- 2.2.2 Seriell- gegenüber Parallelorganisation.- 2.2.3 Fließbandorganisation.- 2.2.4 Konfliktlösung bei Fließbandverarbeitung.- 2.3 Mikroprogrammierung und Prozessorstruktur.- 2.3.1 Die Maschine in der Maschine.- 2.3.2 Complex Instruction Set Computer (CISC).- 2.3.3 Reduced Instruction Set Computer (RISC).- 2.3.4 Gegenüberstellung von RISC und CISC.- 2.4 Prägende Architekturen der Mikroprozessortechnik.- 2.4.1 Am2900: Prozessoren aus Prozessorbausteinen.- 2.4.2 M6800: Einer der ersten 8-Bit-Mikroprozessoren.- 2.4.3 LSI-11: Ein früher 16-Bit-Prozessor für den industriellen Einsatz.- 2.4.4 MC68020: Ein 32-Bit-Mikroprozessor auf CISC-Basis.- 2.4.5 SPARC: Ein 32-Bit-Mikroprozessor auf RISC-Basis.- 2.5 Höhere Formen der Parallelverarbeitung (Autor: M. Menge).- 2.5.1 Lösung des Sprungkonflikts in Fließband-Prozessoren.- 2.5.2 Statische Operationsparallelität.- 2.5.3 Dynamische Operationsparallelität.- 3 Prozessororganisation und Assemblerprogrammierung.- 3.1 Rechnerbefehle, Assembleranweisungen - vom Problem zum Programm.- 3.1.1 Programmiersprachliche Ausdrucksmittel.- 3.1.2 Programmausführung mittels Assembler und Prozessor.- 3.1.3 Assoziativer vs. wahlfreier Datenzugriff.- 3.1.4 Wahlfreier vs. sequentieller Datenzugriff.- 3.2 Adreßrechnung und -modifizierung.- 3.2.1 Register- und Speicheradressierung, immediate Adressierung.- 3.2.2 Registerindirekte Adressierung.- 3.2.3 Basisadressierung.- 3.2.4 Speicherindirekte Adressierung.- 3.2.5 Indexadressierung.- 3.2.6 Effektivadreß-Bildung.- 3.3 Unterprogramme - Funktionen und Prozeduren.- 3.3.1 Parametertransport in die Register.- 3.3.2 Parametertransport in den Stack.- 3.3.3 Organisationsformen aus der Industrie.- 3.3.4 Geschachtelte und rekursive Unterprogrammaufrufe.- 3.4 Makrobefehle.- 3.4.1 Elementare Makroersetzungstechniken.- 3.4.2 Bedingte und strukturierte Assemblierung.- 3.4.3 Implementierung abstrakter Maschinen.- 3.4.4 Geschachtelte und rekursive Makroersetzungen.- 3.5 Datentypen, -formate und -strukturen sowie entsprechende Architekturaspekte.- 3.5.1 Die Datentypen-Problematik.- 3.5.2 Datentypen, -formate und -strukturen.- 3.5.3 Typische Befehle handelsüblicher Prozessoren.- 3.5.4 Gleitkommabefehle.- 3.5.5 Sprachorientierte Rechnerarchitekturen.- 4 Systembus- und Speicherorganisation.- 4.1 Datenübertragung mit den Systemkomponenten.- 4.1.1 Adressierung prozessorexterner Speicherzellen und Register.- 4.1.2 Abläufe für den Datentransport zwischen Prozessor und Speicher.- 4.1.3 Asynchroner Buszyklus.- 4.1.4 Synchroner Buszyklus.- 4.2 Strukturierung des Adreßraums.- 4.2.1 Aufteilung des Adreßraums mit Statussignalen.- 4.2.2 Adreßraumaufteilung durch Auswertung der Adreßsignale.- 4.2.3 Unterschiedliche Datenformate und dynamische Busbreite.- 4.3 Maßnahmen zur Beschleunigung von Speicherzugriffen.- 4.3.1 Verschränkte Speicheradressierung.- 4.3.2 Überlappung von Buszyklen.- 4.3.3 Paralleler Zugriff auf Programm-und Datenspeicher.- 4.3.4 Blockbuszyklus.- 4.4 Cache.- 4.4.1 Problematik.- 4.4.2 Cache-Typen.- 4.4.3 Ersetzungsstrategien.- 4.5 Virtueller Speicher.- 4.5.1 Problematik.- 4.5.2 Speicherverwaltung mit Segmenten.- 4.5.3 Speicherverwaltung mit Seiten.- 4.5.4 Speicherverwaltung mit Segmenten und Seiten.- 5 Ein-/Ausgabeorganisation in Einmaster- und Multimaster-/Multiprozessorsystemen.- 5.1 Prozessorinterrupt.- 5.1.1 Grundsätzlicher Ablauf.- 5.1.2 Interruptzyklus.- 5.1.3 Identifizierbarkeit.- 5.1.4 Unterbrechbarkeit.- 5.1.5 Demaskierbarkeit.- 5.2 Ein-/Ausgabe im Einmastersystem.- 5.2.1 Grundsätzlicher Ablauf.- 5.2.2 Testen und Ändern der Synchronisationsinformation.- 5.2.3 Parallele Datenübertragung.- 5.2.4 Asynchron-serielle Datenübertragung (UART).- 5.2.5 Synchron-serielle Datenübertragung (SDLC).- 5.3 Busarbitration.- 5.3.1 Grundsätzlicher Ablauf.- 5.3.2 Arbitration bei einem Master.- 5.3.3 Arbitration bei mehreren Mastern.- 5.3.4 Lokale Busarbitration.- 5.3.5 Globale Busarbitration.- 5.3.6 Numerierbare Priorisierung.- 5.4 Ein-/Ausgabe im Multimaster-/Multiprozessorsystem.- 5.4.1 Grundsätzliche Systemstrukturen.- 5.4.2 Direct Memory Access (DMA).- 5.4.3 Zusammenspiel der Systemkomponenten.- 5.4.4 Peripheriebusse (SCSI).- 5.4.5 Multibuskonfigurationen.
Hans Liebig
1939 in Ebersbach geboren. 1958 bis 1963 Studium der Elektrotechnik an der Technischen Hochschule München. 1963 bis 1965 Entwicklungsingenieur im Fachgebiet Informationstechnik - Elektronische Rechenanlagen - bei Telefunken in Konstanz. 1965 bis 1970 wissenschaftlicher Assistent am Institut für Informationsverarbeitung der Technischen Universität Berlin, ab 1970 Professor für Informatik an der Technischen Universität Berlin. Seit 1968 Vorlesungen über "Logischer Entwurf digitaler Systeme", über "Rechnerorganisation" sowie über "Prinzipien der Rechnerstrukturen".

"Im Zeitalter von Systems-on-Chip, in Software realisierten Hardwarfunktionen und, umgekehrt, festverdrahteten Algorithmen, ist die Trennung zwischen Soft- und Hardware eine eher künstliche. Es gilt also, Rechnersysteme als eine Einheit von Hard- und Software zu begreifen. Von diesem Ansatz aus entwickelt Hans Liebig seine Theorie der Rechnerorganisation, welche als Ziel ein umfassendes Verständnis des Rechnerentwurfs hat. Dieser 'ganzeinheitliche' Entwurf zieht sich durch, von Tuningmaschinen bis hin zu Multiprozessorsystemen. Der Autor baut auf elementaren Rechnerkonzepten auf und vollzieht auf dieser Basis die gesamte Entwicklung nach. Sehr interessant ist die 'HW/SW'-Methode bei stark hardwarelastigen Themen wie der Speicherorganisation, hier zeigt das Buch elegante Lösungen." (Design & Elektronik, Issue 10, 2003)
Kundenbewertungen zu Hans Liebig, Thomas… „Rechnerorganisation“
Noch keine Bewertungen vorhanden
Zur Rangliste der Rezensenten
Veröffentlichen Sie Ihre Kundenbewertung:
Kundenbewertung schreiben
Unsere Leistungen auf einen Klick
Unser Service für Sie
Zahlungsmethoden
Bequem, einfach und sicher mit eBook.de. mehr Infos akzeptierte Zahlungsarten: Überweisung, offene Rechnung,
Visa, Master Card, American Express, Paypal mehr Infos
Geprüfte Qualität
  • Schnelle Downloads
  • Datenschutz
  • Sichere Zahlung
  • SSL-Verschlüsselung
Servicehotline
+49 (0)40 4223 6096
Mo. - Fr. 8.00 - 20.00 Uhr
Sa. 10.00 - 18.00 Uhr
Chat
Ihre E-Mail-Adresse eintragen und kostenlos informiert werden:
* Alle Preise verstehen sich inkl. der gesetzlichen MwSt. Informationen über den Versand und anfallende Versandkosten finden Sie hier.
Bei als portofrei markierten Produkten bezieht sich dies nur auf den Versand innerhalb Deutschlands.

** Deutschsprachige eBooks und Bücher dürfen aufgrund der in Deutschland geltenden Buchpreisbindung und/oder Vorgaben von Verlagen nicht rabattiert werden. Soweit von uns deutschsprachige eBooks und Bücher günstiger angezeigt werden, wurde bei diesen kürzlich von den Verlagen der Preis gesenkt oder die Buchpreisbindung wurde für diese Titel inzwischen aufgehoben. Angaben zu Preisnachlässen beziehen sich auf den dargestellten Vergleichspreis.
eBook.de - Meine Bücher immer dabei
eBook.de ist eine Marke der Hugendubel Digital GmbH & Co. KG
Folgen Sie uns unter: