PC-Experience - IT-Portal für Reviews, Artikel, Windows Tipps und Problemlösungen -

PC-Experience
Registrierungdie Foren-Regelndie 2016 überarbeiteten FAQs für unser CMS und das ForumImpressum und DatenschutzSucheKalenderMitgliederlistezu unseren ArtikelnTutorialsZur Startseitezur Forenübersicht


PC-Experience » Artikel und Workshops: » Hardware, Tipps und Tricks: » Der Arbeitsspeicher-Workshop (Update 09.09.2016) » Hallo Gast [Anmelden|Registrieren]
Letzter Beitrag | Erster ungelesener Beitrag Druckvorschau | An Freund senden | Thema zu Favoriten hinzufügen
Neues Thema erstellen Thema ist geschlossen
Zum Ende der Seite springen Der Arbeitsspeicher-Workshop (Update 09.09.2016)
Autor
Beitrag « Vorheriges Thema | Nächstes Thema »
Wallace Wallace ist männlich
Redakteur/Co-Administrator


Dabei seit: 21.08.2002
Beiträge: 5.128
Herkunft: Montreal

Achtung Der Arbeitsspeicher-Workshop (Update 09.09.2016) Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden       Zum Anfang der Seite springen



Einführung:


Wer heute Arbeitsspeicher kaufen will, hat die Qual der Wahl. Doch noch DDR2, oder DDR3 oder schon DDR4 RAM ? Doch damit nicht genug: Alle Module werden mit unterschiedlichen Parametern für Timing und Zugriffszeiten angeboten. Wenn ihr nicht wißt, welche Module euer Mainboard unterstützt, kauft ihr vielleicht ein Modul, das euren PC ausbremst, oder eines, das nicht in euren PC passt.
Wir stellen euch die aktuellen Technologien und ihre spezifischen Eigenschaften und Kenngrößen vor, damit der nächste Speicherkauf nicht zum Fiasko wird. Speichermodelle wie z.B. EDO-RAM o.ä. lassen wir bewußt weg, denn die haben längst keine Marktrelevanz mehr.




SDRAM:


Immer noch weit verbreitetet sind die Speichermodule vom Typ SDRAM (Synchronous Dynamic Random Access Memory). Sie werden auch als PC66 , PCIOO oder PC133 Module bezeichnet und haben eine theoretische Übertragungsrate von 800 MByte pro Sekunde bzw. 1,06 GByte pro Sekunde.
Die Bandbreite berechnet der Hersteller nach der Formel:
Datenbusbreite mal Taktfrequenz. jedoch werden diese Leistungsangaben nie erreicht, weil viele Verzögerungen den Datenfluss bremsen. Die Standard SDRAM-Module sind 168 polige DIMMs (Dual Inline Memory Modules) und verfügen über eine Datenbusbreite von 64 Bit oder von 72 Bit für Module mit integrierten ECC Bits.
Eine Sonderform von SDRAM-DIMMs sind die SO-DIMMs. Diese werden meist im mobilen Bereich eingesetzt. Die kompakte SO-Bauform gibt es in einer 72-poligen Variante mit einer Datenbreite von 32 Bit und in einer 144 poligen Form mit einer Datenbreite von 64 Bit.
Intel hat mit der PC-SDRAM-Specification in der Version 1.7 den Aufbau und die Eigenschaften von PC66 , PC1OO und PC133 Speicherbausteinen festgelegt. Die unüberschaubare Vielfalt von unterschiedlich aufgebauten und unterschiedlich schnellen Modulen sollte damit so spezifiziert werden, dass diese auf allen Mainboards laufen. Dazu führte Intel bereits mit der PC66/100 Spezifikation ein Verfahren ein, das dem BIOS ermöglicht, alle relevanten Parameter eines Speichermoduls ohne manuelle Konfiguration einzustellen. Das SPD EEPROM (Serial Presence Detect) enthält dazu alle benötigten Daten für eine korrekte Konfiguration.
In der SDRAM-Spezifikation ist auch die Beschriftung der Module festgelegt. An einem Beispiel sehen wir, wie eine solche Bezeichnung aussehen könnte und was diese bedeutet. Die Bezeichnung PC133-333-520 erklärt sich so:

133 = die maximale Taktfrequenz in MHZ, mit der das Modul betrieben werden kann.
3 = CAS Latency (CL), CL gibt in Taktzyklen an, wie lange ein Bit für die Reise von den Sense Amps (Schreib/Leseverstärker) zur Ausgangsregister (Latch) für eine entsprechende Datenleitung benötigt.
3 = RDC RAS to CAS Delay. Das ist die Zeit in Taktzyklen, die vergeht, bis die Daten einer Speicherzeile in die zugehörigen Sense Amps zur Verfügung stehen.
3 = Rp RAS Precharge Time, ebenfalls in Taktzyklen, gibt die Zeit an, die benötigt wird, um den Inhalt der Sense Amps in die Speicherzellen zurückzuschreiben.
5 = AC output valid from clock, in Nanosekunden (ns) angegeben. Dies ist die Zeit, die ein Baustein auf dein DIMM benötigt, um gültige Daten zu liefern.
2 = SPD-EEPROM-Version. 2 steht für die Versionsnummer 1.2 (kann auch vollständig mit 1.2 angegeben werden).
0 = Die letzte Stelle ist derzeit reserviert und immer 0.
Nach der vollständigen Bezeichnung kann noch ein R angehängt werden, es kennzeichnet Registered bzw. gepufferte DIMMs. Prinzipiell gilt für die Werte CL, RAS-to-CAS-Delay, RAS Precharge Time und output valid from clock: je kleiner die angegebenen Werte sind, desto schneller kann dieses Modul betrieben werden.
Auf den Registered DIMMs befinden sich neben den Speicherbausteinen zusätzliche Register und PLL Bausteine. Diese entlasten die Treiber des Chipsatzes, wenn eine große Anzahl an Speicherbausteinen beispielsweise 512 MByte Module mit je 32 Chips die Signale auf den Daten und Signalleitungen durch einen hohen Strombedarf belasten. jedoch kosten diese Module nicht nur mehr, sie weisen auch etwas schlechtere Zugriffszeiten auf.

Zeilen und Spalten:
Alle aktuellen Hauptspeicher für den PC werden derzeit durch DRAM Speicherzellen realisiert: Sie bestehen nur aus einem Kondensator und einem Transistor und weisen deshalb eine hohe Packungsdichte auf. Der Ladungszustand des Kondensators dient als Speichermedium. Ein geladener Kondensator entspricht 1, ein entladener 0. Einzelne DRAM Zellen werden in einem zweidimensionalen Feld aus Zellen und Spalten zu einem Speicherfeld zusammengeschaltet. Damit die Anzahl der Adressleitungen für die Zeilen und Spalten Adressierung nicht zu groß wird, besitzt ein SDRAM Chip mehrere Speicherfelder, die durch Zu-satzschaltungen gruppiert werden. Die einzelnen Speicherfelder werden zusätzlich auf mehrere Bänke verteilt. 64 MBit , 128 MBit und 256 Mbit Chips verfügen über vier Bänke. In einem 8Mx8 Chip liegen je acht Felder, die jeweils 2 MBit Daten fassen können, in vier Bänken. Deshalb können diese Chips auch als 4x2Mx8Bausteine bezeichnet werden, diese Schreibweise ist jedoch sehr selten und unüblich.
Jeder Zugriff auf eine Speicherzelle löscht deren Inhalt. Deshalb muss der Inhalt vor einem Zugriff gesichert werden. Dafür gibt es am Ende jeder Spalte einen Schreib/Leseverstärker. Dieser Sense Amp dient auch als Zwischenspeicher bei einem Lesevorgang oder bei der Auffrischung (Refresh) der Speicherzellen. Durch die immer vorhandene Restleitfähigkeit von Silizium wird der Kondensator kontinuierlich entladen. Deshalb muss der Ladungszustand eines Standard SDRAM alle 64 ms durch einen Refresh aufgefrischt werden. Der Impuls für einen Refresh wird vom Chipsatz alle 64 ms an den Chip geschickt. Dieser frischt dann mit Hilfe des Sense Amp die einzelnen Speicherzellen durch Auslesen und erneutes Beschreiben auf.
Die Speicherzellen für einen Schreib oder Lesevorgang werden immer nach dem gleichen Schema adressiert:
Zuerst wird die Chip Reihe vom Chipsatz gewählt, dann der einzelne Chip mit der Chip Select Leitung (CS), jetzt wird mit dem Bank Select Signal (BS) die gewünschte Speicherbank aktiviert. Gleichzeitig mit dem BS wird die Zeilenadresse auf den Adressleitungen übertragen. Da auf den Adressleitungen die Zellen und die Spaltenadressen übertragen werden, gibt es für die Adressen zwei zusätzliche Leitungen, anhand derer der Chip sie unterscheiden kann.
Die Kombination aus BS und Zeilenadresse wird als Activate Kommando bezeichnet: Die Sense Amps derselben Bank lesen die gesamte Zeile aus und puffern deren Inhalt. Stehen die Daten in den Sense Amps zur Verfügung, schickt der Chipsatz die Spaltenadresse. Damit ist das gewünschte Datum ausgewählt. Dieses wird jetzt vom Sense Amp ins Ausgangsregister (Latch) für die entsprechende Datenleitung übertragen. Von hier kann der Chipsatz die gewünschten Daten lesen.



Tabelle der Kennwerte für SDR-SDRAM DIMM's:
Parameter Symbol Einheit PC66 PC100 PC133
Taktperiode, Zykluszeit t_CK [ns] 15 10 7.5
CAS Latency = 2 CL [ns] 30 20 15
CAS Latency = 3 CL [ns] 45 30 22.5
RAS-to-CAS-Delay = 2 t_RCD [ns] 30 20 15
RAS-to-CAS-Delay = 3 t_RCD [ns] 45 30 22.5
RAS Precharge Time = 2 t_RP [ns] 30 20 15
RAS Precharge Time = 3 t_RP [ns] 45 30 22.5
Output Valid from Clock t_AC [ns] 9.0 6.0 5.4
Sonderfall (1): Output Valid from Clock t_AC [ns] 10.0 7.0 7.0
RAS Cycle Time bei t_RP=3 t_RC [Takte] 8 8 9
RAS Cycle Time bei t_RP=2 t_RC [Takte] 8 7 8
RAS Active Time t_RAS [Takte] 5 5 6

(1) Bei nur 2 verwendeten SDRAM-Reihen im System (2 einseitige oder ein doppelseitiges DIMM).
Immer wieder taucht die Frage auf, welcher RAM denn schneller ist, und für welche Latenzzeiten dies gilt. In der Regel sieht diese Reihenfolge so aus (">" steht für "schneller als"):

PC133-222 > PC133-333 > PC100-222 > PC100-333. Der Geschwindigkeitsgewinn von z.B. PC133-222 gegenüber PC133-333 zwar nicht gewaltig, aber meßbar und zuweilen auch spürbar (2-5% maximal).





DDR-SDRAM:



Der Nachfolger des früheren Speicherkönigs SDRAM wurde nicht unerwartet Double Data Rate SDRAM (DDR-SDRAM), die Module werden häufig auch als PC200 und PC266 für die Taktraten 100 MHz und 133 MHz bezeichnet. Die Begriffe PC1600 bzw. PC2100 beziehen sich auf die theoretisch maximalen Übertragungsraten von 1600 MByte und 2100 MByte pro Sekunde. Die DDR Module sind nicht mehr zu den 168 poligen Standard SDRAM-DIMMs kompatibel. Für die DDR-DIMMs sind ein neuer 184 poliger Modulsockel und die Unterstützung des Chipsatzes notwendig.
Ein PC266 DDR SDRAM arbeitet z.B. wie ein PC133 Modul mit einer Taktfrequenz von 133 MHz. Die Bezeichnung 266 wird fälschlicherweise als Takt-frequenz von 266 MHz angesehen. Tatsächlich nutzt ein DDR SDRAM-Modul nur beide Flanken eines 133MHz Signals.
Der interne Aufbau der DDR-SDRAM Chips entspricht im Wesentlichen dem von Standard SDRAMs. Lediglich der Datentransfer erfordert wegen der höheren Empfindlichkeit auf Laufzeitverzögerungen Änderungen in den Chips und zusätzliche Steuerleitungen. Für die Synchronisierung zwischen den Speichermodulen und dem Chipsatz wurde zusätzlich zum Systemtakt das bidirektionale Strobe Signal DQS eingeführt. Dieses parallel zu den Daten laufende Signal dient als Referenz für die Gültigkeit der Daten.
Der Schreib und Lesevorgang wird nicht mehr allein durch den Chipsatz geregelt, die DDR SDRAM Modul nehmen aktiv am Datenaustausch teil. Das DQS Signal wird abhängig vom Schreib oder Lesevorgang entweder vom Chipsatz oder vom DDR Chip generiert. Bei einem Lesebefehl erzeugt das DDR SDRAM das DQS Signal und zeigt dem Chipsatz die Gültigkeit der Daten mit beiden Flanken eines Takts an. Das DQS Signal für einen Schreibvorgang wird vom Chipsatz generiert und gesteuert. Es zeigt dem Speichermodul an, ob die empfangenen Daten gültig sind. Grundsätzlich soll das DQS-Signal dazu dienen, bei hohen Taktfrequenzen mit vielen physikalischen Einflüssen einen korrekten Datenfluss zu erreichen. Dies ist möglich, weil Laufzeitveränderungen, die auf die Daten einwirken, auch das DQS Signal beeinflussen und diese dadurch gleichzeitig am Empfänger ankommen.
Der Überrsichtlichkeit halber und ob der etwas anderen Nomenklatur bei DDR-SDRAM ist die folgende Tabelle für DDR-Speichermodule etwas anders als beim SDRAM aufgestellt. Zykluszeiten, CAS-Latency, Delay-Zeiten, Precharge Time und RAS Cycle Zeiten sind alle in Nanosekunden [ns] angegeben.


Modulbezeichnung Chiptyp Timing Frequenz [MHz] Zykluszeit CAS-Latency t_RCD t_RP t_RAS
PC1600 DDR200 2,0-2-2 100 10 20 20 20 50
PC2100 DDR266B 2,5-3-3 133 7.5 18.75 22.5 22.5 45
PC2100 DDR266A 2,0-3-3 133 7.5 15 22.5 22.5 45
PC2100 DDR266 (Intel) 2,0-2-2 133 7.5 15 15 15 45
PC2700 DDR333B 2,5-3-3 166 6 15 18 18 42
PC2700 DDR333A 2,0-3-3 166 6 12 18 18 42
PC3200 DDR400B 3,0-4-4 200 5 15 20 20 40
PC3200 DDR400A 2,5-3-3 200 5 12.5 15 15 40

Auch hier stellt sich die Frage, welche Timings wann welchen Geschwindigkeitsvorteil bringen ? Her hängen diese Vorteile ebenfalls sehr vom Chipsatz bzw. Mainboard und natürlich von den Anwendungen ab. Wer nur die Wahl z.B. zwischen PC2700 2,0-3-3 und 2,5-3-3 zu treffen hat, der muss sich diese Frage eigentlich gar nicht erst stellen, denn der zu erwartende Performancevorteil macht sich in der Praxis kaum bemerkbar - außer vielleicht in der Brieftasche. Sehr oft ist die schnellere CPU eine deutlich bessere Investition als ein sündhaft teures Modul nach PC2700 CL2 oder gar PC3200 CL2. Auf einem High-End-Rechner würde so ein Modul allerdings das I-Tüpfelchen bedeuten und den letzten noch fehlenden Frame z.B. aus dem brandaktuellen Game quetschen.




Bank-Interleaving:

Bei neueren Chipsätzen von ViA sollte man das Bank Interleaving einsetzen. Hier gibt es 2-way und 4-way Bank Interleaving, wozu man allerdings zunächst erklären muß, was eine Bank überhaupt bedeutet. Eine Speicherbank ist eine RAM-Einheit, die sich auf eine Bestückungsseite bezieht. Ist ein RAM-Modul nur auf einer Seite mit Chips bestückt, erhält man eine Bank. Bei beidseitiger Bestückung also 2 Banks. Zwei einseitige bilden wieder 2 Banks. Die schnellste und stabilste Kompromißbestückung stellen bei ViA 2 beidseitig bestückte Module dar, da man hier die Stabilität durch nur 2 Module hoch hält und die Geschwindigkeit mit 4-way Bank Interleaving maximieren kann. Das Bank Interleaving stellt eine Art Parallelzugriffsmodus auf die RAM-Banks dar.Entsprechende Mainboards haben die Aktivierung dafür im BIOS vorgesehen.




Dual-Channel Technik:


Wenn es einen technischen Begriff gibt, der sich wie ein roter Faden durch alle Mainboard/Arbeitsspeichertests zieht, dann ist es sicherlich Dual-Channel.
Dual-Channel bedeutet nichts anderes, als daß der Speicherbus bei Einsatz von zwei RAM-Modulen (in Bank 0 und 1 z.B.) auf 128 Bit (normal 64 Bit) zur Leistungssteigerung verbreitert wird, was in der Praxis eine Leistungssteigerung von 3-6 % bringt, es werden also 2 Speicherkanäle parallel angesprochen. Es können für die Dual-Channel-Technik aber auch 3 oder 4 Speichermodule eingesetzt werden, weil die 4 vorhandenen Speicherbänke (je nach Chipsatz) in Kanal 1(Speicherbank 1+2) und Kanal 2 (Speicherbank 3+4) unterteilt sind.
Für den Betrieb sind keine speziellen Module notwendig - allein der Speicherkontroller muss Unterstützung für diese Technologie bieten. Auch ist es nicht unbedingt notwendig, zwei baugleiche Module zu verwenden. Dual Channel funktioniert mit jeder Art von Arbeitsspeicher, vorausgesetzt die folgenden 3 Punkte sind erfüllt:

• Gleiche Speicherkapazität der Module
• Gleiche Betriebsgeschwindigkeit der Module
• Gleiche Anzahl von Chips und gleiche Anzahl von "module sides", d.h. entweder einseitig oder zweiseitig bestückt.

Da diese Voraussetzungen von vielen Herstellern erfüllt werden, können auch Module unterschiedlicher Hersteller kombiniert werden.
Eine Vollbestückung ist auch je nach Mainboard möglich, bringt aber keine Steigerung der Speicherperformance zusätzlich.
Es gibt mittlerweile von vielen Markenherstellern speziell für Dual-Channel validierte Module, die auf die entsprechende Tauglichkeit in aktuellen Dual-Channel-Systemen wie z.B. nForce 2/3/4 oder Springdale/Canterwood/Beachwood usw. von Intel abgestimmt sind und getestet wurden.
Bei AMD-CPU basierten Systemen ist seit der Einführung des Athlon64 der Speichercontroller direkt in die CPU integriert. Die Dualchannelfähigkeit hängt dort somit von der CPU ab, nicht vom Chipsatz der Hauptplatine!




Was bedeutet Hypertransport?

Bekanntermaßen wird die Speicher- und I/O-Anbindung für schnelle CPUs zum Flaschenhals. HyperTransport soll mit bis zu 12,8 GByte/s für genügend Luft und Reserven sorgen und kommt bei AMDs Athlon64/Opteron als CPU- und Systembus zum Einsatz.
Die HyperTransport™ Technologie ist ein neuer Hochgeschwindigkeits-Punkt-zu-Punkt-Bus, der integrierte Schaltkreise mit dem Motherboard verbindet. Sie kann bei gleicher Pin-Anzahl deutlich schneller sein als der PCI-Bus.
Das HyperTransport-Konsortium hat jetzt eine Spezifikation für "HyperTransport Release 2.0" vorgelegt, die höhere Datentransferraten, direkte Anbindung an PCI Express und eine verbesserte I/O-Interconnect-Architektur mit sich bringt. Die Verbindungstechnik HyperTransport wird unter anderem von AMDs 64-Bit-Prozessoren Athlon64 und Opteron, Microsofts Xbox oder Apples PowerMac G5 verwendet.
So steigt die mit HyperTransport erreichbare Geschwindigkeit von 1,6 GigaTransfers pro Sekunde (GT/s) auf 2,0, 2,4 bzw. 2,8 GT/s. Dabei kommen Taktfrequenzen von 1,0, 1,2 bzw. 1,4 GHz zum Einsatz. So erlaubt HyperTransport Datendurchsatzraten von bis zu 22,4 GByte pro Sekunde, bleibt dabei aber abwärtskompatibel zu allen vorherigen HyperTransport-Spezifikationen.
HyperTransport soll als serieller Universalbus all die Performance- und Kompatibilitätsprobleme lösen. Preiswert, skalierbar und schnell soll er nicht nur Peripheriekomponenten auf dem Mainboard miteinander verbinden. AMDs 64-Bit-Opteron-CPUs kommunizieren mit der Außenwelt nur noch über drei unabhängige HyperTransport-Links und greifen darüber in SMP-Systemen sogar auf Teile des Hauptspeichers zu. Künftig sollen HyperTransport-Steckplätze auch zur extrem schnellen Anbindung von Erweiterungskarten dienen.
Flaschenhals ade`? Wir werden sehen ...




3. Rambus Speicher:


Rambus Inc. stellt im übrigen selbst keine Speicherchips her, sondern lizenziert nur die Technologie.
Die Rambus-Technologie wird bereits seit 1995 in den Workstations von SGI verwendet. Auch in der Spielekonsole Nintendo 64 findet ihr den Rambus. Die hohe Bandbreite, über die ein Rambus-System verfügt, ist in diesen Fällen wichtiger als die vereinzelt höheren Zugriffszeiten, die im Vergleich zu Standard SDRAM/DDR-Modulen auftreten.
Seit Ende 1999 gibt es von Intel den Chipsatz i820. Damit soll der Rambus auch in den PC eingeführt und verbreitet werden. Durchsetzen konnte sich der Rambus bisher nicht. Die ihm nachgesagten höheren Leistungsgewinne fallen in der Praxis eher gering aus und bleiben in einzelnen Bereichen unter den Leistungen von DDR Modulen. Zusätzlich verzögerten die aufwendige Technik und die damit verbundenen ho-hen Kosten für ein Rambus-System eine schnelle Verbreitung. Die RIM oder RDRAM Module, so werden die Rambus Speichermodule genannt, lehnen sich mit ihrer Bezeichnung an die von DDR Modulen an. Ein Modul, welches mit 400 MHz getaktet wird, trägt die Bezeichnung PC800. Wie DDR Module haben sie 184 Pins, beide sind nicht zueinander kompatibel.
Eine weitere wichtige Kenngröße der Module ist die Zugriffszeit, auch Row Access Time (RAC) genannt. Sie wird gemäß der Rambus RIMM-Spezifikation hinter der Taktrate als Zahlenwert angegeben, beispielsweise als 800 50. Schneller wäre ein Modul mit der Zeitangabe 45 oder 40. An einen Kanal können unterschiedliche Module angeschlossen werden, jedoch gibt das langsamste Modul die maximale Geschwindigkeit vor. Ein Rambus System besteht aus dem Rambus Memory Controller (RMC), der den Rambus Channel bzw. Kanal steuert, und Rambus DRAMs. Der Rambus Channel ist als schneller Bus ausgeführt. Dieser beginnt beim RMC und führt über jeden Steckplatz der Speichermodule zurück zum Rambus-Controller. Dadurch ist jeder einzelne Speicherchip eines RIMM direkt in den Rambus Channel integriert.
Diese Topologie ist dafür verantwortlich, dass einzelne Steckplätze für weitere Module, die nicht belegt sind, durch Dummy Platinen mit der Bezeichnung Continuity RIMMs (C-RIMMs) überbrückt werden müssen. Diese C-RIMMs schleifen alle Leitungen durch. Damit sind mit jedem leeren Steckplatz weitere Kosten verbunden. RMC und Speicherchip kommunizieren über ein festgelegtes Übertragungsprotokoll. Dafür sind in jedem Rambus Speicherchip zahlreiche Demultiplexer und Decoder integriert, die das komplizierte Transportprotokoll entschlüsseln. Die Kommunikation auf den 16 bzw. 18 Datenleitungen (mit ECC) läuft paketweise ab. Dabei werden pro Paket acht Taktflanken verwendet, die jeweils 2 Byte übertragen. Dadurch ist ein PC800 Chip theoretisch in der Lage, 100 Millionen 16 Byte Pakete zu übertragen, was einer maximalen Übertragungsrate von 1,6 GByte pro Sekunde entspricht. Die Chipsätze i850E und SiS-658 sind momentan die Einzigen, die 32Bit-RIMMs ansprechen können. Diese "RIMM 3200" bzw. "RIMM 4200" haben die gleiche Modulbreite wie PC800-RIMMs, jedoch haben sie 232 Pins statt nur 184 Pins und lassen sich daher nicht in die 16Bit RIMM-Slots einsetzen. Durch die Verdopplung der Datenbusbreite bereits im RIMM verdoppelt sich die Bandbreite, so dass man nicht mehr 2 Module braucht, um auf die für den P4 nötige Bandbreite zu kommen. Großartige Performancevorteile haben aber auch diese neuen RIMMs nicht erzielt, trotz der theoretischen Übertragungsrate von 4,2 Gbyte pro Sekunde.
Bedingt durch die Erfolge von DDR-Speichermodulen und deren ständig steigenden Übertragungsraten und Weiterentwicklungen (Chipsätze für DualChannel usw.) wie z.B. die kommenden DDR-2 und DDR-3 Speichermodule, hat Intel inzwischen Rambus den Rücken zugekehrt und diese Schiene verlassen.



DDR-2 FAQs:

DDR2-SDRAM ist eine konsequente Weiterentwicklung des DDR-SDRAM Konzeptes, bei dem anstatt mit einem Zweifach-Prefetch mit einem Vierfach-Prefetch gearbeitet wird.
DDR2-SDRAM-Speicherchips besitzen 240 (bzw. 200, 214 oder 244) Kontakte/Pins ("normale" DDR-Chips: 184, SDRAM besitzt 168 Kontakte) und sind dadurch bedingt natürlich nicht kompatibel zu DDR1 Mainboards.
DDR2-SDRAM taktet den I/O-Puffer mit der zweifachen Frequenz der Speicherchips. Hier erhält man, wie bei dem älteren DDR-Standard, jeweils bei steigender als auch bei fallender Flanke des Taktsignals gültige Daten. Beim DDR-SDRAM werden mit einem Read-Kommando (mindestens) zwei aufeinanderfolgende Adressen gelesen, bei DDR2-SDRAM vier. Dies ist durch die jeweilige Prefetch-Methode des jeweiligen Standards bedingt. Aus einem 128 Bit breiten DDR-Modul werden pro Readvorgang 256 Bit gelesen, aus einem vergleichbaren DDR2-Modul aber 512. Die absolute Datenmenge bleibt bei gleichem Takt von z.B. 200 MHz aber identisch, da das DDR2-Modul zwei anstelle von einem Takt benötigt um die Daten zu übertragen. DDR2 unterstützt nur 2 mögliche Burst-Längen (Anzahl an Datenwörtern die mit einem einzelnen Kommando gelesen oder geschrieben werden können): nämlich 4 (bedingt durch Vierfach-Prefetch) oder 8, DDR hingegen unterstützt 2, 4 oder 8.
Zur Erhöhung der Taktraten und zur Senkung der elektrischen Leistungsaufnahme, wurde die Signal- und Versorgungsspannung von DDR2-SDRAM auf 1,8 Volt verringert (bei DDR-SDRAM sind es 2,5 oder 2,6 Volt). Nebenbei führt die verringerte Spannung naturgemäß zu einer geringeren Wärmeentwicklung, was dichtere Gedächtniskonfigurationen für die höheren Kapazitäten ermöglicht. Die elektrische Leistungsaufnahme sinkt auf für den Mobilbereich akkufreundlichere 247 mW (statt bisher 527 mW).
DDR2-SDRAM Chips arbeiten mit "On-Die Termination" (ODT). Der Speicherbus muss also nicht mehr auf der Modulplatine (oder dem Board) terminiert werden. Die Terminierungsfunktion wurde direkt in die Chips integriert, was wiederum Platz und Kosten spart. ODT arbeitet wie folgt: der Speicher-Controller sendet ein Signal zum Bus, das alle inaktiven DDR2-SDRAM Chips dazu motiviert, auf Terminierung umzuschalten. Somit befindet sich nur das aktive Signal auf der Datenleitung, Interferenzen sind im Grunde so gut wie ausgeschlossen.
Schauen wir uns noch einmal in einer übersicht die konkreten Unterschiede zwischen den jeweiligen Takt-und Übertragungsraten an, denn diesbezüglich herrschen oft große Mißverständnisse:

DDR2 Taktungen und Übertragungsdaten
Chip Modul realer Takt I/O Takt effektiver Takt Übertragungsrate pro Modul Übertragungsrate Dualchannel
DDR2-400 PC2-3200 100 MHZ 200 MHZ 400 MHZ 3,2 GB/s 6,4 GB/s
DDR2-533 PC2-4200 133 MHZ 266 MHZ 533 MHZ 4,2 GB/s 8,4 GB/s
DDR2-667 PC2-5300 166 MHZ 333 MHZ 667 MHZ 5,3 GB/s 10,6 GB/s
DDR2-800 PC2-6400 200 MHZ 400 MHZ 800 MHZ 6,4 GB/s 12,8 GB/s
DDR2-1066 PC2-8500 266 MHZ 533 MHZ 1066 MHZ 8,5 GB/s 17 GB/s

Bei DDR2-SDRAM taktet der I/O-Puffer mit der zweifachen Frequenz der Speicherchips. Hier erhält man, genau wie bei dem älteren DDR1-Standard, jeweils bei steigender und fallender Flanke des Taktsignals gültige Daten. Beim DDR-SDRAM werden mit einem Read-Kommando (mindestens) zwei aufeinanderfolgende Adressen gelesen, beim DDR2-SDRAM allerdings deren vier!
Daraus folgt: der reale Takt multipliziert mit 4 ergibt den effektiven Takt.



DDR-3 FAQs:

DDR3 Taktungen und mögliche theoretische Übertragungsdaten
Chip Modul-JEDEC realer Takt I/O Takt effektiver Takt Übertragungsrate pro Modul Übertragungsrate Dualchannel Übertragungsrate Triple Channel Übertragungsrate Quad Channel
DDR3-800 PC3-6400 100 MHZ 400 MHZ 800 MHZ 6,4 GB/s 12,8 GB/s 19,2 GB/s 25,6 GB/s
DDR3-1066 PC3-8500 133 MHZ 533 MHZ 1066 MHZ 8,5 GB/s 17,0 GB/s 25,5 GB/s 34,0 GB/s
DDR3-1333 PC3-10600 166 MHZ 667 MHZ 1333 MHZ 10,6 GB/s 21,2 GB/s 31,8 GB/s 42,4 GB/s
DDR3-1600 PC3-12800 200 MHZ 800 MHZ 1600 MHZ 12,8 GB/s 25,6 GB/s 38,4 GB/s 51,2 GB/s
DDR3-1800 PC3-14400 225 MHZ 900 MHZ 1800 MHZ 14,4 GB/s 28,8 GB/s 43,2 GB/s 57,6 GB/s
DDR3-2000 PC3-16000 250 MHZ 1000 MHZ 2000 MHZ 16,0 GB/s 32,0 GB/s 48,0 GB/s 64,0 GB/s
DDR3-2133 PC3-17000 266 MHZ 1066 MHZ 2133 MHZ 17,0 GB/s 34,0 GB/s 51,0 GB/s 68,0 GB/s
DDR3-2400 PC3-19200 300 MHZ 1200 MHZ 2400 MHZ 19,2 GB/s 38,4 GB/s 57,6 GB/s 76,8 GB/s
DDR3-2600 PC3-20800 325 MHZ 1300 MHZ 2600 MHZ 20,8 GB/s 41,6 GB/s 62,4 GB/s 83,2 GB/s
DDR3-2800 PC3-22400 350 MHZ 1400 MHZ 2800 MHZ 22,4 GB/s 44,8 GB/s 67,2 GB/s 89,6 GB/s
DDR3-2933 PC3-23460 366 MHZ 1466 MHZ 2933 MHZ 23,4 GB/s 46,8 GB/s 70,2 GB/s 93,6 GB/s
DDR3-3000 PC3-24000 375 MHZ 1500 MHZ 3000 MHZ 24,0 GB/s 48,0 GB/s 72,0 GB/s 96,0 GB/s
DDR3-3100 PC3-24800 387 MHZ 1550 MHZ 3100 MHZ 24,8 GB/s 49,6 GB/s 74,4 GB/s 99,2 GB/s

DDR3-SDRAM ist eine konsequente Weiterentwicklung des Konzeptes von DDR2-SDRAM, bei dem aber statt mit einem Vierfach-Prefetch (4 bit) mit einem Achtfach-Prefetch (8 bit) gearbeitet wird.
Die neuen Chips mit einer Kapazität von 512 MBit sollen Daten mit 8.500 MBps verarbeiten und sind damit deutlich schneller als DDR-400- oder auch DDR2-667-SDRAM. Allerdings ist die CAS-Latenz höher. Darüber hinaus benötigt DDR3-SDRAM auch nur noch 1,5 Volt statt 1,8 Volt und ist damit gerade für den mobilen Einsatz besser geeignet, bei dem es auf lange Akkulaufzeiten ankommt.
DDR3-800 bis DDR3-1600 sowie die damit aufgebauten PC3-6400- bis PC3-12800-Speichermodule sind von der JEDEC standardisiert. Alle davon abweichenden Module orientieren sich zwar grundsätzlich an den Standards, aber jeder Hersteller definiert bei den elektrischen Eigenschaften seine eigenen Spezifikationen und die arbeiten dann teilweise mit deutlich erhöhter Spannung.
Wegen der höheren Taktraten und um eine bessere Datenübertragung zu ermöglichen, wird jeder Chip der DDR3-Module mit einer kleinen Verzögerung angesteuert. Diese Änderung unterscheidet sich deutlich von DDR2, denn dort wurden noch alle Chips gleichzeitig angesprochen. Somit entfallen auch die Abschlußwiderstände auf dem Mainboard, die sich jetzt direkt auf den Speichermodulen wiederfinden. Dadurch können Reflexionen auf der Signalleitung vermieden werden. Als weiteren Vorteil dieser Anordnung können wir automatische Timg Anpassungen verbuchen, darüber hinaus wären sogar Temperaturüberwachungen der Module möglich.
Um die DDR3-Technik auf den Chips zu implementieren, ist schon einiges an Aufwand notwendig. 8-Bit-Prefetch, Lese-/Schreib-Verstärker, On-Die-Terminierung und Fly-By-Architektur zwecks Adressierung des Speichers via DQS-Signal (Data Queue Strobe) fordern ihren Tribut in Form von entsprechender DIE-Grundfläche, was die Kosten in die Höhe treib, denn der technische Aufwand dafür ist enorm.
Wie schon bei DDR1-und DDR2-SDRAM gibt es auch bei DDR3-SDRAM Registered-Module mit oder ohne ECC.

Vorsicht beim Einbau!
Auch wenn DDR2 und DDR3 Module beide über 240 Pins verfügen, ist DDR3 Speicher auf DDR2 Mainboards nicht verbaubar, die unübersehbare Kerbe ist weiter nach außen gewandert:

Zum Vergrößern bitte das Bild anklicken !
bitte klicken

Noch einmal eine kurze Zusammenfassung der prägnantesten Neuerungen bezüglich DDR3 Arbeitsspeicher:

• Acht (statt bisher vier) gleichzeitig ansprechbare Speicherbänke für effektivere Datenverarbeitung.

• Integrierte Temperatursensoren, die aber nicht von allen Herstellern genutzt werden.

• Die Anordnung der Chip-Pins wurde für höhere Taktraten optimiert.

• Eine Master-Reset-Funktion stabilisiert das RAM-Verhalten beim Einschalten des Rechners.

• Die RAM-Abschlußwiderstände wurden vom Mainboard auf den Speicherriegel verlegt, kalibrieren sich selbst und beugen so zumindest theoretisch Kompatibilitätsproblemen vor.

• Die Versorgungsspannung beträgt 1,5 Volt statt 1,8V bei DDR2.

• Der "Speicher-Cache" wurde von 4- auf 8-fach-Prefetch-Einheiten erhöht, dadurch arbeiten die Chips intern mit halbem Takt. Das senkt einerseits die Verlustleistung, erhöht aber auch die Wartezeiten zwischen der Anforderung und der Auslieferung eines Speicherinhaltes (CAS-Latency), darum sind die Speicherlatenzen bei DDR3 höher. Auf der anderen Seite sind so aber höhere Taktraten möglich, wobei die DDR3 Latenzen in kommenden Modulen noch etwas nach unten korrigiert werden dürften.

Das sich die Innovationen trotzdem in Grenzen halten, kann man einem schönen Beispiel deutlich erkennen: am Takt der Speicherzellen !
DDR400 = 200MHZ in der Speicherzelle, DDR2-800 = 200 MHZ in der Speicherzelle, DDR3-1600 = 200 MHZ in der Speicherzelle...

Stichwort Triple-Channel:

Um die Core i7 Prozessoren in einem idealen Umfeld zu nutzen, bedarf es nicht nur eines Sockel 1366 Mainboards, sondern auch eines entsprechenden Triple-Channel Speicherkits, von welchem Hersteller auch immer.
3x1GB erscheint diesbezüglich etwas mager, insofern bieten sich die aktuellen 3x2Gb Kits an, die natürlich nur auf einem 64bittigen Betriebssystem mit entsprechendem Mainboard Unterbau genutzt werden können.
Was aber genau hat sich Intel eigentlich beim Triple-Channel gedacht und wo liegen die Vorteile im Vergleich zu Dual-Channel und Single-Channel?
Intel hat den Speichercontroller seiner Core i5 und Core i7 Prozessoren endlich in den Prozessor integriert und somit den lange vorhandenen Flaschenhals des Frontsidebus eliminiert. Da AMD dies schon seit einiger erfolgreich praktiziert, war dies auch wirklich Zeit, wenn man denn technologisch Schritt halten möchte.
Die Unterschiede zwischen Dual-Channel und Triple-Channel liegen auf der Hand. Das Dualchannel Interface greift auf in Abhängigkeit vom Mainboard auf die jeweilig vorhandenen Speicherbänke zu, wobei der Datentransfer über zwei Leitungen parallel stattfindet. Das Triple-Channel Interface hat dafür drei Leitungen zur Verfügung, so daß mehr Daten in einer kürzeren Ansprechzeit bereit gestellt werden.
Noch einmal etwas deutlicher:
Im Single-Channel-System werden die Speichermodule in einem Speicherkanal installiert und es gibt nur eine Anbindung an den Speicherkontroller, der für den Datentransfer zwischen dem Speicher und dem restlichen System zuständig ist.
Im Dual-Channel-System werden die Speichermodule in zwei getrennten Speicherkanälen mit jeweils eigener Anbindung an den Speicherkontroller betrieben. Dadurch verdoppelt sich die Übertragungskapazität.
Im Triple-Channel-System existieren drei Speicherkanäle mit jeweils eigener Anbindung an den Speicherkontroller. Die theoretische Übertragungskapazität verdreifacht sich gegenüber dem Single-Channel-Modus. Der neue Intel-Prozessor Core i7 verfügt über einen integrierten Speicherkontroller. Der Vorteil: Der bisherige Front Side Bus (FSB) und die damit verbundene Latenz entfallen.

Worauf muss beim Betrieb im Triple-Channel-Modus geachtet werden?
Um das System optimal auszuschöpfen, sollten jeweils drei baugleiche, sprich in puncto Hersteller, Geschwindigkeit, Typ und Kapazität identische Module installiert werden, wobei die farbliche Zuordnung der Speicherslots zu beachten ist. Das gilt auch für eine Vollbestückung, obwohl es eigentlich egal ist, wenn alle sechs Speichermodule identisch sind und alle sechs Bänke bestückt werden. Die ersten drei Module müssen in der ersten Speicherbank und entsprechend den jeweiligen Anforderungen des Motherboard-Herstellers installiert werden. In gleicher Weise wird der zweite Dreiersatz installiert (falls auf dem Motherboard zulässig). Zur leichteren Unterscheidung von Speicherbank 1 und 2 verwenden die meisten Motherboard-Hersteller bestimmte Farben.
Die Module in Bank 1 müssen nicht dieselbe Kapazität aufweisen wie die in Bank 2. Liegen jedoch innerhalb einer Speicherbank unterschiedliche Kapazitäten vor, schaltet das System ungeachtet der Modulkonfiguration automatisch in den Single-Channel- oder Dual-Channel-Betrieb zurück !
Beachtet bitte die Motherboard-Spezifikationen der jeweiligen Hersteller für die Konfiguration von Speichermodulen und halten euch in jedem Fall an deren Vorgaben. Das gilt natürlich auch für die jeweilige Bestückung eurer Mainboards, denn deren mögliche Kapazität im Handbuch hat mit der Realität nicht sehr viel gemeinsam. Marketing und Alltagsbetrieb korrespondieren selten miteinander, darum solltet ihr euch immer eine gesunde Skepsis bewahren.
Die eben erklärten Channel Aufteilungen fallen natürlich flach, wenn sechs Module verbaut werden, denn die sechs Module erfordern eine Vollbestückung, bei der die Triple-Channel Fähigkeit aber nicht terminiert wird.




Speicher-Profile, was hat es damit auf sich?

Sind die SPD-Angaben (Serial Presence Detect) fehlerhaft oder unvollständig integriert, ist es reine Glückssache, ob das Modul korrekt betrieben wird oder nicht, insofern sind diese Daten eminent wichtig! Nun sollte man aber leichte Abweichungen nach dem ersten Systemstart mit den neuen Modulen auch nicht überbewerten, denn einige Hersteller schreiben ins SPD oft reduzierte Timings hinein (wie bei unserem Testkit), damit das System wirklich sicher startet, die optimierten Einstellungen für die Timings kann man ja anschließend im Bios durchaus manuell vornehmen. Oder man bedient sich eben der vorhandenen Profile, die wir nachstehend erläutern.

Nvidia Enhanced Performance Profiles (EPP)

Viele Hersteller setzen auf Enhanced Performance Profiles, um zusätzliche Leistungsdaten in ungenutzte SPD-Teile zu schreiben.
Konkret bedeutet dies:
Im SPD (Serial Presence Detect) werden grundsätzlich nur die ersten 96 Bit des 128 Bit großen JEDEC SPD ROM genutzt. Bit 97 bis Bit 127 können also vom jeweiligen Hersteller für eigene Informationen und Optionen verwendet werden. Die nun zur freien Verfügung stehenden 30 Bits des SPD ROMs können von Mushkin in genau zwei Varianten für die Enhanced Performance Profiles genutzt werden, denn viel Platz für das Hinterlegen von Informationen ist in 30 Bits natürlich nicht vorhanden. Entweder hinterlegt man 2 Profile oder 4, in diesen Profilen sind dann explizite Informationen wie Speicherspannung, Command Rate, Cycle Time, CAS Latency, tRCD, tRP und tRAS abrufbar.

Diese Profile sind aber nur nutzbar, wenn man über ein Mainboard mit entsprechender Kompatibilität zu diesen Profilen verfügt. In der Regel sind dies Mainboards mit Nvidia Chipsätzen ab Generation Nforce590 aufwärts, da Nvidia Initiator dieser speziellen Übertaktungsprozeduren war. Das EPP 2.0 der DDR3 Module wird nur auf den neuen Nvidia 790i Chipsätzen voll unterstützt. Ansonsten bleiben diese Profile deaktiviert und ungenutzt. Das heißt natürlich nicht, das diese Speicher nun nicht übertaktbar wären, das sind sie durchaus, man muß dies nur wie gehabt manuell einstellen und verfügt so in der Regel sogar über mehr Spielraum und Flexibilität.


Intel Extrem Performance Profile (XMP, XMP 1.2, XMP 2.0)

Auch die neuen XMP Profile von Intel arbeiten grundsätzlich sehr ähnlich im Vergleich zu EPP. Der Unterschied zu EPP liegt darin begründet, das auf entsprechenden Mainboards der Frontsidebus nicht unabhängig vom Speicherteiler eingestellt werden kann. Wer also ein aktuelles Intel Mainboard besitzt, wird feststellen, das beim Auswählen der XMP Profile im Bios nicht nur der Speichertakt, die Timings, CommandRate und die Spannung, sondern auch Frontsidebus und CPU-Multiplikator automatisch angepaßt werden.
Das ist sehr praktisch, denn so werden alle relevanten Segmente automatisch eingestellt, was eine zeitaufwendige manuelle Einstellung erspart. Natürlich geht an dieser Stelle die Individualität verloren, aber die manuellen Einstellungen bleiben dem Anwender ja unbenommen, zumal er nicht gezwungen wird, XMP zu verwenden.
Beim XMP 1.2 Profil, das für die aktuellen Sockel 1366 und 1156 Mainboards weiterentwickelt wurde, schaut die Sachlage geringfügig anders aus, denn der Frontsidebus existiert ja de Facto nicht mehr, weil der Datenbus in die CPU integriert wurde. Nichtsdestotrotz ermöglichen die XMP 1.2 Profil eine automatische Anpassung an die wichtigsten Leistungsindikatoren (BLCK, CPU Ratio, QPI und RAM Parameter), eine manuelle Einstellung ist aber auch hier wieder optioniert.

Das XMP Profil 2.0 entspricht weitestgehend den Vorzügen der früheren XMP-Versionen, findet seine Daseinsberechtigung allerdings erst seit Herstellung und vor allem Auslieferung von DDR4 Arbeitsspeicher. Die Differenzierung als solche findet wie gewohnt über die im SPD der Speichermodule verankerten Daten statt, so dass eine reibungslose Kommunikation nur dann stattfindet, wenn das SPD (im Grunde das BIOS des Arbeitsspeichers) seriös programmiert wurde. Und nur dann kann das XMP Profil auch entsprechend im BIOS eingestellt werden und seine Wirkung entfalten. Wer dem nicht traut und/oder das letzte Quentchen Leistung aus den RAM -Modulen kitzeln möchte, kann dies natürlich umgehen, in dem man stattdessen die Daten alle manuell einstellt, was aber inzwischen alles andere als trivial ist und wo wir eigentlich abraten, weil diesbezüglich sehr viele Homeuser schlichtweg überfordert wären.

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken



AMD Black Edition Memory Profile (BEMP)

Diese Profile obliegen den aktuellen AM3 Systemen, wo analog zu EPP und XMP dem Speicher entsprechende Einstellungsprofile implementiert werden, um auch hier dem Anwender die Einstellungsvielfalt durch vorgegebene Profile zu erleichtern. Das ist auch ein Grund, warum die aktuellen Ram Kits für AMD Systeme nicht auf Intel Systemen eingesetzt werden sollten. Nicht das sie nicht laufen würden, aber sie sind weder für Intel selektiert noch optimiert und das die Hersteller (in diesem Fall Corsair) nicht für einen fehlerfreien Einsatz garantieren, versteht sich fast von selbst.




2GB oder mehr Arbeitsspeicher, sinnvoll oder nicht?

Jein lautet die "klare Antwort", denn es hängt schon sehr vom Einsatzgebiet und Betriebssystem ab, ob man 2GB oder mehr im System einsetzen sollte oder nicht.
Für normale Desktopanwendungen, Windows XP und Office genügen 1 Gb noch eine ganze Weile, diesbezüglich sicherlich sogar 512MB. Für Spiele wie Battlefield 2 und Quake4, das mit weniger als 2 GB sogar Probleme produziert, sollte man über eine eventuelle Nachrüstung nicht lange nachdenken, beide Spiele profitieren davon deutlich. Unter den aktuellen Actionkracher Crysis Warhead oder GTA4 lassen sich unter Windows Vista 64-bit mit 4GB Speicher die Ladezeiten deutlich reduzieren. Wobei anzumerken ist, das allein viel Arbeitsspeicher aus einem sonst langsamen System kein schnelles zaubert, denn Flaschenhälse wie langsame CPU >langsame Grafikkarte >langsame Festplatte werden dadurch nicht kompensiert!

Eine Workstation mit Windows 7, Windows 8.1, Windows 10, aufwendiger Videoschnitt, exzessiver Gebrauch von virtuellen Maschinen, kommende Spiele, CAD, Dreamweaver und Photoshop gehören ebenso wie Zip-Programme und das völlig überfrachtete Nero 8.0/9.0/10.0/12.0 sowie auch Power DVD zu den Kandidaten, die sich über eine Speicheraufrüstung nicht beklagen.
Wer in die Zukunft investieren möchte und will, der sollte über eine Arbeitsspeicheraufrüstung intensiv nachdenken, denn 1. werden die Spieleanforderungen von den Publishern künftig kaum minimiert und 2. gab Microsoft seinerzeit für Windows Vista schon 512MB als Minimalaustattung an, bei Windows 7 waren es bereits 1024MB bis 2048MB, was auch für Windows 8.1 gilt. Das mag auf den ersten Blick hoch erscheinen, aber wenn man überlegt, wie miserabel Windows XP mit der ursprünglichen Werksvorgabe von 128 MB zurecht kam, sollte klar sein, wo wir landen werden respektive schon gelandet sind. Weder Vista noch Windows 7 sind mit 512 oder gar 1024MB RAM ernsthaft zu betreiben, dies gilt für Windows 8.1 oder Windows 10 gleichermaßen, es sei denn das Starren auf den Idle-Desktop im Schneckentempo gilt als angestrebtes Ziel...

Zur speziellen 4GB-Situation unter Windows XP, Vista, Windows 7, oder Windows 10 sowie dessen technischem Hintergrund lest bitte unseren aktualisierten ausführlichen Artikel:

Die 4GB Problematik...




Auslagerungsdatei für 4, 8, 16GB oder mehr Arbeitsspeicher einstellen:

Auch hier kursieren wilde Gerüchte, von ganzen neuen Parametern bis hin zur gänzlichen Abschaltung des viruellen Speichers (Auslagerungsdatei).
Es bringt nichts, den virtuellen Speicher abzuschalten, denn Windows 2000/XP lagert trotzdem aus und es gibt auch keine Möglichkeit, dies zu ändern, ganz im Gegensatz zu Linux, dort ist dies explizit möglich. Drüber hinaus meckern auch weiterhin speicherhungrige Programme wie Photoshop ob der fehlenden Auslagerungsdatei, egal wieviel Speicher real vorhanden ist...
Wir haben zahlreiche Tests durchgeführt und konnten performancetechnisch keine Veränderung oder gar Verbesserungen konstatieren, wenn man die Auslagerungsdatei nun noch weiter erhöht. Darum lautet unsere aktuelle Empfehlung, stellt euren Arbeitsspeicher so ein, wie in unserem Artikel beschrieben, damit fahrt ihr zur Zeit immer noch am Besten.
Unter Vista oder Windows 7 ist diese Empfehlung nicht mehr zu halten, da Vista und insbesondere auch 7 über eine gänzlich andere Speicherverwaltung verfügen, darum solltet ihr an den Werkseinstellungen auch möglichst nichts ändern, wir konnten jedenfalls keinen Optimierungsvorteil erkennen, wenn man die Auslagerungsdatei manuell vorgibt oder gar abschaltet.




Fehlerdiagnose:

Mit ausreichender Sicherheit kann man defekte RAM-Module nur im Labor diagnostizieren. Somit kann man mit Programmen zum Speichertest eigentlich nur Fehler nachweisen, nicht aber die Fehlerfreiheit. Eine Aussage auf die Fehlerfreiheit auf dem betrefffenden Board ist jedoch durchaus mit entsprechenden Tools bzw. Programmen möglich.

Verdachtsmomente sind:

• Rechner startet gar nicht.
• CRC-Fehler.
• Instabilität des Systems und unmotivierte Abstürze.
• Häufung von Bluescreens (Windows).
• Windows lässt sich nicht installieren.
• Probleme beim Zippen von großen Dateien.


Testprogramme:

• Jedes aktuelle Zipprogramm, mit dem man große Dateien (nicht unter 600Mbyte) packt und wieder entpackt.

Memtest 86

Windows Memory Diagnostic (Microsoft)

c't-ramtest 5.1


Nicht nur Speicherzellen können defekt sein, auch das SPD-EEPROM kann durchaus defekt oder schlecht (bzw. falsch) programmiert sein. Um dies zu testen, gibt es das Testprogramm "ctSPD", welches man sich unbedingt downloaden sollte, da grade das SPD häufig eine Fehlerursache ist.

c't SPD


Wir hoffen euch die komplexe Speichertechnik etwas näher gebracht zu haben. Sollten diesbezüglich Fragen auftauchen, so beantworten wir sie gerne in unseren Foren.



weiterführende Links:


Memtest Workaround

Arbeitsspeicher-Tests

Arbeitsspeicher: Die 4GB Problematik...




Wallace und Cerberus
02.06.2003 03:28 Wallace ist offline Homepage von Wallace Beiträge von Wallace suchen Nehmen Sie Wallace in Ihre Freundesliste auf
Baumstruktur | Brettstruktur
Neues Thema erstellen Thema ist geschlossen
PC-Experience » Artikel und Workshops: » Hardware, Tipps und Tricks: » Der Arbeitsspeicher-Workshop (Update 09.09.2016)


Designed by PC-Experience.de, online seit 06.August 2002
Copyright © 2002 - 2023 PC-Experience.de