Nach dieser ganzen Theorie nun endlich etwas Praxis: Was passiert, wenn Daten aus dem Speicher gebraucht werden? Für den Datenabruf gibt es beim handelsüblichen SDRAM 14 Adressleitungen, die die Adressen der gesuchten Daten im Speicher übermitteln. Einmal gibt es das RAS (Row Access Signal) für die Reihe und einmal das CAS (Column Access Signal) für die Spalte. Hat der Speicher die Anforderung \"kapiert\", schickt er die Daten von dieser Position und allen anderen Spalten aus der gleichen Zeile auf den Speicherbus.
Je nach Programmierung schickt der Speicherbaustein so lange Daten, bis er ein Stopp-Signal erhält. Der Vorteil dieses Burst-Modus ist es, dass nebeneinander liegende Daten nicht Stück für Stück angefordert werden müssen, sondern \"in einem Rutsch\" geliefert werden, was viel Zeit spart. Trotzdem fallen zwischen den einzelnen Anforderungssignalen noch Wartezeiten an, auf diese Problematik gehe ich im nächsten Teil ein.
Wie schon eingangs erwähnt, verliert eine Speicherzelle beim Auslesen ihren Inhalt. Daher sind Schreibzugriffe schneller als Lesezugriffe, denn es muss ja nur geschrieben werden, der Lesevorgang davor entfällt logischerweise.
RAM-Evolution
Es gab und gibt mehrere Arten von RAM-Bausteinen, fast ausgestorben ist der reine DRAM (Dynamic RAM) der von den Anfangstagen des PCs bis Anfang der 90er Jahre benutzt wurde und trotz zwischenzeitlicher Geschwindigkeitserhöhungen recht langsam war, darauf folgten FPM-RAM (Fast Page Mode) und EDO-RAM (Extended Data Output), die jeweils geringe Geschwindigkeitszuwächse brachten.
Momentan ist SD-RAM \"state of the art\", er kann mit bis zu 133 MHz betrieben werden und stellte eine einigermaßen spürbare Erhöhung der Geschwindigkeit dar. Die Besonderheit bei SD-RAM ist, dass er, wenn einmal Daten einer bestimmten Adresse angefordert werden, die \"daneben\" liegenden Daten im Burst-Modus hinterher schickt. Dadurch sind keine erneuten Anforderungen nötig, was enorm Zeit spart.
Ein handelsüblicher SD-RAM-Riegel
Demnächst werden noch ein paar aufschlussreichere Bilder folgen.
Der nächste schritt ist DDR-SDRAM. Dies ist keine bisher geheim gehaltene Entwicklung aus dem Arbeiter- und Bauernstaat (Den gibt\'s nämlich nicht mehr, auch wenn VIA auf seiner Homepage eine \"DDR-Zone\" eingerichtet hat...), sondern eine Weiterentwicklung des SD-RAMs. DDR heiß hierbei nämlich Double Data Rate. Diese Verdopplung der Datenübertragungsrate wird dadurch erreicht, dass pro Taktsignal zwei statt nur einem Bit übertragen werden. Um genau zu sein, wird nicht wie bisher nur auf der steigenden Flanke des Taktsignals ein Bit übertragen, sondern auch auf der fallenden Flanke.
Doch da diese Entwicklung nicht auf Intels Mist gewachsen ist, sondern von AMD und Via erdacht wurde, ist man bei Intel der Meinung, dass man noch etwas viel besseres auf den Markt bringen müsste. Daher schloss man mit der Firma Rambus ein Abkommen - Intel wollte den Rambus-Speicher fortan als Standard etablieren. Nur leider gibt es da ein kleines Problem: Rambus-Speicher ist etwa doppelt so teuer wie DDR-SDRAM, aber nur wenig schneller. Der hohe Preis liegt vor allem an den vielen zusätzlichen Schaltkreisen auf den Chips, die nötig sind, um diese Technik zu realisieren. Es wird mit hohen Taktfrequenzen (bis 800 MHz) gearbeitet, da es aber nur acht Datenleitungen gibt schlägt dieser Vorteil nicht ganz so stark zu Buche.
|