A Harvard-architecture computer system includes a processor, an instruction cache, a data cache, and a write buffer. The caches are both set-associative in that they each have plural memories; both caches perform parallel reads by default. In a parallel read, all cache-memory locations of the selected cache corresponding to the set ID and word position bits of a requested read address are accessed in parallel while it is determined whether or not one of these locations has a tag matching the tag portion of the requested read address. If there is a "hit" (match), then an output multiplexer selects the appropriate cache memory for providing its data to the processor. The parallel read thus achieves faster reads, but expends extra power in accessing non-matching sets. A cache receiving a read request while the processor is waited performs a serial read instead of a parallel read. In a serial read, the tag match is performed before the data is accessed. Accordingly, a cache memory is accessed only if a match is found, achieving a power savings relative to a parallel read. There is no latency penalty since the parallel read cannot be completed during the wait. Thus, the power savings is achieved without impairing performance.

Un sistema informático de la Harvard-arquitectura incluye un procesador, un escondrijo de la instrucción, un escondrijo de los datos, y un almacenador intermediario del escribir. Los escondrijos son ambo fijar-sociables en que cada uno tienen memorias plurales; ambos escondrijos realizan paralelo leen por defecto. En un paralelo lea, todas las localizaciones de la escondrijo-memoria del escondrijo seleccionado que corresponde a la identificación del sistema y a los pedacitos de la posición de la palabra de una dirección leída solicitada están alcanzadas en paralelo mientras que se determina si o no uno de estas localizaciones tiene una etiqueta el emparejar de la porción de la etiqueta de la dirección leída solicitada. Si hay un "golpe" (fósforo), después un multiplexor de salida selecciona la memoria de escondrijo apropiada para proporcionar sus datos al procesador. El paralelo leído así alcanza más rápidamente lee, pero expende energía adicional en sistemas no-que emparejan que tienen acceso. Un escondrijo que recibe una petición leída mientras que se espera el procesador realiza un cuento por entregas leído en vez de un paralelo leído. En un cuento por entregas leído, se realiza el fósforo de la etiqueta antes de que los datos estén alcanzados. Por consiguiente, una memoria de escondrijo está alcanzada solamente si un fósforo se encuentra, alcanzando ahorros de una energía concerniente a un paralelo leído. No hay pena del estado latente puesto que el paralelo leído no se puede terminar durante la espera. Así, los ahorros de la energía se alcanzan sin deteriorar funcionamiento.

 
Web www.patentalert.com

< Method and apparatus for fault handling in computer systems

< System for requesting service of a vending machine

> Solving parallel problems employing hardware multi-threading in a parallel processing environment

> Technique for synchronizing faults in a processor having a replay system

~ 00084