High-speed hardware implementation of MDRR algorithm over a large number of queues

   
   

A pipelined linecard architecture for receiving, modifying, switching, buffering, queuing and dequeuing packets for transmission in a communications network. The linecard has two paths: the receive path, which carries packets into the switch device from the network, and the transmit path, which carries packets from the switch to the network. In the receive path, received packets are processed and switched in an asynchronous, multi-stage pipeline utilizing programmable data structures for fast table lookup and linked list traversal. The pipelined switch operates on several packets in parallel while determining each packet's routing destination. Once that determination is made, each packet is modified to contain new routing information as well as additional header data to help speed it through the switch. Each packet is then buffered and enqueued for transmission over the switching fabric to the linecard attached to the proper destination port. The destination linecard may be the same physical linecard as that receiving the inbound packet or a different physical linecard. The transmit path consists of a buffer/queuing circuit similar to that used in the receive path. Both enqueuing and dequeuing of packets is accomplished using CoS-based decision making apparatus and congestion avoidance and dequeue management hardware. The architecture of the present invention has the advantages of high throughput and the ability to rapidly implement new features and capabilities.

Une architecture canalisée de linecard pour recevoir, modification, paquets de changement, d'amortissement, d's'aligner et retirer pour la transmission dans un réseau de transmissions. Le linecard a deux chemins : le chemin de réception, qui achemine des paquets dans le dispositif de commutateur du réseau, et le chemin de transmission, qui achemine des paquets du commutateur au réseau. Dans le chemin de réception, des paquets reçus sont traités et commutés dans une canalisation asynchrone et à plusieurs étages utilisant les structures de données programmables pour la consultation de table rapide et la liste liée traversal. Le commutateur canalisé opère plusieurs paquets en parallèle tout en déterminant la destination de cheminement de chaque paquet. Une fois que cette détermination est faite, chaque paquet est modifié pour contenir la nouvelle information de cheminement aussi bien que des données additionnelles d'en-tête pour aider à l'expédier par le commutateur. Chaque paquet est alors protégé et mis en file d'attente pour la transmission au-dessus du tissu de commutation au linecard attaché au port approprié de destination. Le linecard de destination peut être le même linecard physique que cela qui reçoit le paquet d'arrivée ou un linecard physique différent. Le chemin de transmission se compose d'un circuit de buffer/queuing semblable à cela utilisé dans le chemin de réception. Mettant et retirer en file d'attente des paquets de la file d'attente est accompli en utilisant l'appareillage Cos-basé de prise de décision et l'action d'éviter de congestion et retire le matériel de la file d'attente de gestion. L'architecture de la présente invention a les avantages de la sortie élevée et de la capacité de mettre en application rapidement de nouveaux dispositifs et possibilités.

 
Web www.patentalert.com

< Method and apparatus for extracting data objects and locating them in virtual space

< Method and apparatus for digital media management, retrieval, and collaboration

> System and method for speech verification using out-of-vocabulary models

> Topological methods to organize semantic network data flows for conversational applications

~ 00125