ZeDen.net

 
 
L'excellent site AnandTech passe au microscope l'architecture du Cell, processeur issu de l'entente de trois grands noms : Sony, Toshiba et IBM.
Destiné à servir de coeur à la console nouvelle génération de Sony, la PlayStation 3, ainsi qu'à une gamme de matériel, tels des équipements embarqués sous Windows CE, le Cell dispose d'une architecture à la flexibilité très developpée.

La tendance est au "multi processeurs", soit logiques, comme dans le cas de l'Hyper Threading du P4/Xeon, soit physiques, comme dans les processeurs à venir d'AMD et d'Intel. Le Cell n'echappe pas à ce principe. Mais à la différence où AMD va sortir deux, puis quatre processeurs physiques identiques sur une même puce, le Cell est composé de neuf coeurs, de deux types différents. D'une part, il dispose d'un coeur PowerPC, dérivé du PPC 970 (dont le Apple G5 est lui même dérivé), et de l'autre, il dispose de huit processeurs "synergétiques".

Il faut comprendre ce terme dans le sens "travailler en parallèle et de concert".
Ces huit coeurs sont relativement simples, au vu des designs actuels des processeurs. Dans une console, l'une des tâches principales est d'afficher des images, et donc de les calculer. Chaque image, à chaque seconde, demande des millions de pixels, qui doivent être calculés. Cette opération est parfaitement divisible.
On l'a vu avec les cartes video 3DFX VooDoo 2, on l'a revu très récemment avec le SLI nVidia. Cependant, il ne faut pas croire que le Cell serait une carte graphique complète à elle toute seule. En revanche, certains types de calculs, entrant en compte dans le rendu final d'un pixel, pourraient être avantageusement executés par les huit processeurs synergétiques, comme par exemple tout ce qui a trait à l'intelligence artificelle, au moteur physique, ou bien à certains types de vertex ou de pixel shaders, qui ne sont rien de moins que des programmes de calculs.

Pour alimenter tous ces processeurs en données, il faut une mémoire rapide. Pour ce faire, ce sont des technologies de Rambus qui ont été employées, comme pour la PS2. Le contrôleur mémoire est intégré au processeur Cell, comme pour les Athlon 64. On a pu voir l'efficacité de cette solution pour la DDR (deux informations transmises à chaque coup d'horloge système), il est très probable qu'elle fasse aussi ses preuves pour la XDR, avec huit informations transmises à chaque coup d'horloge système.

Un prototype de Cell, gravé en 90nm SOI, a été vu tournant à une fréquence supérieure à quatre GHz. Anandtech met alors le doigt sur un élément important du design du Cell : le type de transistors. Un processeur contient plusieurs dizaines de millions de transistors, mais il en existe plusieurs types, certains étant plus faciles à faire tourner à haute fréquence que d'autres, mais étant plus compliqués à mettre en place. Il semblerait que la maitrise par IBM de certains processus industriels permettant d'utiliser ces transistors rapides soit un signe que le Cell pourra encore monter en fréquence.

Il semblerait que le Cell soit en avance sur son temps. En effet, Intel aurait dans ses cartons des projets de processeurs basés sur la même philosophie, c'est à dire un mélange de quelques gros coeurs puissants et multiusages combinés à un grand nombre de coeurs plus petits, plus simples mais plus spécialisés, mais pas avant 2010-2015 et gravés en 32nm.

Finalement, la révolution Cell aura t-elle lieu ? Va-t-on voir ce processeur envahir tous les équiments multi-média, PC et serveurs inclus. Pas si sûr. Il faudrait que cette architecture soit compatible avec le X86, ce qui n'est pas le cas. Certains pensent à des techniques de code morphing, comme ce qui est utilisé par les processeurs Transmeta. On a vu le peu de succès commercial de cette technique, pourtant séduisante sur le papier.

N'oublions pas que dès que des standards sont en jeux, ce n'est pas le plus rapide, le plus puissant ou le "mieux" qui gagne toujours.
Le VHS a triomphé du V2000, pourtant meilleur, windows 95 n'a fait qu'une bouchée de OS/2 Warp et l'itanium 2 est peu à peu abandonné au profits des Opterons. C'est souvent l'aspect commercial qui détermine le succès. S'il y a deux types d'architectures concurrentes, si la première est 50% supérieure, mais deux fois plus dure à mettre en place et deux fois plus chère que la seconde, son esperance de vie est bien compromise. Le prix du Cell sera donc un facteur determinant.

Lire l'article complet (en anglais) ici
par Xpierrot 10 commentaires, dernier par mamadou
Partager | Source : Anandtech

Commentaires

Bibi

Ex admin
Nb msg : 604
(#1) 20 mars 2005 à 15h59
De toute façon, on ne va pas tarder à être limité par les transistors eux-mêmes. En effet, on commence à atteindre les limites des matériaux qui les constituent. On ne pourra plus augmenter leur efficacité, que ce ne soit en diminuant la taille ou en augmentant leur capacité de conduction. Les matériaux que l'on utilise risquent de fondre trop facilement.

Il faudra donc trouver de nouvelles solutions à ce problème, ou arrêter de diminuer constament la taille des processeurs...
Xpierrot

Responsable Hardware de Zeden
Nb msg : 1500
(#2) 20 mars 2005 à 16h36
D'ici là, on aura peut etre enfin des ordinateurs soit photoniques, soit quantiques... avec un peu de chance
Marchez doucement car vous marchez sur mes rêves
Bibi

Ex admin
Nb msg : 604
(#3) 20 mars 2005 à 17h00
ou organique. Mais la réponse est non. Ils ne valent pas grand chose pour l'instant. Le seul qui peut peut être arrivé à concurrencer le PC sera le quantique. Mais on en est encore très loin
Xpierrot

Responsable Hardware de Zeden
Nb msg : 1500
(#4) 20 mars 2005 à 17h10
des pc organiques... des neurones de limaces dans un liquide nouricien interfacés a du silicium... ca fait un peu SF quand meme ;-)
Marchez doucement car vous marchez sur mes rêves
VooDooS

Admin serveur UT2K4
Nb msg : 151
(#5) 20 mars 2005 à 19h23
Est-ce que quelqun pourrai m'expliquer de quoi est constitué un ordinateur quantique, ou photonique ???
Comment ca marche / marchera ?
Xpierrot

Responsable Hardware de Zeden
Nb msg : 1500
(#6) 20 mars 2005 à 19h32
ordinateur photonique : a base de lasers et de miroirs, le probleme etant de miniaturiser le tout, et de mettre des millions de miroirs et qu'ils puissent commuter. au lieu d'avoir des semi conducteurs electrique, on pourrait imaginer avoir des semiconducteurs lumineux

ordinateur quantique : beaucoup plus compliqué a expliquer...
en fait, pour l'instant, un transistor n'a que 2 etats : 0 ou 1. avec le quantique , un "transistor" pourrait avoir un nombre beaucoup plus elevés d'etats. y a eu des proto de fait, qui utilisait des systeme a resonnance magnetique nucleaire, comme dans les hopitaux, car ils utilisait non pas des transistors en silicium mais des molecules chimiques... d'ou le "organique" de bibi...
enfin je ne suis pas expert dans le domaine.
Marchez doucement car vous marchez sur mes rêves
Bibi

Ex admin
Nb msg : 604
(#7) 20 mars 2005 à 19h56
Pour compléter ce qu'à dire Pierrot :

On va essayer d'expliquer l'ordinateur quantique assez simplement. Tout d'abord, en quantique, on ne parle pas de position excate d'une particule mais en fait une probabilité de précence à un endroit. Ceci implique un concept fondament de la mécanique quantique mais très abstrait : une particule peut se trouver à deux endroits différents différents, en même temps, si la probabilité de précence de la particule à ces endroits n'est pas nulle. C'est sur ce principe que repose les ordinateurs quantiques. Au lieu de n'avoir que deux etats bien distincts, 0 ou 1, un etat quantique peut avoir les etats 0 ET 1 en même temps. Ainsi, un ordinateur quantique pourrait faire des calculs en parallèle, au contraire des ordinateurs actuels qui les font en série. Ainsi, les temps de calculs seraient divisés par des milliers

Par contre, le problème est de pouvoir créer les particules qui remplaceraient les bits, ce que les scientifiques appellent les qubits. Pour l'instant, les idées se sont portées vers les photons (ce qui compose plus ou moins la lumière) ou alors ce que l'on appelle spin d'atomes. Ces derniers seraient utilisées un peu de la même manière que dans la Résonance Magnètique, dont l'application la plus connue est l'IRM (Imagerie par Résonance Magnétique). Une autre, un peu moins connu est la lecture des bits sur les disques durs.



[Édité par Bibi le 20/03/2005 à 20h03.]
Bibi

Ex admin
Nb msg : 604
(#8) 20 mars 2005 à 20h17
Pour les autres types d'ordinateurs un peu futuristes, on peut trouver des ordinateurs complètement composés de montages optiques, avec des lasers, des lentilles, l'inconvéniant principal étant la taille que doivent avoir tout ces montages.

Il y a aussi ce que j'ai appelé les ordinateurs organiques. Ceux-ci seraient composés de matériaux organiques en vue de réaliser des circuits "biologiques", ou "biochips", qui simuleraient le fonctionnement du cerveau.

Bien sûr, tout ceci ne sont que des idées et il n'y a peu de chances que ceux-ci voient le jour. Le seul qui a ses chances est l'ordinateur quantique.
worms-3000

Visiteur
(#9) 05 mai 2005 à 02h25
moi je suis content que le ps3 soi plus fort que le xbox360 mais tout le monde dit que le ps3 ses nul
mamadou

Visiteur
(#10) 26 août 2005 à 10h36
je trouve cette remarque assez limitée puisque aucune des deux consoles n'a encore vu le jour, tu ne peux donc pas les juger. De plus la ps3 sortira bien longtemps aprés la xbox360 donc il est logique que les performances soient meilleures...Pour savoir réellement il faut attendre et éviter les à prioris !
[!] Commentaires fermés pour cette nouvelle.