{{{ #!html

TP5: Introduction d'un coprocesseur matériel spécialisé

}}} [[PageOutline]] TP Précédent: MjpegCourse/Multipipe = 0. Objectif = L'objectif de ce TP est de vous montrer comment introduire un coprocesseur matériel spécialisé dans une architecture matérielle comportant principalement des processeurs programmables. L'introduction d'un accélérateur matériel n'est pas toujours justifiée. [WikiPedia:Amdahl's_law "La loi d'Amdahl"] précise qu'il est inefficace d'accélérer un traitement qui ne représente qu'une petite partie du temps de calcul total de l'application. De plus, il faut prendre en compte les temps de communication entre le coprocesseur et le reste de l'application. La tâche {{{idct}}} étant la plus gourmande en temps de calcul, nous allons analyser les gains de performance apportés par l'implantation de la tâche {{{idct}}} comme un processeur matériel spécialisé. Pour éviter de re-écrire toute l'application logicielle, on ne veut pas modifier la structure du TCG. Par conséquent, le coprocesseur matériel doit utiliser les mêmes canaux de communication MWMR que ceux utilisés par la tâche logicielle. Il faut donc que le coprocesseur matériel respecte le protocole MWMR. Pour simplifier le travail de l'outil de synthèse de coprocesseur, et séparer clairement les fonctions de calcul et les fonctions de communication, ce n'est pas le coprocesseur matériel synthétisé qui implémente le protocole MWMR. On utilise pour accéder aux canaux MWMR un composant matériel générique, appelé contrôleur MWMR. Cet initiateur VCI est capable de lire ou d'écrire dans les canaux MWMR (en respectant le protocole à 5 étapes), et fournit au coprocesseur autant d'interfaces de type FIFO que celui-ci en a besoin. Ce composant est également une cible VCI, puisqu'il doit être configuré par le logiciel. C'est ce même contrôleur MWMR qui a déjà été utilisé pour interfacer les composants matériels `Ramdac` et `Tg`. Vous repartirez de la plateforme du [MjpegCourse/Multipro TME3]: !VgmnNoirqMulti, pour une architecture comportant 3 processeurs, et vous modifierez cette architecture, pour remplacer un des processeurs programmable par un coprocesseur matériel dédié à la transformation IDCT. [[Image(vgmn_coproc.png, align=right)]] Reprenez les fichiers du TME3: * La description de la plateforme matérielle * La description de l'application (c'est à dire le TCG et les directives de déploiement) * Le code des tâches (`Libu` ne gère qu'un seul pipeline et `Split` n'existe pas) [[Image(MjpegCourse:q.gif)]] Rappelez le temps nécessaire pour décoder 25 images, dans le cas d'un déploiement utilisant 3 processeurs, lorsque la tâche {{{idct}}} est placée sur le premier processeur, que la tâche {{{vld}}} est placée sur le second processeur, et que toutes les autres tâches (demux, libu, iqzz) se partagent le troisième processeur. = 1. Coprocesseur virtuel = Il existe plusieurs solutions micro-architecturales pour la réalisation d'un coprocesseur matériel spécialisé. En première approximation, le coût matériel est proportionnel au le nombre d'opérateurs arithmétiques travaillant en parallèle, et ce nombre est inversement proportionnel au temps de calcul. Pour éviter de gaspiller du silicium, il faut - avant de se lancer dans la synthèse - évaluer précisément la puissance de calcul requise pour le coprocesseur, une fois celui-ci placé dans son environnement de travail. Il faut donc faire de l'exploration architecturale ''avant synthèse''. [[Image(threader.png, align=right)]] Pour cela, on commence par ''émuler'' le coprocesseur matériel - sans le synthétiser - en encapsulant la tâche logicielle {{{idct}}} existante dans un composant matériel générique qui est un service fourni par l'environnement DSX. * du côté matériel, ce composant s'interface avec le composant matériel ''contrôleur MWMR'' * du côté logiciel, ce composant dialogue avec un processus hébergeant la tâche logicielle {{{idct}}}. Ceci permet une utilisation du code existant - sans modification - pour effectuer les calculs qui devront être réalisés par le coprocesseur matériel. En pratique, la simulation dans ce mode consiste à exécuter un programme parallèle comportant deux processus UNIX communicant entre eux par des ''pipes''. Le premier processus est le simulateur SystemC modélisant l'architecture matérielle (y compris le contrôleur MWMR et le composant d'émulation), le second processus est la tâche logicielle encapsulée. Pour utiliser un tel coprocesseur ''virtuel'', il faut modifier trois choses dans la description DSX: * dans la définition du modèle de la tâche {{{idct}}}, il faut ajouter l'implémentation `SyntheticTask()`. Le coprocesseur matériel étant paramètrable, il faut également définir un nouveau paramètre `EXEC_TIME` dans la liste des paramètres de la tâche {{{idct}}}. Ce paramètre permet de spécifier le nombre de cycles utilisés par le coprocesseur matériel pour effectuer la transformation IDCT d'un bloc de 64 pixels. {{{ TaskModel( 'idct', ports = {'input':MwmrInput(64*4), 'output':MwmrOutput(64), }, impls = [ SwTask( 'idct', stack_size = 4096, sources = [ 'idct.c' ], defines = [ 'WIDTH', 'HEIGHT', 'EXEC_TIME' ] ), SyntheticTask() ] ) }}} * La valeur du paramètre EXEC_TIME doit être définie au moment où on instancie la tâche {{{idct}}} dans la plateforme. {{{ idct = dsx.TaskModel.getByName('idct').getImpl(soclib.HwTask) ctrl, coproc = idct.instanciate(arch, 'idct0', 'idct0_ctrl', defines = {"EXEC_TIME":"1024",'WIDTH':"48",'HEIGHT':"48"}) ctrl.addSegment('idct_ctrl', 0x73400000, 0x100, False) ctrl.vci_initiator // vgmn.to_initiator.new() ctrl.vci_target // vgmn.to_target.new() }}} * Dans la partie déploiement, il faut déployer la tâche {{{idct}}} comme une tâche matérielle (comme on l'a fait pour les tâches {{{ramdac}}} ou {{{tg}}}). {{{ mapper.map( 'idct', coprocessor = ..., controller = ... ) }}} Le coprocesseur matériel IDCT (comme beaucoup de coprocesseurs matériels orientés "flot de données'") exécute une boucle infinie dans laquelle il effectue successivement les actions suivantes: 1. lecture d'un bloc de 64 coefficients du canal MWMR d'entrée vers une mémoire locale, 1. calcul d'un bloc de 64 pixels, et stockage de ces pixels dans la mémoire locale (distinct du bloc d'entrée), 1. écriture de ces 64 pixels de la mémoire locale vers le canal MWMR de sortie. Les temps de communication correspondant aux étapes 1 et 3 sont précisément décrits par le simulateur SystemC, qui reproduit (cycle par cycle) le comportement des interfaces FIFO entre le coprocesseur émulé et le contrôleur MWMR (y compris en cas de contention pour l'accès à la mémoire). [[Image(MjpegCourse:q.gif)]] Sachant que les interfaces FIFO matérielles font transiter des mots de 32 bits, combien de coefficients sont transférés par cycle sur l'interface FIFO d'entrée? Combien de pixels sont transférés par cycle sur l'interface FIFO de sortie? Ajoutez-y une estimation des temps de transferts dus à l'accès aux deux canaux MWMR (les 5 étapes). En déduire les durées minimales (en nombre de cycles) pour les étapes 1 et 3 ci-dessus. Le nombre de cycles nécessaires pour exécuter l'étape 2 ci-dessus (temps de calcul pour un bloc de 64 pixels) est défini par la valeur du paramètre EXEC_TIME, mais si on ne modifie pas le code C de la tâche {{{idct}}}, ce calcul sera effectué "en temps nul" du point de vue du matériel. Pour préciser le nombre de cycles d'exécution pour l'étape 2, il faut modifier le code C de la tâche {{{idct}}}, et insérer, entre les deux primitives `srl_mwmr_read()` et `srl_mwmr_write()`, un appel à la la fonction `srl_busy_cycles()`. {{{ srl_mwmr_read(); ... srl_busy_cycles( EXEC_TIME ); ... srl_mwmr_write(); }}} L'argument définit le nombre de cycles que prendrait une version matérielle du même traitement, et modélise donc le temps de calcul (voir SrlApi). EXEC_TIME est issu des paramètres `defines` de la tâche. [[Image(MjpegCourse:q.gif)]] Pour quelle raison peut-on affirmer sans aucune expérimentation (c'est à dire sans aucune simulation), qu'il est sans intérêt de synthétiser un coprocesseur matériel dont le temps de calcul soit inférieur à un millier de cycles? Modifier la description DSX pour déployer l'application MJPEG sur une architecture comportant 2 processeurs MIPS et un coprocesseur ''virtuel'' pour la tâche {{{idct}}}. [[Image(MjpegCourse:q.gif)]] Mesurez le nombre de cycle pour décompresser 25 images, en faisant varier la valeur du paramètre ''EXEC_TIME''. On essaiera les valeurs 100, 500, 1000, 4000, 8000, 16000. En déduire un objectif de performance "raisonnable" pour la synthèse du coprocesseur IDCT. = 3. Coprocesseur matériel = On va maintenant utiliser un "vrai" coprocesseur matériel IDCT, pour lequel il existe un modèle de simulation dans la bibliothèque SoCLib. Ce coprocesseur matériel est générique, en ce sens qu'on peut paramètrer le nombre de cycles pour effectuer la transformation IDCT d'un bloc de 64 pixels. Compte-tenu des différentes implémentations effectivement disponibles, les valeurs possibles de ce paramètre sont les suivantes: * 160 cycles : le coprocesseur contient 29 additionneurs et 11 multiplieurs. * 576 cycles : le coprocesseur contient 5 additionneurs et 3 multiplieurs. * 704 cycles : le coprocesseur contient 2 additionneurs et 1 multiplieur. * 1856 cycles : le coprocesseur contient 1 additionneur et 1 multiplieur. Remplacez dans le modèle DSX de la tâche {{{idct}}}, la déclaration `SyntheticTask()` par une déclaration de coprocesseur matériel: {{{ from soclib.hwtask import HwTask, MwmrCoproc, SyntheticTask TaskModel( 'idct', ports = {'input':MwmrInput(64*4), 'output':MwmrOutput(64), }, impls = [ SwTask( 'idct', stack_size = 4096, sources = [ 'idct.c' ], defines = [ 'WIDTH', 'HEIGHT' ] ), # SyntheticTask(), MwmrCoproc( module = 'caba:fifo_idct', from_coproc = [ 'output:to_ctrl' ], to_coproc = [ 'input:from_ctrl' ], config = [], status = [], latency = 128, # 576, 704, 1856 word_t = 'uint32_t' ) ] ) }}} Relancez la simulation de cette nouvelle plate-forme, pour les 4 valeurs possibles du paramètre. [[Image(MjpegCourse:q.gif)]] Dans le cas ou l'introduction d'un coprocesseur matériel vous semble justifiée, dites quelle implémentation matérielle vous recommandez (parmi les 4 implémentations disponibles), en justifiant votre choix. [[Image(MjpegCourse:q.gif)]] Quel intérêt a-t-on à utiliser un coprocesseur virtuel pendant les phases d'exploration architecturale ? = 4. Compte-Rendu = Comme pour les TP précédents, vous rendrez une archive contenant: {{{ $ tar tzf binome0_binome1.tar.gz tp5/ tp5/rapport.pdf tp5/mjpeg/ tp5/mjpeg/vgmn_noirq_multi.py tp5/mjpeg/mjpeg.py tp5/mjpeg/src/ tp5/mjpeg/src/iqzz/iqzz.c tp5/mjpeg/src/idct/idct.c tp5/mjpeg/src/libu/libu.c }}} Cette archive devra être livrée avant le jeudi 20 janvier 2011, 18h00 à [MailAsim:joel.porquet Joël Porquet] = Suite = TP Suivant: MjpegCourse/Synthese