Tout d’abord… joyeux noël à tous!!!
Allez, je me lance, mais attention, je ne lance pas du tout une polémique ici! Le dernier éditorial de jeux sur un plateau souleve déja le sujet de subjectivité des tests et avis concernant les jeux, et celui ci me parait plein de bon sens, il est évident qu’un avis ne concerne que celui qui l’écrit, et c’est à nous d’en faire ou penser ce qu’on veut. Cela dit, je suis étonné de constater que ca fait quelques mois que les notes attribuées ne correspondent plus du tout aux miennes!!! Et ca m’étonne, tout simplement. Est-ce que je suis moins dans le coeur de cible? Des jeux comme leonardo sont pas très bien notés, contrairement à d’autres, peut-être plus familiaux, qui prennent de très belles notes… Etrange! Bon, soyons clair, ça ne change rien à ma façon d’acheter ou de jouer, je n’achete d’ailleurs pas le mag pour les critiques (j’ai d’ailleurs un pote qui ne comprend pas pourquoi je l’achete, avec tout ce qui se trouve sur le net, mais franchement, le contact au papier, j’adore, l’attente du facteur, tout ca… rien à faire, j’adhere à fond!);
En définitive et pour me résumer, est ce que les testeurs du mag ne s’'adressent finalement pas d’avantage à un public familial (ce qui n’est certainement pas péjoratif) qu’aux amateurs de mécaniques allemandes bien huilées dont je fait partie? Ou bien ces memes testeurs ne sont ils pas tout simplement davantage amateurs de jeux plus léger, qui me correspondent moins?
J’ai essayé de mettre le moins d’éléments risquant d’entrainer une polémique, j’ai pas du tout envie de revoir le phénomène BattleLore qui a eu lieu il y a quelques semaines, ni que certains auteurs/rédacteurs ne se sentent agressés! Olivier Arneodo parlait meme de lettres de menaces! Dans le microcosme du milieu du jeu, j’en reviens toujours pas…
Voili voilou, on avait déja abordé le sujet pour des critiques concernant certains jeux plus précis (je me souvient du débat sur celle de la fureur de Dracula), je m’attends pas trop à des explications quelconques ici, plutot des réactions pour voir comment les trictraciens se situaient par rapport à tout ca…
merlin
Merlin,
Pour info, les tests de Fury of Dracula et de Leonardo Da Vinci sont de moi et je suis vraiment pas un fan des jeux dits “familiaux”.
Par contre, si tu lis mes articles tu verras les raisons pour lesquelles j’ai donné ces notes.
Jusqu’ici, beaucoup de personnes parlent des notes mais pas des points soulevés dans les articles …
Romuald AKA Radek
Je pense que chacun peut avoir son avis pour un jeu mais ce qui peut être dérangeant c’est que la personne qui critique u jeu ait un avis tout à fait différent de la majorité.
Pour Leonardo da vinci (auquel je n’ai jamais joué et je ne suis donc pas à même de juger le jeu), Radek en a fait la critique et met une cote bleue.
Quand on voit le résumé des évaluations de tous les autres testeurs, ily a 2 cotes jaunes et 3 cotes vertes.
Pourquoi alors faire le test par la seule personne qui n’a pas apprécié ?
Ce qui pourrait être chouette dans un tel cas, c’est de faire 2 analyses du jeu: 1 par 1 personne qui n’aime pas (en justifiant pourquoi) et 1 par 1 personne qui adore (en justifiant aussi pourquoi).
Le mécanisme de base pouvant être expliqué par une des 2 personnes ou 1 personne neutre.
salut radek,
merci pour ta réponse, mon post, tu l’auras compris, ne remettait pas du tout en cause les auteurs des articles ni leurs contenus, juste un étonnement de ne pas me retrouver dans beaucoup des notes données.
Mon post n’avait rien de spécifique vis à vis de tes articles.
J’ai pris leonardo comme exemple parce qu’il était dans le dernier JSP, quand à dracula, j’en ai pas parlé (si ce n’est pour dire qu’on en avait parlé auparavent!)
Je n’ai pas parlé du contenu des articles vu que je n’en vise aucun très particulierement.
C’était juste un remarque étonnée de ma part.
merlin
Alain13 dit:Je pense que chacun peut avoir son avis pour un jeu mais ce qui peut être dérangeant c'est que la personne qui critique u jeu ait un avis tout à fait différent de la majorité.
Pour Leonardo da vinci (auquel je n'ai jamais joué et je ne suis donc pas à même de juger le jeu), Radek en a fait la critique et met une cote bleue.
Quand on voit le résumé des évaluations de tous les autres testeurs, ily a 2 cotes jaunes et 3 cotes vertes.
Pourquoi alors faire le test par la seule personne qui n'a pas apprécié ?
Ce qui pourrait être chouette dans un tel cas, c'est de faire 2 analyses du jeu: 1 par 1 personne qui n'aime pas (en justifiant pourquoi) et 1 par 1 personne qui adore (en justifiant aussi pourquoi).
Le mécanisme de base pouvant être expliqué par une des 2 personnes ou 1 personne neutre.
+1
C'est un "problème" qui a déjà été soulevé dans de précédents posts.
Je n'ai jamais compris pourquoi ce n'était pas un avis "global" représentatif des personnes ayant testés le jeu. Un peu à la Première ou Studio pour le cinéma où la note est représentative de l'impression de la rédaction. Quand la rédaction est très divisée, il y a une version pour et une contre.
Je trouve que le test y gagnerait en lisibilité.
Bonjour à tous,
En tant que rédacteur de JSP je me permet une petite incursion pour expliquer un peu la façon dont les choses se passent. A chacun d’avoir son avis sur la question, mais au moins vous aurez l’idée d’une méthode (ce n’est que la mienne).
Primo quelques pré-requis :
1 - Tout le monde ne peut pas tester tous les jeux. C’est impossible. D’autant que la plupart d’entre nous vivent au 4 coins de la France. Groupes de joueurs différents, styles différents, goûts différents, tout ça…
2 - Pour faire un bon test il faut au minimum 5-6 parties dans au moins 3 ou 4 configurations différentes, tant au nombre de joueurs qu’au public de la partie. (là encore ça dépend du jeu - par exemple jeu à 2 = une seule configuration, mais c’est rare).
3 - Enfin il y a le background du testeur. Je pense pouvoir dire que chacun d’entre nous est plus ou moins ouvert à tout, mais il y des types de jeux qui intéressent/plaisent plutôt à l’un qu’à l’autre.
Sur la méthode :
En général, je consacre les 3/4 d’un article à des données que je qualifierai d’objectives et 1/4 à des données plus subjectives. Les données objectives sont l’originialité des mécanismes, le rapport au thème, le matériel de jeu. J’essaie de mettre en exergue les points qui m’ont semblé intéressants et les points qui me semblent rédhibitoires. J’essaie d’être le plus neutre possible, bien que parfois cela soit difficile. De plus il peut arriver, lorsqu’un jeu m’a particulièrement enthousiasmé ou à l’inverse, lorsqu’il a été particulièrement pénible de le tester, de me lâcher un peu… mais c’est rare.
De plus je pars du principe que la cible de mon article sera particulièrement un joueur moyennement informé et/ou peu cible du type de jeu critiqué. Ma base étant qu’un joueur passionné aura tout loisir de s’informer sur le net, ou aura eu l’occasion de tester le jeu. Tout cela afin que le public le plus large possible puisse lire sans se sentir totalement largué.
Enfin les notes.
Autant vous dire que ce point a fait de nombreux débats aux sein de la rédaction et continue à en faire. Ce n’est pas facile de résumer un jeu à une note, qu’elle soit sur 4, 5 ou 20.
Depuis que j’écris dans JSP le système de notation a été changé 2 fois, et il n’est toujours pas satisfaisant pour les uns ou les autres.
Perso je m’adapte. Je pars du principe que la note ne représente qu’une tendance, et se doit d’apporter une information supplémentaire à l’article. Par exemple un jeu qui aura une critique moyenne, parce que les auteurs nous ont habitué à mieux, ou encore parce qu’il existe d’autres jeu du même type plus interessant, pourra avoir une bonne note parce que le jeu n’est pas mauvais en-soi.
L’inverse étant plus rare pour ce qui me concerne.
Enfin n’oublions pas que les notes sont pondérées par les “+” et les “-” et les “vous aimerez si” et “vous n’aimerez pas si”. Et enfin il y a un résumé des autres rédacteurs sur les jeux testés, avec leurs notes, en fin de magazine.
L’idée étant que ce qui fait “la note” réelle du jeu est :
(Article) + (Note) + (“+/-”) + (“Aime/Aime pas”) + (Autres rédacteurs).
Logiquement avec tout cela a peu près tous les lecteurs doivent pouvoir avoir l’information la plus large possible et se faire une opinion a priori.
Parce que, et toujours en ce qui me concerne, l’objectif est bien de donner des informations au lecteur pour qu’il puisse se faire sa propre idée et non lui dire quoi penser.
Un post complet consacré au sujet dans le forum JSP : http://www.jsp-mag.com/forum/phpBB2/viewtopic.php?t=992
Cdt.
Christophe Brico alias Kadotori.
Alain13 dit:Je pense que chacun peut avoir son avis pour un jeu mais ce qui peut être dérangeant c'est que la personne qui critique u jeu ait un avis tout à fait différent de la majorité.
Pour Leonardo da vinci (auquel je n'ai jamais joué et je ne suis donc pas à même de juger le jeu), Radek en a fait la critique et met une cote bleue.
Quand on voit le résumé des évaluations de tous les autres testeurs, ily a 2 cotes jaunes et 3 cotes vertes.
Pourquoi alors faire le test par la seule personne qui n'a pas apprécié ?
Tiens, Bruno Faidutti expliquait au contraire il y a peu sur ces mêmes forums que les tests de JsP étaient souvent plutôt confiés à des personnes ayant aimé le jeu, plutôt qu'à des personnes n'ayant pas apprécié. Ce qui devait permettre à chaque jeu de trouver son public. Il expliquait que d'habitude, on demandait qui avait envie de critiquer tel ou tel jeu, et que forcément, souvent, c'était donc des gens qui avaient aimé qui prenaient la plume. OK, c'est une position que je respecte, même si ça n'aurait pas été la mienne.
Je veux bien admettre qu'il ne s'agisse pas d'une procédure systématique, mais du coup c'est peut-être un peu dommage pour certains très bons jeux qui, comme Leonardo, écopent d'une note un peu sévère.
Bon, je ne veux absolument pas relancer de polémique non plus, mais on évoquait le test de Battle Lore sur un autre topic, et dans le cas de ce jeu précis, on a demandé à quelqu'un qui adorait le jeu de venir le critiquer. Pourquoi ne pas élargir le concept à tous les jeux alors? Parce que là, à mes yeux, ça fait malheureusement un peu deux poids, deux mesures...
Bonjour,
Ce serait bien d’ajouter à la fin du test du jeu, la moyenne des notes de tous les testeurs, genre “moyenne de la rédac”.
C’est rigolo parce que j’ai aussi été surpris et quelque part mécontent de la note attribuée à Lenoardo. Comme quoi, on veut toujours voir des éloges sur les jeux que l’on adore et on supporte mal qu’on les rabaisse ![]()
Kadotori dit: Les données objectives sont l'originialité des mécanismes, le rapport au thème, le matériel de jeu.
Toutes ces données sont en partie subjectives.
L'originalité est une donnée vraiment subjectives, le rapport au thème reste assez subjectif, et le matériel reste un peu subjectif (moins que les deux autres, mais quand même pas mal). Rien que le rapport bois/plastique rend la donnée matériel subjective.
La seule chose qui ne soit pas subjective, c'est les règles. Tout le reste est plus ou moins subjectif, est plutôt plus que moins. C'est ce qui rend la critique si difficile.
loic dit:Toutes ces données sont en partie subjectives.
L'originalité est une donnée vraiment subjectives, le rapport au thème reste assez subjectif, et le matériel reste un peu subjectif (moins que les deux autres, mais quand même pas mal). Rien que le rapport bois/plastique rend la donnée matériel subjective.
La seule chose qui ne soit pas subjective, c'est les règles. Tout le reste est plus ou moins subjectif, est plutôt plus que moins. C'est ce qui rend la critique si difficile.
Je trouve que c'est une vision un peu extrême. Quand on parle d'objectivité, il ne s'agit pas d'un absolu. Il s'agit simplement de mettre en évidence des points, qui, par rapport à un contexte, un type/genre, ou toute autre donnée extérieure à soi sont notables.
Par exemple le système du prévot dans Caylus me semble pouvoir être qualifié d'original dans le contexte ludique dans lequel il est sorti et par rapport à un public de joueur moyen. On trouvera certainement des contre exemples, mais globalement, je ne pense pas que l'on dénature le terme en l'employant de cette façon.
Sur le thème on pourra qualifier de bonne adequation les jeux dans lesquels le travail des auteurs a consisté à permettre une bonne immersion, ou encore une esthétique qui correspond. Et à l'inverse beaucoup de jeux prennent un thème comme support sans vraiment l'exploiter. Je pense pouvoir dire qu'un jeu comme "La Guerre de l'anneau" ou "Und R(h)um un Ehre" sont des jeux à thème et à l'inverse un jeu comme "Tigre & Euphrate" a un thème plaqué (aussi bon ou mauvais soient-ils les uns ou les autres).
Je ne reviendrait pas sur le matériel mais admettons tout de même qu'il y a une différence entre un jeu FFG, ou encore "Pieces of eight" ou le materiel est une donnée fondamentale du jeu, et un set d'échecs en plastique.
Tout cela pour dire qu'il n'y a pas d'objectivité absolue bien sûr, mais il me semble que l'on peut considérer certains critères comme objectifs à partir du moment où l'on les rapporte à des données extérieures et non à des goûts personnels.
Contre-exemple : Je trouve LADR hideux, mais je ne peux pas dire qu'il le soit objectivement. A l'inverse mais amis trouvent "Ursuppe" hideux, et objectivement on peut, au minimum dire de ce jeu qu'il a une esthétique "particulière", mais moi je le trouve super joli. Idem pour tout le reste.
C'est là que je fais la différence entre subjectivité et objectivité.
Très sincèrement, je pense qu’il suffirait de 2 choses pour que tout soit plus clair dans la notation :
1) Dans la mesure ou une note sur un jeu possède fatalement un caractère subjectif (puisqu’elle mesure une relation entre un goût et un produit), autant que les notes s’assume comme subjective et que le barème soit de type : Je déteste ; je n’aime pas ; j’aime bien ; j’aime beaucoup ; j’adore. On attribue alors à chacun des adjectifs une couleur.
2) La note globale deviendrait un “camembert statistique” composé des dites couleurs, ce qui fournirait, d’un seul regard, la distribution des avis (couleurs) parmi les testeurs. Ex, pour léonardo : un cinquième je n’aime pas, un cinquième j’aime bien, et trois cinquièmes j’adore. Ce qui, outre la tendance globale (la couleur dominante) nous fourni le degré d’unanimité du jeu (hétérogénéité ou homogénéité des couleurs)
retam dit:Tiens, Bruno Faidutti expliquait au contraire il y a peu sur ces mêmes forums que les tests de JsP étaient souvent plutôt confiés à des personnes ayant aimé le jeu, plutôt qu'à des personnes n'ayant pas apprécié. ...
Pourquoi ne pas élargir le concept à tous les jeux alors? Parce que là, à mes yeux, ça fait malheureusement un peu deux poids, deux mesures...
Je me suis posé la même question... j'en ai conclu qu'il n'y avait pas de règle et franchement je préfère ainsi.
Je me souviens qu’avant dans JSP il y a avait une cote sur le jeu. En-dessous se trouvaient des cotes d’autres personnes qui venaient complèter cette preière cote. Je trouvais cela plutôt bien car cela permettait d’avoir une maileure vision des cotes globales.
J’aime bien aussi le principe de (feu ?) JEB. La cote du testeur plus la moyenne de la rédaction avec parfois un ou 2 paragraphes pour contre-argumenter.
avec un tableau très pratique à la fin du magazine qui reprenait tous les jeux repris dans le numéro et avec les cotes de tous les testeurs (avec des blancs quand le jeu n’a pas été testé).
On sait que toute cote est subjective. Afin de diminuer cet effet subjectif, le seul moyen est d’accumuler un certain nombre de cote pour que la coter globale devienne un peu plus objective.
Comme Alain, j’aime (aimais ?) bien le tableau de cotation de JEB où chaque rédacteur notait tous les jeux qu’il connaissait. Cela remet bien en contexte les évaluations données et permet de les relativiser en fonction des goûts du critique.
xavo dit:retam dit:Tiens, Bruno Faidutti expliquait au contraire il y a peu sur ces mêmes forums que les tests de JsP étaient souvent plutôt confiés à des personnes ayant aimé le jeu, plutôt qu'à des personnes n'ayant pas apprécié. ...
Pourquoi ne pas élargir le concept à tous les jeux alors? Parce que là, à mes yeux, ça fait malheureusement un peu deux poids, deux mesures...
Je me suis posé la même question... j'en ai conclu qu'il n'y avait pas de règle et franchement je préfère ainsi.
Suis-je seul à avoir eu cette impression de deux poids, deux mesures?
Alain13 dit:
J'aime bien aussi le principe de (feu ?) JEB. La cote du testeur plus la moyenne de la rédaction avec parfois un ou 2 paragraphes pour contre-argumenter.
avec un tableau très pratique à la fin du magazine qui reprenait tous les jeux repris dans le numéro et avec les cotes de tous les testeurs (avec des blancs quand le jeu n'a pas été testé).
C'était en effet le meilleur système que j'ai pu voir. Les deux notes sur la critique, le tableau facile à trouver en dernière page et qui permettait un récapitulatif très pratique.
C'était excellent
retam dit:Suis-je seul à avoir eu cette impression de deux poids, deux mesures?
Visiblement, oui.
Romuald AKA Radek
retam dit:Je veux bien admettre qu'il ne s'agisse pas d'une procédure systématique, mais du coup c'est peut-être un peu dommage pour certains très bons jeux qui, comme Leonardo, écopent d'une note un peu sévère.
Pour info, j'ai bien aimé Leonardo da Vinci comme je l'indique dans le test mais je ne lui trouve rien d'exceptionnel et donc conseille aux joueurs de le tester avant d'acheter ...
Romuald AKA Radek
radek dit:Pour info, j'ai bien aimé Leonardo da Vinci comme je l'indique dans le test mais je ne lui trouve rien d'exceptionnel et donc conseille aux joueurs de le tester avant d'acheter ...
Je ne vois pas ou tu écris avoir aimé le jeu.
Mais effectivement, il faut rapporter la légende à la note.
Il ne s'agirait pas vraiment d'un 2/4 mais d'un "à tester avant d'acheter". Tu ne notes pas à quel point tu as aimé le jeu, c'est ça ?
La légende précise :"En fonction de l'intérêt du jeu pour son public".
Si je comprends bien, cela veut dire que si le jeu m'intéresse à la lecture du papier, je suis dans le public et la note me concerne. Sinon elle n'a tout simplement aucun sens pour moi. C'est ça ?
Bonjour. Le sujet fait l’objet d’une discussion très intéressante sur le forum JSP. Radek y explique très justement sa note en s’appuyant sur la nomemclature du journal. Mais, très clairement, il me semble que c’est cette nomenclature qui pose problême, puisqu’elle amalgamme 1) une dimension quantitative de notation (d’un unique sigle “rouge” à 4 sigles “or”, que le lecteur peut légitimement interpréter comme une hiérarchie allant du “mauvais” au “très bon”) et 2) une dimension “qualitative” correspondant à la légende associée à chaque sigle de couleur. Or ces deux dimensions sont parfaitement irréductibles l’une à l’autre, puisque l’on peut parfaitement avoir un “très bon jeu” réservé à un public particulier, donc qui nécessite d’être “testé avant d’acheter” (et alors que mettre ? Les 4 sigles dorés, car le jeu est très bon, ou les deux sigles bleux, puisque le jeu doit être testé avant l’achat ?) Encore une fois, l’idéal me semble résider dans une nomenclature qui exprime sans ambiguité le seul ressenti du testeur, c’est à dire son plaisir à jouer au jeu en question.
1 = je déteste ; 2 = je n’aime pas ; 3 j’aime bien ; 4 j’adore