Je précise quen math je suis largue depuis le premier post mais je trouve intéressant qu’on puisse mixer un peu tout… Quand je serais largué je passerais en lecture diagonale c’est tout, mais je trouve ça top qu’on puise discuter de ca comme on parle écoute ou marketing ailleurs (enfin c’est mon avis )
plus que les updates je regarderais derrière l’évolution du taux daddons perso (aucune idée de comment l’intègrer mathématiquement )
pour le le rush final moi je le sortirai de l’équation pour arriver à une valeur à 48h puis je chercherais à l’estimer (on q une bonne approximation a 20-33% du rush initial, avec une forte corrélation au volume daddons… Vu de ma fenêtre de non mathématicien )
éventuellement je ferais demain un post plus long avec mon clavier
Eolindel dit :Je m'autorise un petit HS, promis un seul, après j'arrête.
J'ai voulu suivre ce sujet parce que le participatif m'intéresse et j'ai donc sciemment zappé l'avertissement "No Maths Addict Verboten" du premier post. J'aurais pas du. Non. Il faut toujours tenir compte des avertissements. Parce que je n'ai pas saisi le début du commencement du moindre traître mot de ce paragraphe. Rien. Que dalle. Nada. Et je ne sais pas qui je dois plaindre le plus, moi qui suis un gros nul en maths et stats ou ceux qui sont capables de pondre de tels texte et de les lire comme un mot doux de leur tendre aimée.
Je doute.
Voilà. C'est tout.
Au cas où, je précise que ce post est à visée rigolatoire et n'a rien d'injurieux. En tous cas, pas dans l'intention. Les haches volent bas cette saison.
Je vais essayer de faire en sorte que ce soit le plus clair possible (avec des formules pour comprendre) mais il ne faut pas avoir peur hein, je n'ai pas une formation de mathématicien, (scientifique certes) mais le but étant justement de démystifier un peu et de voir un peu comment on peut jouer avec un modèle.
Pour l'instant, avec les données de Etter, je suis en train de voir comment faire pour minimiser la distance entre plus proches voisins afin de distinguer des familles de courbes. Mais bon, vu que je fais ça en python, que je redécouvre un peu numpy et que je ne suis pas informaticien non plus, ça prend un peu de temps.
Alors, c'est très gentil (sincèrement) de vouloir faire en sorte que le Vulgus Pecum que je suis te (vous) comprenne. Mais franchement, ne t'embête pas pour moi. Ca ne marchera que très peu et certainement pas à la hauteur des efforts que tu auras déployé. Rien que ta dernière phrase, hors Python, je n'ai rien capté. Je crois que je survolerai ce sujet et que je prendrai ce qui semblera à ma portée.
1/ Oui faire un regression sur la tendance zappe le rush final. En plus les estimations paramétriques ont tendance à mal se comporter dans les zones encore peu échantillonnées (typiquement le bout de la courbe qui est le point qui nous intéresse).
2/La régression logistique est décrite dans wikipedia :
Régression logistique — Wikipédia
En très gros il s’agit d’adapter la régression linéaire au cas ou la variable à expliquer est une probabilité et donc dans [0,1]. C’est équivalent au modèle linéaire généralisé avec une fonction de lien logit.
C’est très utilisé car très efficace pour prédire si l’on discrétise toutes les variables explicatives (ce qui permet d’attraper des effets non linéaires, voire au second ordre en utilisant quelques astuces)
Les forêts aléatoires sont un bon compromis plus facile à mettre en place, R ou python propose du code tout fait : le principe est de construire plein de petits arbres de décisions construits de manière aléatoire et à les faire voter.
Random forest - Wikipedia
Attention également au critère qui est optimisé. Ce n’est pas pareil d’essayer de prédire le taux de succès le plus vite possible et d’estimer le montant final en ayant uniquement les k premiers jours de campagne.
Dans le second cas il faut en particulier faire attention aux campagnes exceptionnelles qui ont probablement un comportement assez différent du reste et peuvent tirer les modèles vers des prédictions trop optimistes pour les autres. Bref les traiter à part.
Une variable que j’aurais envie d’ajouter c’est le nombre d’add-ons (pour tenter d’évaluer la taille du boost final)
Enfin si je devais faire un système rapidement pour prédire les montants et qui néglige les annonces pendant la campagne, je serais tenté de faire un kmeans (K-moyennes — Wikipédia) sur les courbes des pledges (en utilisant une distance L2) puis une fois les groupes obtenus d’essayer d’attribuer les débuts de courbes à un cluster. Je serais aussi assez tenté de renormaliser les valeurs courbes des campagnes par la croissance du CA de KS étalé mensuellement.
Du coup, je suis en train de voir la distribution des distances entre parcours pour essayer de voir comment gérer mes clusters.
Punaise ! Vous faites suer à créer des threads intéressants…
Je n’ai malheureusement pas le temps de repotasser en ce moment.
Ni de me mettre à niveau sur certains points, d’ailleurs…
Mes restes de proba/stats étant actuellement… trop intuitifs.
De loin ma matière préférée en math, avec la géométrie spatiale.
amusez-vous bien !
[EDIT] après lecture des posts. Mais c’est certainement un ressenti personnel.
Ayant participé aux campagnes Myth, Il y a clairement eut un emballement des SG de la part des porteurs (1ere), et avant la fin, il me semble. La campagne ne me parait correspondre aux “codes” en vigueur décrit ici ou là. Ils sont très… brouillons.
Cependant, je rejoins JMT, leur modèle fonctionne et semble s’être stabilisé/confirmé sur leur dernière campagne.
Concernant les SG, et leur effet. Je suis persuadé qu’il y a moyen de modéliser quelque chose en fonction de l’estimation finale. Il n’y a généralement que peu de variations sur leur distribution dans les campagnes orientées figurines. Et les SG sont équitablement répartis en fonction du montant à l’instant T. (j’ai été surpris par la dernière de SPM, ceci dit)
Reste à gérer l’atout dans la manche, pas imprévisible, mais qui sortira si la campagne faibli de façon ‘inexpliquée’.
Question subsidiaire, ton modèle, tu compte le distribuer ?
Pour les sg la problématique est que les intégrer sous entend se tapper les campagnes à la main, là où l’objectif est d’avoir une solution “automatique”… (Quand je parlais addon c’était le calcul du taux daddons)
toujours pas de clavier mais truc important auquel je pensais hier :
> tu devrais faire deux ou trois groupes sur ton modèle avec le montant lève (genre 0-50 / 50-500 / 500+) les campagnes réagissant très différemment je pense
> la granularité je partirais sur 4h, aucune idée de comment l’intégrer mais tu auras comme ca des données par continent au cas où tu veuilles plus tard faire des analyses dessus (je te garantis que d’un point de vue comportemental les us et l’eu cest très différent (j’ai un exemple en MP si tu veux)
la mecankque mécanique je vous laisse en discuter, plutôt pas mauvais en maths mais nul en proba et clairement pas à votre niveau du tout, même si certains trucs me parlent je ne saurais ni le faire ni le démontrer… (Seul truc que je maîtrise un peu cest le machine learning mais ça commence à dater un peu )
Helyss dit :En fait ils semblent volontairement laisser la machine en quasi roue libre pendant la campagne, là ou la plupart des gros projets ont une stratégie de lissage avec un plancher relativement élevé (un peu moins vrai sur the others, mais pas sur que ca ai été une volonté de cmon...), eux vont laisser la campagne derouler calmement et déclencher l'emballement en sortant pas mal de gros addons et de packs à la toute fin, ce qui va déclencher d'un coup le cercle vertueux SG > new(pledges+addons) > SG
[EDIT] après lecture des posts. Mais c'est certainement un ressenti personnel.
Ayant participé aux campagnes Myth, Il y a clairement eut un emballement des SG de la part des porteurs (1ere), et avant la fin, il me semble. La campagne ne me parait correspondre aux "codes" en vigueur décrit ici ou là. Ils sont très... brouillons.
Cependant, je rejoins JMT, leur modèle fonctionne et semble s'être stabilisé/confirmé sur leur dernière campagne.
jmt-974 dit : En fait ils semblent volontairement laisser la machine en quasi roue libre pendant la campagne, là ou la plupart des gros projets ont une stratégie de lissage avec un plancher relativement élevé (un peu moins vrai sur the others, mais pas sur que ca ai été une volonté de cmon...), eux vont laisser la campagne derouler calmement et déclencher l'emballement en sortant pas mal de gros addons et de packs à la toute fin, ce qui va déclencher d'un coup le cercle vertueux SG > new(pledges+addons) > SG
En effet pour le début.
Je l'ai plus vécu comme quelque chose d'inattendu que de décidé, de leur part. Je crois qu'ils visaient 700k$ et qu'ils sont arrivés à 920+. Les 2 derniers SG ont été rajouté à la va vite, genre, "tu n'as pas un crobart qui traine sur ton bureau ?".
Un peu comme sur le premier "Bones" de Reaper qui a du surprendre tout le monde...
Helyss dit :jmt-974 dit : En fait ils semblent volontairement laisser la machine en quasi roue libre pendant la campagne, là ou la plupart des gros projets ont une stratégie de lissage avec un plancher relativement élevé (un peu moins vrai sur the others, mais pas sur que ca ai été une volonté de cmon...), eux vont laisser la campagne derouler calmement et déclencher l'emballement en sortant pas mal de gros addons et de packs à la toute fin, ce qui va déclencher d'un coup le cercle vertueux SG > new(pledges+addons) > SG
En effet pour le début.
Je l'ai plus vécu comme quelque chose d'inattendu que de décidé, de leur part. Je crois qu'ils visaient 700k$ et qu'ils sont arrivés à 920+. Les 2 derniers SG ont été rajouté à la va vite, genre, "tu n'as pas un crobart qui traine sur ton bureau ?".
Un peu comme sur le premier "Bones" de Reaper qui a du surprendre tout le monde...
Si on veut etre élégant (pas mettre des palier a 50 - 20 - 75 - 30 .... mais que ca reste en croissance lente 50 - 50- 75 -100...) c'est dur de calculer pile le dernier SG, meme avec des projets assez smooth... donc a la fin souvent tu en as probablement un ou deux qui restent en stock (tant pis), ou si ca c'est un poil trop emballé un ou deux qui manquent (et c'est pas une ou deux figs qui vont détruire le planning) donc tu sors un crobart a l'arrache...
Allez, histoire d’en faire profiter tout le monde et ne pas trop embêter certains, avec mon petit outil, j’ai fait de quoi visualiser certaines données courantes :
Ça permet de tout avoir en un coup d’oeil.
Si vous avez des idées de données intéressantes à indiquer, n’hésitez pas.
Deux petites choses pour ce soir:
Ça commence à bien décoller pour le rush final de Scythe (encore 24h)
Et pour Ctuluhu 2, c’est un peu les montagnes russes dans tous les sens:
En tout cas sur des campagnes pleines ca va vraiment déchirer
jmt-974 dit :ericdedalus dit :Ah oui, merci pour les infos
Myth c'est très parlant - courbe en U sans la moitié gauche du U... mais avec la moitié droite
Il y a cependant bien un rush de fin - donc il ne remet pas complètement en question le modèle en U (peut-être juste une mauvaise gestion de la pré-campagne?)[DISCLAIMER : ces 3 KS datent d'un époque ou 500k c'était 1M d'aujourd'hui... voir plus]
Alors oui et non (je la fait de mémoire je peut me tromper sur les détails) Il y a le U mais moins marqué 25k > 6k...en fait il y a eu en effet un démarrage mou mais lié a l'offre (et leur premier KS donc pas de base de backers)... ensuite ils ont (prévu ou pas telle est la question) sortis une énorme machine a addon vers la fin et lachés les SG a la pelle qui ont déclenchés un emballement monstre... normalement ils auraient du faire une cinquantaine de k et la tu aurais eu ton U, mais ils ont emballés la machine dans un cercle win-win exponentiel (je t'invites a regarder le contenu proposé a J-5 et a la fin en terme de SG)...
En fait je triche, dans le sens ou mon autre exemple a aussi des raisons de gestion de campagne... Drakerys c'etait (memoire aussi, ca date et je vieilli) un EB cher qui pouvait sembler super sexy (une sorte de allin a la SoB), plein de monde l'a pris, et au moment de l'abitrage final les gens ont regardés ce qui était vraiment débloqué et ont fuit... d'ou la chute...
C'est comme ca que j'ai trouvé les exemples :) pas parce qu'ils avaient des courbes étranges, mais je me souvenais de la campagne et sa gestion (et resultat).. Sauf fief, je t'invites a regarder mare nostrum aussi qui eux sont des abhérations (MN le rush initial est un EB 48h...)
Pour l'effet de l'EB temps initial qui déforme toute la campagne, on en a un exemple en ce moment-même : Sword & Sorcery (http://www.kicktraq.com/projects/1402889231/sword-and-sorcery-epic-fantasy-co-op-board-and-min/#chart-daily), sans certitude à l'heure actuelle qu'il y aura un vrai rush final si on se base sur leurs précédents projets. Normalement, ça devrait, mais ne sachant pas comment ils ont géré les précédents pour avoir une fin aussi molle à chaque fois (le pompon allant à Galaxy Defenders 2, qui s'est offert le luxe de faire -5k le dernier jour), j'attends quand même de voir.
Et pour le schéma "pas en U", il y a par exemple Lord of the Dead (http://www.kicktraq.com/projects/1078944858/lord-of-the-dead-an-asymmetrical-hex-and-counter-m/#chart-daily). Mais bon, c'était alors le premier KS de l'auteur, Christopher Ferguson (Pocket Options Games), et il lui a fallu cette campagne pour se faire connaître. Depuis que les backers connaissent son sérieux, ses trois campagnes suivantes ont suivi résolument la courbe inverse, en faisant le plein en jour 1.
Autre campagne atypique : Warquest (http://www.kicktraq.com/projects/532062403/warquest/#chart-daily). Là, l'offre était clairement insuffisante par rapport à un ticket d'entrée bien trop élevé, et ils n'ont sauvé leur financement qu'en débloquant automatiquement des SG tous les jours pendant la dernière semaine (le prince a dû plaire à Stegmayer ). À noter la plus grosse journée de baisse à J-2 de la fin. Requiem Vampire Night (http://www.kicktraq.com/projects/dreamship/requiem-vampire-knight-the-game/#chart-daily) a suivi la même courbe, mais sans aller flirter avec la zone dangereuse.
Merci pour ce sujet Eolindel. Ton article est super intéressant (mais plus cryptique que tu ne sembles l imaginer : ça ne se lit pas comme “Oui-Oui fait des additions” quand même). Mais c est vraiment passionnant.
fred henry dit :Merci pour ce sujet Eolindel. Ton article est super intéressant (mais plus cryptique que tu ne sembles l imaginer : ça ne se lit pas comme "Oui-Oui fait des additions" quand même). Mais c est vraiment passionnant.
C'est pour ça que j'ai renommé le sujet pour aussi montrer un peu de chiffres sur certaines campagnes "phare".
Je pense que les deux derniers cadres vont me servir à présenter différents modèles et leurs résultats. Mais bon, tout ça prend pas mal de temps et je suis encore loin de pouvoir faire du machine learning. Pour ça, il va falloir que j'automatise plus la récupération des données pour avoir des campagnes complètes et ensuite me mettre à la programmation du modèle.
Apparemment, y’a déjà des gens qui se sont fait chier à coder des outils de machine learning :
http://scikit-learn.org/stable/index.html
Du coup, si je me démerde bien, je pourrais peut-être utiliser ça pour lancer des modélisations.
Pour l’instant, je refais en python mon script de récupération des données pour que ce soit plus beau, plus simple et plus robuste.
Et au passage, j’ai implémenté l’évaluation du montant final en se basant sur le trending (dernier cadre en bas à droite).
Tu la calcules comment l’évaluation sur le trending (parce que ca ne m’est pas vraiment paru évident…)
J’utilise la formule donnée dans le paragraphe “modèle trending” de ici :
http://agregationchimie.free.fr/modele_kickstarter.php
sauf que le M barre, je prends pas la moyenne depuis le début mais le trending calculé en tant que moyenne glissante de 1h ou 24h. J’ai regardé ce que ça donne avec le trending depuis le début de la campagne mais c’est beaucoup trop surestimé.
Si c’est pas clair, je détaille un peu plus.
Pour les gros projets, je pense que dans le ventre mou, ma méthode sous-estime car ne prend pas en compte le rush final mais la méthode kicktraq continue à “surestimer” sauf avant le début du rush final.
en gros la courbe verte c’est kicktraq, et moi c’est du trending horaire ou journalier.
Ok, ca semble quand meme une meilleure approximation que KT non
Sinon moi comme je le disais de toute facon je ferais le calcul de la prédiction en deux fois : jusqu’a -48h, puis estimation du rush…
Un truc marrant si tu veux tester ton truc avec une idée que j’ai en tete tu peux lancer sur AQ (12/11) et Baner Saga (12/11 aussi ):
- Prends ta moyenne a partir de J5 (avant c’est le rush initial…), je pense que 72-96h comme durée de lissage ce serait mieux (ca lisserait les ajouts d’addons qui agissent en général sur 48h)
- Ajoutes un min de 25% du total H48 prévu et max de 33% (le rush final fait “généralement” 20 à 25% du total)…
et stocker le cone de projection… sur le graphique qui reste (min max)
c’est possible dit ?
jmt-974 dit :Ok, ca semble quand meme une meilleure approximation que KT non :)C'est quasi une évidence que dans 90% des cas, c'est une meilleure estimation pessimiste alors que celle de KT qui est quasi toujours over-optimiste. (même s'il trouve des contre-exemple)
Mais clairement, je pense que Kicktraq le fait comme ça pour éviter tous les soucis calculatoires : comme la prise de point ne se fait pas à intervalle archi-régulier, il faut faire une interpolation puis reprendre des points régulièrement espacés pour avoir quelque chose de propre.
Sinon moi comme je le disais de toute facon je ferais le calcul de la prédiction en deux fois : jusqu'a -48h, puis estimation du rush...Je vais voir ce que je peux faire, mais c'est un poil chiant car il faut découper et faire des comparaisons pour savoir dans quelle zone on est (initial, milieu, fin)
Un truc marrant si tu veux tester ton truc avec une idée que j'ai en tete tu peux lancer sur AQ (12/11) et Baner Saga (12/11 aussi :) ):
- Prends ta moyenne a partir de J5 (avant c'est le rush initial...), je pense que 72-96h comme durée de lissage ce serait mieux (ca lisserait les ajouts d'addons qui agissent en général sur 48h)
- Ajoutes un min de 25% du total H48 prévu et max de 33% (le rush final fait "généralement" 20 à 25% du total)...
et stocker le cone de projection... sur le graphique qui reste (min max)
c'est possible dit ?
Par contre, sur les bonnes durées de moyennes :
- une heure je pense que c'est un peu trop court (cf trop grosse variations de la courbe bleue)
- 4h ça me semble déjà mieux
- un jour, ça permet de voir assez rapidement des effets d'add-on
- 3-4 jours, ça me semble un peu long