Si vous ne le saviez pas déjà

Si vous ne le saviez pas déjà

Nœud source: 2969389

Réseau neuronal récurrent convolutif graphique (GCRNN) google
Les processus graphiques modélisent un certain nombre de problèmes importants tels que l'identification de l'épicentre d'un tremblement de terre ou la prévision météorologique. Dans cet article, nous proposons une architecture de réseau neuronal récurrent à convolution graphique (GCRNN) spécifiquement adaptée pour traiter ces problèmes. Les GCRNN utilisent des banques de filtres convolutifs pour conserver le nombre de paramètres entraînables indépendant de la taille du graphique et des séquences temporelles considérées. Nous proposons également des Gated GCRNN, une variante temporelle des GCRNN semblable aux LSTM. Par rapport aux GNN et à une autre architecture graphique récurrente dans des expériences utilisant à la fois des données synthétiques et réelles, les GCRNN améliorent considérablement les performances tout en utilisant considérablement moins de paramètres. …

Retecs google
Les tests en intégration continue (CI) impliquent la priorisation, la sélection et l'exécution des cas de test à chaque cycle. Il est difficile de sélectionner les cas de test les plus prometteurs pour détecter les bogues s'il existe des incertitudes sur l'impact des modifications de code engagées ou si les liens de traçabilité entre le code et les tests ne sont pas disponibles. Cet article présente Retecs, une nouvelle méthode d'apprentissage automatique de la sélection et de la priorisation des cas de test dans CI dans le but de minimiser le temps d'aller-retour entre les validations de code et les commentaires des développeurs sur les cas de test ayant échoué. La méthode Retecs utilise l'apprentissage par renforcement pour sélectionner et prioriser les cas de test en fonction de leur durée, de leur dernière exécution précédente et de l'historique des échecs. Dans un environnement en constante évolution, où de nouveaux cas de test sont créés et les cas de test obsolètes sont supprimés, la méthode Retecs apprend à donner la priorité aux cas de test sujets aux erreurs sous la direction d'une fonction de récompense et en observant les cycles CI précédents. En appliquant Retecs sur des données extraites de trois études de cas industriels, nous montrons pour la première fois que l'apprentissage par renforcement permet une sélection et une priorisation automatiques fructueuses des cas de tests adaptatifs dans les tests d'IC ​​et de régression. …

Sagesse des foules (WOC) google
La sagesse de la foule est l’opinion collective d’un groupe d’individus plutôt que celle d’un seul expert. Les réponses globales d'un grand groupe à des questions impliquant l'estimation quantitative, la connaissance générale du monde et le raisonnement spatial se sont généralement révélées aussi bonnes, et souvent meilleures, que la réponse donnée par l'un des individus du groupe. Une explication de ce phénomène est qu'il existe un bruit idiosyncrasique associé à chaque jugement individuel, et prendre la moyenne sur un grand nombre de réponses contribuera dans une certaine mesure à annuler l'effet de ce bruit.[1] Ce processus, même s'il n'est pas nouveau à l'ère de l'information, a été mis sous les feux des projecteurs par les sites d'informations sociales tels que Wikipedia, Yahoo! Réponses, Quora et autres ressources Web qui s'appuient sur l'opinion humaine.[2] Le procès devant jury peut être compris comme la sagesse de la foule, surtout lorsqu’on le compare à l’alternative, le procès devant un juge, un expert unique. En politique, le tirage au sort est parfois considéré comme un exemple de ce à quoi ressemblerait la sagesse de la foule. La prise de décision serait confiée à un groupe diversifié plutôt qu’à un groupe ou un parti politique assez homogène. La recherche en sciences cognitives a cherché à modéliser la relation entre la sagesse des effets de foule et la cognition individuelle.
WoCE : un cadre de regroupement d'ensembles en exploitant la sagesse de la théorie des foules ...

Analyse de corrélation canonique à pondération éparse (SWCCA) google
Étant donné deux matrices de données $X$ et $Y$, l'analyse de corrélation canonique clairsemée (SCCA) consiste à rechercher deux vecteurs canoniques clairsemés $u$ et $v$ pour maximiser la corrélation entre $Xu$ et $Yv$. Cependant, les modèles CCA classiques et clairsemés prennent en compte la contribution de tous les échantillons des matrices de données et ne peuvent donc pas identifier un sous-ensemble spécifique d’échantillons sous-jacent. À cette fin, nous proposons une nouvelle analyse de corrélation canonique à pondération éparse (SWCCA), dans laquelle des poids sont utilisés pour régulariser différents échantillons. Nous résolvons le SWCCA $L_0$-régularisé ($L_0$-SWCCA) en utilisant un algorithme itératif alternatif. Nous appliquons $L_0$-SWCCA aux données synthétiques et aux données du monde réel pour démontrer son efficacité et sa supériorité par rapport aux méthodes associées. Enfin, nous considérons également SWCCA avec différentes pénalités comme LASSO (opérateur de moindre retrait absolu et de sélection) et le groupe LASSO, et l'étendons pour intégrer plus de trois matrices de données. …

Horodatage:

Plus de AnalyseXon