Programme > Programme détaillé

Atelier 1 (Sandra Schwab) : Notions de base pour l'analyse quantitative des données

Nous présenterons les concepts de base indispensables à l'élaboration d'une étude empirique et à l'analyse des données. Nous aborderons les notions d'échelles de mesure, de variables dépendantes/indépendantes, d'échantillons dépendants/indépendants, ainsi que la notion d'interaction. À la fin de l'atelier, les participants seront en mesure d'appliquer ces notions dans le cadre de leur recherche afin de déterminer quels tests statistiques appliquer à leurs données.

Atelier 2 (Sandra Schwab) : Statistiques inférentielles et quelques tests

Après une courte introduction à la statistique inférentielle, nous décrirons différents tests statistiques qui seront illustrés par des activités pratiques dans le logiciel R. Nous aborderons la comparaison de proportions (i.e., chi-carré) ainsi que la comparaison de moyennes (i.e., tests-t, ANOVA) et nous terminerons par l'analyse de la relation entre deux variables (i.e., corrélation).

Atelier 3 (Sandra Schwab) : Régression linéaire

Nous présenterons les concepts de base de la régression linéaire et nous les illustrerons avec des exemples dans R. L'accent sera mis sur l'interprétation de l'output de R (i.e., intercept, estimate).

Atelier 4 (Jacopo Saturno) : R/R Studio pour débutants

 Cette session introduit la base du langage R pour grands débutants. Les participants apprendront à mettre en place un projet en utilisant R studio, à envoyer des packages et à y importer des données ;  de plus, ils s'entraineront à utiliser les fonctions fondamentales pour explorer et manipuler R.

Atelier 5 (Jacopo Saturno) : Visualisation des données

 Cette session est dévouée à la visualisation des données en utilisant la base de R et le package ggplot2, nécessaire à l'analyse de données standard. Cet atelier est à destination de débutnts et se concentrera sur les nuages de points et les boîtes à moustaches, avec certains embellissements graphiques.

Atelier 6 (Paolo Mairano) : Introduction à la programmation sur R

R étant un langage de programmation (spécialisé dans les stats, certes, mais potentiellement utilisable pour autre chose), il convient de comprendre son fonctionnement afin de l’utiliser plus aisément. Dans cet atelier nous verrons les bases de programmation avec R et tidyverse, comment manipuler les dataframes (ex. transformations wide to long et long to wide), et comment manipuler les chaînes de caractères (strings) profitablement.

Atelier 7 (Paolo Mairano) : Introduction aux modèles mixtes I : effets fixes et aléatoires, intercepts, visualisation des données

Dans cet atelier, nous verrons comment construire des modèles à effets mixtes sur R avec la libraire lme4. Nous présenterons les concepts de base (effets fixes et aléatoires) et verrons comment interpréter le summary des modèles et comment en visualiser les prédictions avec la librairie ggeffects.

Atelier 8 (Céline Pozniak) : Les modèles mixtes (II)

Dans cet atelier, nous verrons comment complexifier des modélisations (linéaires ou non) en incorporant ce que l’on appelle les effets aléatoires, en plus de l’effet principal. Nous aborderons le diagnostic de certains modèles fréquentistes défaillants, et l’accent sera mis sur l’importance d’une structure de modèle adéquate.

Ateliers 9 & 10 (Olivier Crouzet) : La puissance des tests statistiques

Dans une approche statistique de type "fréquentiste" (de manière générale lorsqu'on fait reposer la conclusion d'un travail sur une décision binaire de présence / significativité vs. absence / non-significativité d'un effet), la détermination de la puissance du test préalablement à la collecte des données est centrale. Cette puissance "prévue" est notamment liée au nombre d'observations collectées et à la taille attendue des effets ainsi qu'à la dispersion des mesures. Si des outils existent depuis longtemps pour estimer le nombre optimal d'observations à planifier pour une étude lorsqu'on prévoit d'utiliser des outils statistiques "traditionnels" (t de Student, ANOVA par exemple), l'utilisation de modèles mixtes nécessite de passer par des "simulations aléatoires" : générer aléatoirement des données hypothétiques un très grand nombre de fois afin d’estimer le nombre d'observations optimales pour espérer faire ressortir l'effet escompté s'il existe effectivement dans la population. C'est ce qu'on appelle des tests de puissance. L'atelier abordera les notions conceptuelles fondamentales associées à la notion de puissance d'un test et la mise en application de différents outils permettant de l'estimer et, parallèlement, de planifier le nombre d'observations à collecter pour une étude. Nous partirons des outils traditionnels pour aller vers l'apprentissage de simulations aléatoires. L'environnement tidyverse fournira un cadre adapté pour générer aléatoirement des données en fonction des modalités des variables impliquées. Nous aborderons aussi les écueils à éviter (par exemple, estimer la puissance —après la collecte des données—).

 

Personnes connectées : 3 Vie privée
Chargement...