Régression avec SPSS Leçon 2 – Régression Diagnostics

Régression avec SPSS Leçon 2 - Régression des diagnostics en classeBienvenue à l’Institut pour la recherche et l’éducation numérique

SPSS Web Livres
Régression avec SPSS
Chapitre 2 – Régression Diagnostics

Sommaire
2.0 Régression Diagnostics
2.1 Données inhabituelles et influentes
2.2 Tests sur normalité des résidus
2.3 Tests sur erreur nonconstant de la variance
2.4 Tests sur Multicolinéarité
2.5 Essais sur Nonlinearity
2.6 Spécification du modèle
2.7 Questions d’indépendance
2.8 Résumé
2.9 Pour plus d’informations

2.0 Régression Diagnostics

Dans notre dernier chapitre, nous avons appris comment faire une régression linéaire ordinaire avec SPSS, concluant avec des méthodes pour examiner la distribution des variables pour vérifier les variables non normalement distribuées comme un premier regard sur la vérification des hypothèses dans la régression. Sans vérifier que vos données ont satisfait aux hypothèses de régression, les résultats peuvent être trompeurs. Ce chapitre examinera comment vous pouvez utiliser SPSS pour tester si vos données sont conformes aux hypothèses de régression linéaire. En particulier, nous allons examiner les hypothèses suivantes.

  • Linéarité – les relations entre les prédicteurs et la variable de résultat doit être linéaire
  • Normalité – les erreurs doivent être distribuées normalement – techniquement normalité est nécessaire uniquement pour les tests t pour être valide, l’estimation des coefficients exige seulement que les erreurs soient identiquement et indépendamment distribués
  • Homogénéité de la variance (homoscédasticité) – la variance d’erreur doit être constante
  • Indépendance – les erreurs associées à une observation ne sont pas corrélées avec les erreurs de toute autre observation
  • Spécification du modèle – le modèle doit être correctement spécifié (y compris toutes les variables pertinentes, et à l’exclusion des variables non pertinentes)



En outre, il y a des problèmes qui peuvent survenir lors de l’analyse que, si à proprement parler ne sont pas des hypothèses de régression sont pas moins, une grande préoccupation pour les analystes de régression.

  • Influence – observations individuelles qui exercent une influence indue sur les coefficients
  • Colinéarité – prédicteurs qui sont très colinéaires, à savoir en relation linéaire, peut causer des problèmes dans l’estimation des coefficients de régression.

De nombreuses méthodes graphiques et tests numériques ont été développés au fil des ans pour le diagnostic de régression et de SPSS fait plusieurs de ces méthodes faciles d’accès et d’utilisation. Dans ce chapitre, nous allons explorer ces méthodes et de montrer comment vérifier les hypothèses de régression et de détecter les problèmes potentiels en utilisant SPSS.

2.1 Données inhabituelles et influentes

Une seule observation qui est sensiblement différente de toutes les autres observations peut faire une grande différence dans les résultats de votre analyse de régression. Si une seule observation (ou un petit groupe d’observations) change considérablement vos résultats, vous voulez savoir à ce sujet et d’enquêter plus loin. Il y a trois façons qu’une observation peut être inhabituelle.

Outliers. Dans la régression linéaire, une valeur aberrante est une observation avec un grand résiduel. En d’autres termes, il est une observation dont la valeur dépend variable est inhabituel compte tenu de ses valeurs sur les variables prédictives. Une valeur aberrante peut indiquer un échantillon de particulier ou peut indiquer une erreur de saisie de données ou tout autre problème.

Influence. Une observation avec une valeur extrême sur une variable prédictive est appelé un point avec un effet de levier. L’effet de levier est une mesure de la distance d’une observation diffère de la moyenne de cette variable. Ces points de levier peuvent avoir un effet exceptionnellement élevé sur l’estimation des coefficients de régression.

Influence. Une observation est dit d’avoir une influence si la suppression de l’observation modifie sensiblement l’estimation des coefficients. L’influence peut être considéré comme le produit de l’effet de levier et outlierness.

Comment pouvons-nous identifier ces trois types d’observations? Regardons un exemple appelé ensemble de données la criminalité. Cette base de données apparaît dans Méthodes statistiques pour les sciences sociales, Third Edition par Alan Agresti et Barbara Finlay (Prentice Hall, 1997). Les variables sont état id (sid ), Nom d’état (Etat ), les crimes violents par 100.000 personnes (la criminalité ), Meurtres par 1.000.000 (meurtre ), Le pour cent de la population vivant dans les régions métropolitaines (pctmetro ), Le pour cent de la population qui est blanche (pctwhite ), Pour cent de la population avec un diplôme d’études secondaires ou au-dessus (pcths ), Pour cent de la population vivant sous le seuil de pauvreté (la pauvreté ), Et pour cent de la population qui sont les parents isolés (unique ). Ci-dessous, nous lisons dans le fichier et faire quelques statistiques descriptives sur ces variables. Vous pouvez cliquer sur crime.sav pour accéder à ce fichier, ou consultez la régression avec la page SPSS pour télécharger tous les fichiers de données utilisés dans ce livre.

Disons que nous voulons prédire la criminalité par pctmetro. la pauvreté. et unique . Autrement dit, nous voulons construire un modèle de régression linéaire entre la variable de réponse la criminalité et les variables indépendantes pctmetro. la pauvreté et unique. Nous allons d’abord regarder les diagrammes de dispersion de crime contre chacune des variables prédictives avant l’analyse de régression nous aurons donc quelques idées sur les problèmes potentiels. Nous pouvons créer une matrice de scatterplot de ces variables, comme indiqué ci-dessous.

Essayons maintenant la commande de régression prédisant la criminalité de pctmetrola pauvreté et unique. Nous allons aller étape par étape afin d’identifier tous les points potentiellement inhabituels ou influents après.

SINGLE, PCTMETRO, PAUVRETÉ (a)

a Tous demandé variables entrées.

b Variable dépendante: CRIME

Ajusté R Carré

Std. Erreur de l’estimation

un prédicteurs: (Constant), SINGLE, PCTMETRO, PAUVRETÉ

b Variable dépendante: CRIME

un prédicteurs: (Constant), SINGLE, PCTMETRO, PAUVRETÉ

b Variable dépendante: CRIME

une variable dépendante: CRIME

Examinons les résidus standardisés comme un premier moyen pour identifier les valeurs aberrantes. Ci-dessous, nous utilisons le / Résidus = histogramme sous-commande pour demander un histogramme pour les résidus standardisés. Comme vous le voyez, nous obtenons la sortie standard que nous avons obtenu ci-dessus, ainsi que d’une table avec des informations sur les résidus les plus petits et les plus grands, et un histogramme des résidus standardisés. L’histogramme indique un couple de résidus extrêmes dignes d’enquête.

SINGLE, PCTMETRO, PAUVRETÉ (a)

a Tous demandé variables entrées.

b Variable dépendante: CRIME

Ajusté R Carré

Std. Erreur de l’estimation

un prédicteurs: (Constant), SINGLE, PCTMETRO, PAUVRETÉ

b Variable dépendante: CRIME

un prédicteurs: (Constant), SINGLE, PCTMETRO, PAUVRETÉ

b Variable dépendante: CRIME

une variable dépendante: CRIME

Std. Valeur prédite

une variable dépendante: CRIME

Nous allons demander maintenant le même genre d’information, sauf pour le résidu supprimé studentisés. Le résidu est supprimé studentisés le résidu que l’on obtiendrait si la régression a été réexécuté en omettant cette observation de l’analyse. Ceci est utile parce que certains points sont si influents que quand ils sont inclus dans l’analyse qu’ils peuvent tirer la ligne de régression à proximité de cette observation faisant apparaître comme si elle ne constitue pas une valeur aberrante – mais quand l’observation est supprimé, il devient alors plus évident comment il est excentré. Pour économiser de l’espace, ci-dessous, nous montrons que la sortie liée à l’analyse des résidus.

Std. Valeur prédite

Erreur type de la valeur prédite

Ajusté valeur prédite

Goujon. Supprimé résiduel

Centré Valeur de levier

une variable dépendante: CRIME

L’histogramme montre quelques valeurs aberrantes possibles. Nous pouvons utiliser la valeurs aberrantes (sdresid) et id (état ) options pour demander les 10 valeurs les plus extrêmes pour le résidu supprimé studentisés à afficher marqué par l’Etat dont l’observation est originaire. Ci-dessous, nous montrons la sortie générée par cette option, en omettant tout le reste de la sortie pour économiser l’espace. Tu peux voir ça "dc" a la plus grande valeur (3.766), suivi par "Mme" (-3,571), Et "fl" (2.620).

une variable dépendante: CRIME

Maintenant, regardons les valeurs de levier pour identifier les observations qui auront une grande influence potentielle sur les estimations des coefficients de régression. Nous pouvons inclure levier avec le histogramme () et le valeurs aberrantes () options pour obtenir plus d’informations sur les observations avec un effet de levier. Nous montrons que la nouvelle sortie générée par ces sous-commandes supplémentaires ci-dessous. En règle générale, un point avec un effet de levier supérieur (2k + 2) / n devraient être examinées avec soin. Ici k est le nombre de prédicteurs et n est le nombre d’observations, donc une valeur supérieure (2 * 3 + 2) / 51 = .1568 serait digne d’une enquête plus approfondie. Comme vous le voyez, il y a 4 observations qui ont des valeurs de levier supérieur à 0,1568.

Goujon. Supprimé résiduel

Centré Valeur de levier

une variable dépendante: CRIME

Comme nous l’avons vu, DC est une observation que les deux a un grand effet de levier résiduel et grande. Ces points sont potentiellement les plus influents. Nous pouvons faire une intrigue qui montre l’effet de levier par le résiduel et rechercher des observations qui sont riches en effet de levier et d’avoir une forte résiduelle. Nous pouvons le faire en utilisant le / scatterplot sous-commande, comme illustré ci-dessous. Ceci est un moyen rapide de vérifier les observations et les valeurs aberrantes influentes potentiels dans le même temps. Les deux types de points sont d’une grande préoccupation pour nous. Comme nous le voyons, "dc" est à la fois un point de levier résiduel et élevé élevé, et "Mme" a un résidu extrêmement négatif, mais n’a pas un tel effet de levier élevé.

Maintenant, nous allons passer à des mesures globales d’influence, nous spécifiquement regardons le D de Cook, qui combine des informations sur la résiduelle et le levier. La valeur la plus basse que le D de Cook peut assumer est zéro, et plus le D de Cook est le plus influent est le point. Le point de coupure classique est 4 / n. ou dans ce cas 4/51 ou .078. Ci-dessous, nous ajoutons la cuisinier le mot-clé valeurs aberrantes () option et aussi sur la / Casewise subcommand et au-dessous, nous voyons que pour les 3 valeurs aberrantes signalées dans le "Casewise Diagnostics" table, la valeur de D de Cook dépasse ce seuil. Et, dans le "Statistiques aberrants" table, nous voyons que "dc", "Mme", "fl" et "la" sont les 4 états qui dépassent ce seuil, tous les autres qui tombent en dessous de ce seuil.

Goujon. Supprimé résiduel

une variable dépendante: CRIME

D de Cook peut être considéré comme une mesure générale d’influence. Vous pouvez également envisager des mesures plus spécifiques d’influence qui évaluent la façon dont chaque coefficient est modifié en incluant l’observation. Imaginez que vous calculez les coefficients de régression pour le modèle de régression avec un cas particulier exclu, puis recalculer le modèle avec le cas inclus, et vous observez le changement dans les coefficients de régression due à l’inclusion de ce cas dans le modèle. Cette mesure est appelée DFBETA et une valeur DFBETA peut être calculée pour chaque observation pour chaque prédicteur. Comme on le voit ci-dessous, nous utilisons le / Save sdbeta (sdbf) subcommand pour enregistrer les valeurs DFBETA pour chacun des prédicteurs. Cela permet d’économiser 4 variables dans le fichier de données en cours, sdfb1. sdfb2. sdfb3 et sdfb4. correspondant à la DFBETA pour la Intercepter et pour pctmetro. la pauvreté et pour unique. respectivement. Nous pourrions remplacer sdfb avec tout ce que nous aimons, et les variables créées commencerions avec le préfixe que nous fournissons.

le / Save sdbeta (sdfb) subcommand ne produit aucune nouvelle sortie, mais on peut voir les variables qu’elle a créée pour les 10 premiers cas en utilisant le liste commande ci-dessous. Par exemple, en incluant le cas pour "Alaska" dans l’analyse de régression (par rapport à l’exclusion de l’espèce), le coefficient de pctmetro diminuerait par -.106 erreurs standard. De même, en incluant le cas "Alaska" le coefficient de la pauvreté diminue de -.131 erreurs standard, et le coefficient de unique .145 augmente par erreur-type (par rapport à un modèle à l’exclusion "Alaska"). Depuis l’inclusion d’une observation pourrait soit contribuer à une augmentation ou une diminution d’un coefficient de régression, dfbetas peut être positif ou négatif. Une valeur supérieure à DFBETA 2 / sqrt (n) mérite une enquête plus approfondie. Dans cet exemple, nous serions préoccupés par les valeurs absolues de plus de 2 / sqrt (51) ou .28.

Nous pouvons tracer les trois valeurs DFBETA pour les 3 coefficients contre l’id de l’Etat dans un graphique présenté ci-dessous pour nous aider à voir observations potentiellement problématiques. Nous voyons changé les étiquettes de valeur pour sdfb1sdfb2 et sdfb3 ils seraient nettement plus court et plus marqué dans le graphe. Nous pouvons voir que le DFBETA pour unique pour "dc" est d’environ 3, ce qui indique que, en incluant "dc" dans le modèle de régression, le coefficient de unique est 3 erreurs standard plus grande qu’elle ne l’aurait été si "dc" avait été omis. Ceci est encore un autre élément de preuve que l’observation de "dc" est très problématique.

une variable dépendante: CRIME

Dans cette section, nous avons exploré un certain nombre de méthodes d’identification des valeurs aberrantes et des points influents. Dans une analyse typique, vous devrez probablement utiliser seulement certaines de ces méthodes. D’une manière générale, il existe deux types de méthodes d’évaluation des valeurs aberrantes: statistiques telles que les résidus, l’effet de levier, et le D de Cook, qui évaluent l’impact global d’une observation sur les résultats de la régression, et des statistiques telles que DFBETA qui évaluent l’impact spécifique d’une observation sur les coefficients de régression. Dans notre exemple, nous avons découvert que DC était un sujet de préoccupation majeur. Nous avons effectué une régression avec elle et sans elle et les équations de régression ont été très différentes. Nous pouvons justifier le retirer de notre analyse par le raisonnement que notre modèle est de prédire le taux de criminalité pour les États non pour les régions métropolitaines.

2.2 Tests de Normalité de Résidus

L’une des hypothèses de l’analyse de régression linéaire est que les résidus sont distribués normalement. Il est important de répondre à cette hypothèse pour les valeurs de p pour les tests t pour être valide. Nous allons utiliser le fichier de données elemapi2 nous avons vu dans le chapitre 1 pour ces analyses. Nous allons prédire le rendement scolaire (api00 ) De repas gratuits pour cent de réception (repas ), Pour cent des apprenants de langue anglaise (aune ), Et pour cent des enseignants avec des informations d’identification d’urgence (emer ). Nous utilisons ensuite la /enregistrer commande pour générer les résidus.

EMER, ELL, REPAS (a)

a Tous demandé variables entrées.

b Variable dépendante: API00

Ajusté R Carré

Std. Erreur de l’estimation

un prédicteurs: (Constant), EMER, ELL, REPAS

b Variable dépendante: API00

un prédicteurs: (Constant), EMER, ELL, REPAS

b Variable dépendante: API00

une variable dépendante: API00

une variable dépendante: API00

Std. Valeur prédite

une variable dépendante: API00

Nous utilisons maintenant la examiner commande à regarder la normalité de ces résidus. Tous les résultats de la examiner commande suggèrent que les résidus sont normalement distribués – l’asymétrie et l’aplatissement sont près de 0, le "les tests de normalité" ne sont pas significatifs, l’histogramme semble normal, et l’intrigue Q-Q semble normal. Sur la base de ces résultats, les résidus de cette régression semblent être conforme à l’hypothèse d’être distribuées normalement.

    Traitement des demandes Résumé

    95% Intervalle de confiance pour une moyenne

    Tests de Normalité

    * Ceci est une limite inférieure de la véritable signification.

    une importance Correction Lilliefors

Une autre hypothèse de l’ordinaire régression des moindres carrés est que la variance des résidus est homogène entre les différents niveaux des valeurs prédites, aussi connu comme homoscédasticité. Si le modèle est bien équipé, il devrait y avoir aucun modèle aux résidus tracés contre les valeurs ajustées. Si la variance des résidus est non constant, la variance résiduelle est dite "hétéroscédastique." Ci-dessous, nous illustrons les méthodes graphiques pour détecter hétéroscédasticité. Une méthode graphique couramment utilisée consiste à utiliser le résidu par rapport complot monté pour montrer les résidus par rapport aux valeurs ajustées (prédites). Ci-dessous, nous utilisons le / scatterplot sous-commande pour tracer * zresid (résidus standardisés) par * pred (Les valeurs prédites). Nous voyons que le modèle des points de données devient un peu plus étroit vers l’extrémité droite, une indication de l’hétéroscédasticité doux.

Lançons un modèle où nous incluons seulement inscrire comme un prédicteur et montrez vs prédit tracé des résidus. Comme vous pouvez le voir, ce graphique montre hétéroscédasticité grave. La variabilité des résidus lorsque la valeur prédite est d’environ 700 est beaucoup plus grande que lorsque la valeur prédite est 600 ou lorsque la valeur prédite est 500.

une variable dépendante: API00

Comme vous pouvez le voir, la distribution des résidus semble bien, même après nous avons ajouté la variable inscrire. Quand nous avons eu juste la variable inscrire dans le modèle, nous avons fait une transformation logarithmique pour améliorer la distribution des résidus, mais quand s’inscrire faisait partie d’un modèle avec d’autres variables, les résidus avait l’air bien donc pas de transformation était nécessaire. Ceci illustre la manière dont la répartition des résidus, et non la distribution du prédicteur, était le facteur de guidage pour déterminer si une transformation était nécessaire.

Quand il y a une relation linéaire parfaite entre les prédicteurs, les estimations pour un modèle de régression ne peuvent pas être calculés de façon unique. Le terme colinéarité implique que deux variables sont près de combinaisons linéaires parfaites les unes des autres. Lorsque plus de deux variables sont impliqués, il est souvent appelé multicolinéarité, bien que les deux termes sont souvent utilisés de manière interchangeable.

La principale préoccupation est que le degré de multicolinéarité augmente, les estimations du modèle de régression des coefficients deviennent instables et les erreurs standard pour les coefficients peuvent obtenir sauvagement gonflé. Dans cette section, nous allons explorer certaines commandes SPSS qui aident à détecter la multicolinéarité.

Nous pouvons utiliser la / Statistiques = défaut tol de demander l’affichage de "tolérance" et "VIF" valeurs pour chaque prédicteur comme un chèque de multicolinéarité. le "tolérance" est une indication de la pour cent de la variance dans le prédicteur qui ne peut être expliquée par les autres prédicteurs, d’où de très petites valeurs indiquent qu’un prédicteur est redondant, et les valeurs qui sont à moins de .10 peut mériter une enquête plus approfondie. Le VIF, qui signifie variance facteur d’inflation. est (1 / tolérance) et en règle générale, une variable dont les valeurs VIF est supérieure à 10 peut mériter une enquête plus approfondie. Regardons d’abord à la régression que nous avons fait de la dernière section, le modèle de régression prédisant api00 de repas, ell et emer en utilisant le / Statistiques = défaut tol subcommand. Comme vous pouvez le voir, le "tolérance" et "VIF" Les valeurs sont tout à fait acceptable.

    lt; une certaine sortie supprimé pour sauver spacegt;

une variable dépendante: NAISSANCE

2.6 Spécification du modèle

Une erreur de spécification du modèle peut se produire lorsqu’une ou plusieurs des variables pertinentes sont omises dans le modèle ou une ou plusieurs variables non pertinentes sont incluses dans le modèle. Si les variables pertinentes sont omises dans le modèle, la variance commune qu’ils partagent avec les variables incluses peut être attribué à tort ces variables, et le terme d’erreur peut être gonflé. D’autre part, si les variables pertinentes sont incluses dans le modèle, la variance commune qu’ils partagent avec les variables incluses peut être attribuée à tort à eux. Modèle erreurs de spécification peuvent affecter sensiblement l’estimation des coefficients de régression.

Considérons le modèle ci-dessous. Cette régression suggère que la taille des classes augmente les performances académiques augmente, avec p = 0,053. Avant de publier les résultats en disant que l’augmentation de la taille des classes est associée à de meilleurs résultats scolaires, nous allons vérifier la spécification du modèle.

lt; une certaine sortie supprimé pour sauver spacegt;

une variable dépendante: API00

Nous voyons maintenant que preda2 est non significatif, donc ce test ne suggère pas qu’il y ait d’autres variables omises importantes. Notez qu’après avoir compris repas et plein. le coefficient de la taille des classes est plus importante. Tandis que acs_k3 n’avoir une relation positive avec api00 quand seulement plein est inclus dans le modèle, mais quand nous incluons aussi (et donc contrôler) repas, acs_k3 est plus significativement liée à api00 et sa relation avec api00 est plus positif.

2.7 Questions d’indépendance

La déclaration de cette hypothèse est que les erreurs associées à une observation ne sont pas corrélées avec les erreurs de toute autre observation. La violation de cette hypothèse peut se produire dans une variété de situations. Prenons le cas de la collecte des données des élèves dans huit écoles primaires différentes. Il est probable que les étudiants au sein de chaque école ont tendance à être plus comme un autre que les étudiants de différentes écoles, qui est, leurs erreurs ne sont pas indépendants.

Une autre façon dont l’hypothèse d’indépendance peut être rompue est lorsque les données sont recueillies sur les mêmes variables dans le temps. Disons que nous recueillons des données d’absentéisme chaque semestre pendant 12 ans. Dans cette situation, il est probable que les erreurs d’observations entre semestres adjacents seront plus fortement corrélés à des observations plus séparées dans le temps – ceci est connu comme autocorrélation. Lorsque vous avez des données qui peuvent être considérées comme des séries chronologiques, vous pouvez utiliser la statistique Durbin-Watson pour tester les résidus corrélés.

Nous ne disposons pas de données de séries chronologiques, de sorte que nous allons utiliser la elemapi2 ensemble de données et de prétendre que snum indique l’heure à laquelle les données ont été recueillies. Nous allons trier les données sur snum de commander les données en fonction de notre variable de temps faux et alors nous pouvons exécuter l’analyse de régression avec le durbin possibilité de demander le test de Durbin-Watson. La statistique de Durbin-Watson a une plage de 0 à 4 avec un point médian de 2. La valeur observée dans notre exemple est inférieur à 2, ce qui est surprenant étant donné que nos données ne sont pas vraiment des séries chronologiques.

un prédicteurs: (Constant), ENROLL

b Variable dépendante: API00

Ce chapitre a couvert une variété de sujets dans l’évaluation des hypothèses de régression en utilisant SPSS, et les conséquences de la violation de ces hypothèses. Comme nous l’avons vu, il ne suffit pas de simplement exécuter une analyse de régression, mais il est important de vérifier que les hypothèses ont été respectées. Si cette étape de vérification est omise et vos données ne répond pas aux hypothèses de régression linéaire, les résultats pourraient être trompeurs et votre interprétation de vos résultats pourraient être dans le doute. Sans vérifier soigneusement vos données pour des problèmes, il est possible qu’un autre chercheur pourrait analyser vos données et de découvrir de tels problèmes et interroger vos résultats montrant une analyse améliorée qui peut contredire vos résultats et de saper vos conclusions.

2.9 Pour plus d’informations

Vous pouvez voir les pages suivantes pour plus d’informations et de ressources sur le diagnostic de régression dans SPSS.

Le contenu de ce site Web ne doit pas être interprétée comme une approbation d’un site particulier, web, livre, ou d’un logiciel par l’Université de Californie.

Source: www.ats.ucla.edu

Lire la suite

  • Un exemple de régression LASSO utilisant glmnet pour résultat binaire – Cross Validé

    Les colonnes (variables) dans l’ensemble de données ci-dessus sont les suivantes: l’âge (âge de l’enfant en années) – le sexe continue – binaire (1 = masculin; 0 = féminin) bmi_p (IMC percentile) – m_edu continue (mère …

  • Miley Cyrus a donné une leçon

    Miley Cyrus a donné une leçon Miley Cyrus une leçon vedette Miley Cyrus (14 ans) Codes: MF, nc-contre, reluc, oral, anal, salope, pedo, viol, viol, Humil Disclaimer: Cette histoire est complètement …

  • Plans de leçon Unité Magazine (Moyen, Reading

    # 1464. Unité Magazine I fait une affiche pour chacune des pages suivantes: Page, Pictorial, Publicités, Puzzle Editor, Book Review. Je coupe les sections de magazines et de les collé sur l’affiche …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

1 + 7 =