Les cours psy
Découvrez et apprenez, pas à pas, les fondements de la psychologie
Cours de Psychologie
Mode ZEN

4 - Les domaines de recherche

Zone de Texte: Apprentissage							Langage    Mémoire ou  connaissance    Perception							Raisonnement

I - La perception

  • Définition

 

Elle désigne les opérations de prise d’informations. A chaque instant, les 5 sens détectent des changements d’états physiques dans notre environnement. La fonction de la perception est de transformer les excitations sensorielles en information.

 

Modalités

Organes

Stimulus

Olfaction

nez

Compositions chimiques inspirées

Gustation

Bouche

Compositions alimentaires avalées

Tactil

Peau /muscle

Pression, déformation de tissu

Auditif

Oreilles

Pression atmosphérique

vision

Yeux

Faisceaux lumineux

 

  • Perception et communication

Traiter l’information, c’est passer du stimulus à l’information. Cette-dernière est donc au centre des processus perceptifs puisqu’elle nous permet de nous adapter à notre environnement et de collecter des connaissances. La perception que l’on a de l’environnement influence considérablement notre représentation du monde ainsi que notre façon de nous comporter.

La perception joue également un rôle fondamental dans toutes les formes de communication, puisque tout mode de communication nécessite une complémentarité sensorielle. La complexité des phénomènes sensoriels est apparue dans son ampleur lorsque l’on a commencé à programmer des ordinateurs afin qu’ils analysent l’environnement de la même manière que le font les hommes. Toute sa complexité se résume au fait que la perception n’est pas une représentation exacte de la structure de l’environnement.

II - La mémoire

On considère que la mémoire contient trois registres différents :

  • la mémoire sensorielle, très courte
  • la mémoire de travail dite à court terme
  • la mémoire à long terme qui emmagasine toutes les connaissances que l’on possède sur l’environnement

 

  • La mémoire à court terme

 

Les informations y sont conservées durant un temps de 5 à 9 secondes et y sont en petit nombre. Sa capacité étant limitée dans les situations de raisonnement, la mémoire élabore des astuces qui consistent à regrouper des informations en unités signifiantes.

Deux psychologues, Chase et Simon se sont intéressés à ces capacités et ont fait l’hypothèse que des joueurs d’échec allaient regrouper les pions en unités signifiantes, correspondant à des figures de jeu typique.

Leur test consistait à demander à des experts en échec de mémoriser les positions de pièces présentes sur un échiquier. La variable indépendante est la position des pièces, rappelant ou non des figures existantes. La variable dépendante est le nombre de pièces correctement rappelées. Leur hypothèse  fut vérifiée puisque le nombre de pièces correctement rappelées était plus important lorsqu’elles étaient disposées selon des figures existantes.

  • La mémoire à long terme

Elle présente des caractéristiques opposées à celles de la mémoire à court terme. Les informations y sont stockées de manière quasi-permanente et ses capacités sont considérables. On distingue deux catégories d’informations stockées :

  • les informations factuelles qui sont des souvenirs d’ensemble de faits. Il s’agit de la mémoire épisodique
  • les connaissances schématiques qui concernent les règles générales d’organisation de l’environnement. Il s’agit de la mémoire sémantique.

 

Pour parvenir à un fonctionnement économique, on imagine que les informations sont étiquetées, organisées en catégories avec des représentations schématiques. Se pose tout de même la question de savoir si ses informations sont exactes ou si elles présentent une réalité déformée.

Loftus et Palmer mirent au point une expérience afin de répondre à cette question : ils présentèrent aux sujets un film dans lequel deux voitures avaient un accrochage.  Une semaine après la présentation, ils demandèrent aux sujets de rappeler les détails du film au travers de cette question : « Evaluer la vitesse des voitures lorsqu’elles se sont touchées/ accrochées / percutées / écrasées l’une contre l’autre ».

La variable indépendante est l’expression utilisée selon les 4 modalités (4 groupes sont faits, les 4 questions leur étant distribuées aléatoirement). La variable dépendante est la vitesse évaluée. Les résultats montèrent que la vitesse évaluée augmentait en fonction de l’expression utilisée dans la question.

Conclusion : les évènements rappelés sont fortement influencés par le cotexte dans lequel le sujet se trouve. On dit que la mémoire reconstruit les informations en fonction du contexte, elle n’est donc pas un souvenir exact de la réalité.  

 

III - L’apprentissage

L’information que le cerveau doit analyser lors d’une situation n’est pas extraite immédiatement, il faut que celle-ci se répète pour que le sujet parvienne à extraire l’information pertinente. Cette répétition constitue une situation d’apprentissage.

Le domaine de l’apprentissage est un champ très important de la psychologie : l’Homme représente l’espèce dans laquelle il y a le plus de décalages entre les connaissances à la naissance et à l’âge adulte.

Il existe deux grandes orientations de recherche :

  • Le domaine de l’apprentissage spécifique

 

On isole les différentes étapes de traitement qui interviennent dans l’une ou l’autre des compétences : lecture, langue étrangère, numération etc.

  • La recherche de lois générales d’apprentissage

 

Quelque soit la nature des données que l’on apprend, il existe des principes de contraintes qui pèsent sur l’apprentissage. Ces contraintes ne sont pas spécifiques à l’Homme : les expériences menées sur le conditionnement fonctionnent de la même façon chez les animaux.

Dans les années 2000, la tendance de la recherche se portait sur les mécanismes d’apprentissage implicite, situation dans laquelle le sujet apprend sans en être conscient. L’une des questions centrales était de savoir si ces apprentissages ne sont pas plus efficaces que les apprentissages explicites.

 

IV - Perception et compréhension du langage

Le langage est la voie royale qui mène aux processus cognitifs car la plupart des activités intellectuelles s’exprime grâce à lui. Il est également un outil de représentation symbolique par excellence puisqu’il permet de représenter beaucoup d’informations en mémoire. Enfin, il est le moyen de communication le plus efficace entre les individus.

Certains linguistes estiment que l’organisation du langage reflète les structures de la pensée humaine. De ce fait, étudier le langage serait comme étudier les structures de la pensée. On parle de psycholinguistique.

  • L’activation du sens des mots

Il s’agit de savoir sous quel format les mots sont représentés en mémoire afin de comprendre la phase d’accès au lexique. Plusieurs formats sont possibles, un format orthographique ou encore un format phonologique qui laisserait beaucoup plus de place aux sonorités.

Des expériences sont menées pour répondre à cette question. On présente des mots et des non-mots à des sujets sur un écran d’ordinateur. On demande aux sujets de définir la catégorie du stimulus, c'est-à-dire d’identifier s’il s’agit d’un mot ou d’un non-mot. Si le format du lexique en mémoire est orthographique, le temps de réponse pour la reconnaissance des mots sera égal à celui de la reconnaissance des non-mots. Si le lexique est organisé sous un format phonologique, le temps de reconnaissance du terme ‘mentaux’ devrait être supérieur à celui du terme ‘mentour’ car ce-dernier est plus proche du terme ‘menteur’ par le son.

  • L’organisation du lexique

Le lexique peut être organisé par ordre alphabétique ou par taille, bien que cela semble peu plausible. Il peut aussi être classé par fréquence d’apparition dans la langue de façon à regrouper des mots usuels ou encore par thème et relation sémantique.

L’un des tests utilisés pour étudier cette hypothèse est le test du rangement par thème. On présente un mot cible précédé d’un premier mot jouant le rôle d’amorce et affichée très rapidement. La variable indépendante est la relation thématique existant entre l’amorce et le mot cible.

Les résultats montrent que l’analyse du mot cible ‘docteur’ est facilitée lorsque l’amorce est ‘hôpital’ plutôt que ‘tracteur’.

  • L’analyse syntaxique des phrases

Comprendre le sens d’une phrase consiste à répondre à la question : « qui fait quoi, à qui, pourquoi ? ». C’est donner à chaque mot de la phrase un statut fonctionnel non ambigu. Lorsqu’on lit ou qu’on écoute une phrase, on la découvre de façon séquentielle, cette séquentialité crée des contraintes sur l’analyse syntaxique (A chaque fois que l’on découvre un mot, on cherche quelle est la fonction syntaxique la plus simple qu’il occupe.)

Test : on présente une phrase au sujet puis on analyse ses réactions lorsqu’on rajoute des compléments à la phrase. En mesurant les mouvements oculaires, on peut mesurer le travail de réorganisation syntaxique effectué.

D’autres facteurs aident à lever les ambigüités tels les facteurs pragmatiques (rajouter des compléments), les facteurs liés au contexte de présentation des phrases ou encore les facteurs d’intonation ou de ponctuation.

  • Les processus de compréhension de texte

Il nous faut intégrer les phrases en un tout cohérent, cette intégration suppose l’intervention d’opérations faisant des inférences logiques et consistant à lire entre les lignes, c'est-à-dire à compléter l’information qui n’est pas écrite.

L’un des tests utilisé consiste à présenter une phrase au sujet puis à y ajouter des compléments. On pose ensuite des questions au sujet en faisant varier un des éléments du complément. On note ainsi les changements de réponse.

V - Raisonnement et résolution de problèmes

  • Principes généraux

La plupart de nos comportements est dirigée par une intention dont la réalisation pose problème, le comportement dépend donc de la solution qui va lui être trouvée. Résoudre un problème, c’est passer d’un état initial non satisfaisant à un état final satisfaisant, en réalisant des opérations mentales.

La recherche s’intéresse donc à la nature des opérations de raisonnement effectuées par le sujet : le raisonnement obéit-il aux règles de la logique formelle ou, ce qui est plus probable, à d’autres types de raisonnement (euphorique, métaphorique ?)

Les travaux montrèrent que le raisonnement dépend fortement du contenu sémantique des informations. On observe que les gens ont tendance à considérer logiques des conclusions qui s’accordent avec leur système de croyances. Le raisonnement humain obéit donc à d’autres règles que celles de la logique.

  • Les stratégies de résolution de problème
    • Définition

Résoudre un problème, c’est parvenir à effectuer des transformations en prenant en compte nos propres connaissances et celles liées à la situation initiale. C’est donc imaginer un ensemble de transformations, qui une fois qu’elles auront été appliquées à l’état initial, permettront d’atteindre l’état final.

 

  • Les problèmes à solution définie

Les stratégies de résolution de problème vont dépendre de la nature des solutions. Lorsqu’elles sont bien définies, le sujet n’envisage pas toutes les transformations permettant de passer de l’état initial à l’état final. Un joueur d’échec, par exemple, va développer des heuristiques sur les transformations qui devraient normalement le conduire au but visé. Comprendre les heuristiques est l’objectif de la recherche sur le raisonnement.

Si l’on prend le cas de l’exercice de la tour de Hanoï :
Le problème des tours de Hanoï est un jeu de réflexion imaginé par le mathématicien français Édouard Lucas, et consistant à déplacer des disques de diamètres différents d'une tour de « départ » à une tour d'« arrivée » en passant par une tour « intermédiaire » et ceci en un minimum de coups, tout en respectant les règles suivantes (source wikipédia):

  • on ne peut déplacer plus d'un disque à la fois,
  • on ne peut placer un disque que sur un autre disque plus grand que lui ou sur un emplacement vide.

 

 

 

Deux stratégies existent. Le novice va procéder par essai et par erreur, usant de la stratégie de tâtonnement. L’expert va utiliser une stratégie de planification des actions afin de réduire la différence entre l’état initial et l’état final, de façon à définir des sous-buts plus faciles à atteindre. Il n’est donc pas évident que les processus de perception et de mémorisation interagissent.

 

VI - L’intelligence artificielle

  • Démarche de recherche

 

Les recherches autour de l’intelligence artificielle se focalisent sur les aspects fonctionnels des activités cognitives en cherchant les logiques du fonctionnement des activités. Leur objectif est de simuler ces activités mentales sur un organisme artificiel, autrement dit un ordinateur.

Les recherches tendent donc à montrer que les activités mentales ne sont pas spécifiques à l’Homme dans la mesure où elles ne dépendraient pas uniquement de la physiologie du cerveau. En ce sens, tout système qui possèderait la même logique de fonctionnement dans ses activités, produirait de l’intelligence.

L’intelligence artificielle offre donc un nouveau moyen de vérifier les théories cognitives : le modèle élaboré sera donné à l’ordinateur, s’il se bloque, c’est que la théorie est incomplète ou contradictoire, si l’ordinateur élabore une autre solution que celle de l’Homme, cela implique que certaines étapes du programme sont fausses. Enfin, si le programme agit de la même façon que l’Homme, la théorie cognitive sera estimée plausible.

 

  • Historique

L’intelligence artificielle est née dans les années 50’s et résulte de deux évènements : la naissance d’une science de traitement logique de l’information et l’apparition des premières machines à traiter l’information.

Les premières machines à penser furent élaborées par Neuman aux Etats-Unis en 1945 puis par Turing en Angleterre en 1947.

  • Structures des premiers programmes
    • 1ère génération : le cognitivisme computationnel

Il s’agit de système d’intelligence artificielle fondé sur des règles de base symboliques. On demande à l’ordinateur d’enchaîner de façon rigide, une succession d’instructions. L’ordinateur lit la série de consigne mais ne produit pas d’intelligence, il utilise simplement celle que l’ingénieur a placé dans le programme.

Grâce à des règles de réponses simples, l’ordinateur entretient un dialogue interactif et simule ainsi l’intelligence. L’un des problèmes de ce type de système est qu’il nécessite de programmer toutes les configurations de questions possibles. De plus, si le sujet fait des fautes de frappe, l’ordinateur ne saura pas répondre. De même, si l’utilisateur répète les mêmes questions, l’ordinateur donnera toujours la même réponse. Ce type de programme simple ne peut donc s’adapter aux situations imprévues. Ils sont utilisés dans les bornes de distribution des billets de train par exemple.

 

  • Seconde génération : le système expert

Ils sont basés sur une architecture différente comprenant un ensemble d’informations données par le concepteur. De plus, le programme enregistre chaque stimulation et fait ainsi des inférences entre ses connaissances et les différentes stimulations. On dit que les systèmes experts disposent d’un moteur d’inférences.

L’ordinateur exploite donc aussi intelligemment que possible les informations qu’ils possèdent dans sa base de connaissances mais aussi celles transmises par l’utilisateur au fur et à mesure de ses emplois. Il est donc capable de trouver des solutions innovantes.

Le problème majeur de ce type de système porte sur la constitution de la base de connaissances car elle repose uniquement sur le travail de l’ingénieur. L’idéal serait donc de pouvoir se passer des connaissances humaines : l’objectif des ordinateurs de 3ème génération était de faire en sorte que les ordinateurs apprennent tout seul.

  • Troisième génération : les systèmes connectionnistes ou systèmes de réseaux de neurones (depuis 1985)

Toutes les activités mentales humaines se présentent sous la forme d’un influx nerveux se déplaçant au travers des réseaux de neurones et des connexions, c'est-à-dire des synapses. L’hypothèse des cognitivistes est donc que la puissance du cerveau humain provient de l’ensemble des connexions entre les cellules. Ils entreprirent ainsi de reconstituer artificiellement ce type de réseaux de neurones en silicone à l’intérieur des ordinateurs.

Le fonctionnement de l’ordinateur est semblable à celui de l’homme puisque chaque neurone laisse passer un certain nombre d’influx vers le neurone suivant.  Par exemple, lorsqu’on présente le stimulus ‘BON’, il faut que les cellules qui correspondent à ces lettres envoient de l’énergie vers la cellule ‘mot’ et n’en envoient pas vers la cellule ‘non-mot’.

Ces systèmes peuvent donc apprendre à ajuster leurs réponses, au travers de l’ensemble de leurs synapses, ils sont également tout à fait plausibles du point de vue physiologique. Ce type de programme est utilisé dans les logiciels de vieillissement des visages par exemple.

VII - Les neurosciences

  • Historique

En même temps que naît la psychologie cognitive et l’intelligence artificielle, un champ de la médecine et de la biologie commence à s’intéresser aux activités intellectuelles telles que le langage, la perception et l’apprentissage. Les techniques d’observation du cerveau se sont également perfectionnées, permettant ainsi de regarder et de filmer les cellules en train de réaliser telle ou telle activité.

  • Les hypothèses de traitement de l’information

On estime que le traitement de l’information se traduit sur le plan physiologique par l’activation de neurones situés à différents endroits du cerveau. L’un des objectifs de la neuroscience est donc d’identifier les cellules impliquées dans telle ou telle phase de traitement de l’information.

Les premières recherches furent réalisées par Hubel et Wiesel en 1960. Leurs objectifs étaient de comprendre s’il existait des cellules spécialisées dans le traitement d’informations visuelles spécifiques. Ils pensaient en effet que certaines cellules étaient spécialisées dans le traitement d’informations visuelles verticales et d’autres horizontales.

Ils envoyèrent donc des stimuli horizontaux, verticaux et obliques à un chat sur lequel avaient été fixées des électrodes enregistrant le signal électrique envoyé.  Ils constatèrent ainsi que lors des stimuli verticaux, certains neurones s’activent alors qu’ils sont inactifs lors des stimuli horizontaux. Il existe donc des groupes de neurones spécialisés dans le traitement de l’information spécifique : on les appelle des modules. En conséquence, les activités mentales sont réalisées par un ensemble de traitements effectués par des modules indépendants à l’intérieur du cerveau.

  • La cartographie fonctionnelle

Les deux hémisphères sont spécialisés dans des activités cognitives différentes. L’hémisphère gauche gère la linguistique, la déduction, la résolution logique de problème ou encore la maîtrise du calcul. L’hémisphère droit traite les informations non linguistiques, intervient dans les déductions formelles non linguistiques, la musique et analyse les formes dans l’espace.

Si l’on prend l’exemple du jeu TETRIS :

  • une forme visuelle est captée par l’œil et envoyée vers les aires visuelles
  • la zone frontale du cerveau droit déduit l’orientation
  • le résultat est envoyé vers les zones motrices du cerveau, ce qui permet de déplacer l’objet
  • d’autres zones sont activées, liées à la joie ou à la colère

Le traitement de l’information consiste donc en une décomposition de l’activité en différentes activités plus complexes.

  • Les méthodes
    • L’exploitation de la lésion cérébrale : la neuropsychologie

Cette méthode remonte aux travaux de Broca. Ce médecin observa un patient incapable de parler mais ne présentant aucune autre lésion. Il s’agissait donc d’un trouble cognitif spécialisé. A sa mort, il pratiqua une autopsie et identifia une lésion spécifique dans l’hémisphère gauche. Cette région, appelée aire de Broca, est donc impliquée dans le traitement spécifique du langage, c'est-à-dire la parole.

Plus tard, Wernické reproduisit la même méthode sur un patient capable de parler mais dans l’impossibilité de comprendre le langage ou de produire des phrases ayant un sens. Il identifia ainsi une lésion cérébrale située à l’arrière de l’oreille, il la nomma aire de Wernické, il s’agit de la zone intervenant dans la compréhension de la parole.

Plus tard, des dissociations furent également observées au niveau de la mémoire, sur des sujets qui présentaient une perte de la mémoire à long terme mais qui gardaient l’information en mémoire à court terme, et vice et versa. Cette double dissociation prouva que les zones cérébrales de la mémoire à court terme et de la mémoire à long terme sont différentes et fonctionnent indépendamment.

L’objectif de la neuropsychologie est donc de comprendre la relation entre des troubles spécifiques et des lésions cérébrales précises, de façon à entreprendre une cartographie du cerveau.

  • Les techniques d’imageries cérébrales

Elles consistent à photographier le cerveau en train de faire telle ou telle activité.

La première fut mise au point par M Posner, il s’agit de la tomographie par émission de positrons TEPscan. Lorsque le cerveau entre en activité, le débit sanguin augmente, il suffit donc de marquer radioactivement un élément contenu dans le sang, pour observer cette zone. On utilise ainsi le glucose pour faire des expériences combinées, faire varier les tâches cognitives et observer les zones qui entrent en activité et ainsi établir une cartographie précise.

Postner proposa une expérience combinée en 1988 dans laquelle il présentait une tâche d’indentification et de traitement sémantique aux sujets. La première consistait à repérer une liste (mémoire à court terme), la seconde à écrire des proverbes (mémoire à long terme). Cette expérience lui permit de repérer la mémoire à court terme qui est située dans une zone de l’hémisphère gauche proche de l’aire de Wernicke, et la mémoire à long terme qui se répartit entre les deux hémisphères.

Une seconde technique existe, il s’agit de l’imagerie par résonance magnétique (IRM) qui ne nécessite pas d’injection de substance. Lorsqu’une zone est activée, sa résonance magnétique se modifie, la rendant ainsi détectable par des capteurs.