Elle désigne les opérations de prise d’informations. A chaque instant, les 5 sens détectent des changements d’états physiques dans notre environnement. La fonction de la perception est de transformer les excitations sensorielles en information.
Modalités |
Organes |
Stimulus |
Olfaction |
nez |
Compositions chimiques inspirées |
Gustation |
Bouche |
Compositions alimentaires avalées |
Tactil |
Peau /muscle |
Pression, déformation de tissu |
Auditif |
Oreilles |
Pression atmosphérique |
vision |
Yeux |
Faisceaux lumineux |
Traiter l’information, c’est passer du stimulus à l’information. Cette-dernière est donc au centre des processus perceptifs puisqu’elle nous permet de nous adapter à notre environnement et de collecter des connaissances. La perception que l’on a de l’environnement influence considérablement notre représentation du monde ainsi que notre façon de nous comporter.
La perception joue également un rôle fondamental dans toutes les formes de communication, puisque tout mode de communication nécessite une complémentarité sensorielle. La complexité des phénomènes sensoriels est apparue dans son ampleur lorsque l’on a commencé à programmer des ordinateurs afin qu’ils analysent l’environnement de la même manière que le font les hommes. Toute sa complexité se résume au fait que la perception n’est pas une représentation exacte de la structure de l’environnement.
On considère que la mémoire contient trois registres différents :
Les informations y sont conservées durant un temps de 5 à 9 secondes et y sont en petit nombre. Sa capacité étant limitée dans les situations de raisonnement, la mémoire élabore des astuces qui consistent à regrouper des informations en unités signifiantes.
Deux psychologues, Chase et Simon se sont intéressés à ces capacités et ont fait l’hypothèse que des joueurs d’échec allaient regrouper les pions en unités signifiantes, correspondant à des figures de jeu typique.
Leur test consistait à demander à des experts en échec de mémoriser les positions de pièces présentes sur un échiquier. La variable indépendante est la position des pièces, rappelant ou non des figures existantes. La variable dépendante est le nombre de pièces correctement rappelées. Leur hypothèse fut vérifiée puisque le nombre de pièces correctement rappelées était plus important lorsqu’elles étaient disposées selon des figures existantes.
Elle présente des caractéristiques opposées à celles de la mémoire à court terme. Les informations y sont stockées de manière quasi-permanente et ses capacités sont considérables. On distingue deux catégories d’informations stockées :
Pour parvenir à un fonctionnement économique, on imagine que les informations sont étiquetées, organisées en catégories avec des représentations schématiques. Se pose tout de même la question de savoir si ses informations sont exactes ou si elles présentent une réalité déformée.
Loftus et Palmer mirent au point une expérience afin de répondre à cette question : ils présentèrent aux sujets un film dans lequel deux voitures avaient un accrochage. Une semaine après la présentation, ils demandèrent aux sujets de rappeler les détails du film au travers de cette question : « Evaluer la vitesse des voitures lorsqu’elles se sont touchées/ accrochées / percutées / écrasées l’une contre l’autre ».
La variable indépendante est l’expression utilisée selon les 4 modalités (4 groupes sont faits, les 4 questions leur étant distribuées aléatoirement). La variable dépendante est la vitesse évaluée. Les résultats montèrent que la vitesse évaluée augmentait en fonction de l’expression utilisée dans la question.
Conclusion : les évènements rappelés sont fortement influencés par le cotexte dans lequel le sujet se trouve. On dit que la mémoire reconstruit les informations en fonction du contexte, elle n’est donc pas un souvenir exact de la réalité.
L’information que le cerveau doit analyser lors d’une situation n’est pas extraite immédiatement, il faut que celle-ci se répète pour que le sujet parvienne à extraire l’information pertinente. Cette répétition constitue une situation d’apprentissage.
Le domaine de l’apprentissage est un champ très important de la psychologie : l’Homme représente l’espèce dans laquelle il y a le plus de décalages entre les connaissances à la naissance et à l’âge adulte.
Il existe deux grandes orientations de recherche :
On isole les différentes étapes de traitement qui interviennent dans l’une ou l’autre des compétences : lecture, langue étrangère, numération etc.
Quelque soit la nature des données que l’on apprend, il existe des principes de contraintes qui pèsent sur l’apprentissage. Ces contraintes ne sont pas spécifiques à l’Homme : les expériences menées sur le conditionnement fonctionnent de la même façon chez les animaux.
Dans les années 2000, la tendance de la recherche se portait sur les mécanismes d’apprentissage implicite, situation dans laquelle le sujet apprend sans en être conscient. L’une des questions centrales était de savoir si ces apprentissages ne sont pas plus efficaces que les apprentissages explicites.
Le langage est la voie royale qui mène aux processus cognitifs car la plupart des activités intellectuelles s’exprime grâce à lui. Il est également un outil de représentation symbolique par excellence puisqu’il permet de représenter beaucoup d’informations en mémoire. Enfin, il est le moyen de communication le plus efficace entre les individus.
Certains linguistes estiment que l’organisation du langage reflète les structures de la pensée humaine. De ce fait, étudier le langage serait comme étudier les structures de la pensée. On parle de psycholinguistique.
Il s’agit de savoir sous quel format les mots sont représentés en mémoire afin de comprendre la phase d’accès au lexique. Plusieurs formats sont possibles, un format orthographique ou encore un format phonologique qui laisserait beaucoup plus de place aux sonorités.
Des expériences sont menées pour répondre à cette question. On présente des mots et des non-mots à des sujets sur un écran d’ordinateur. On demande aux sujets de définir la catégorie du stimulus, c'est-à-dire d’identifier s’il s’agit d’un mot ou d’un non-mot. Si le format du lexique en mémoire est orthographique, le temps de réponse pour la reconnaissance des mots sera égal à celui de la reconnaissance des non-mots. Si le lexique est organisé sous un format phonologique, le temps de reconnaissance du terme ‘mentaux’ devrait être supérieur à celui du terme ‘mentour’ car ce-dernier est plus proche du terme ‘menteur’ par le son.
Le lexique peut être organisé par ordre alphabétique ou par taille, bien que cela semble peu plausible. Il peut aussi être classé par fréquence d’apparition dans la langue de façon à regrouper des mots usuels ou encore par thème et relation sémantique.
L’un des tests utilisés pour étudier cette hypothèse est le test du rangement par thème. On présente un mot cible précédé d’un premier mot jouant le rôle d’amorce et affichée très rapidement. La variable indépendante est la relation thématique existant entre l’amorce et le mot cible.
Les résultats montrent que l’analyse du mot cible ‘docteur’ est facilitée lorsque l’amorce est ‘hôpital’ plutôt que ‘tracteur’.
Comprendre le sens d’une phrase consiste à répondre à la question : « qui fait quoi, à qui, pourquoi ? ». C’est donner à chaque mot de la phrase un statut fonctionnel non ambigu. Lorsqu’on lit ou qu’on écoute une phrase, on la découvre de façon séquentielle, cette séquentialité crée des contraintes sur l’analyse syntaxique (A chaque fois que l’on découvre un mot, on cherche quelle est la fonction syntaxique la plus simple qu’il occupe.)
Test : on présente une phrase au sujet puis on analyse ses réactions lorsqu’on rajoute des compléments à la phrase. En mesurant les mouvements oculaires, on peut mesurer le travail de réorganisation syntaxique effectué.
D’autres facteurs aident à lever les ambigüités tels les facteurs pragmatiques (rajouter des compléments), les facteurs liés au contexte de présentation des phrases ou encore les facteurs d’intonation ou de ponctuation.
Il nous faut intégrer les phrases en un tout cohérent, cette intégration suppose l’intervention d’opérations faisant des inférences logiques et consistant à lire entre les lignes, c'est-à-dire à compléter l’information qui n’est pas écrite.
L’un des tests utilisé consiste à présenter une phrase au sujet puis à y ajouter des compléments. On pose ensuite des questions au sujet en faisant varier un des éléments du complément. On note ainsi les changements de réponse.
La plupart de nos comportements est dirigée par une intention dont la réalisation pose problème, le comportement dépend donc de la solution qui va lui être trouvée. Résoudre un problème, c’est passer d’un état initial non satisfaisant à un état final satisfaisant, en réalisant des opérations mentales.
La recherche s’intéresse donc à la nature des opérations de raisonnement effectuées par le sujet : le raisonnement obéit-il aux règles de la logique formelle ou, ce qui est plus probable, à d’autres types de raisonnement (euphorique, métaphorique ?)
Les travaux montrèrent que le raisonnement dépend fortement du contenu sémantique des informations. On observe que les gens ont tendance à considérer logiques des conclusions qui s’accordent avec leur système de croyances. Le raisonnement humain obéit donc à d’autres règles que celles de la logique.
Résoudre un problème, c’est parvenir à effectuer des transformations en prenant en compte nos propres connaissances et celles liées à la situation initiale. C’est donc imaginer un ensemble de transformations, qui une fois qu’elles auront été appliquées à l’état initial, permettront d’atteindre l’état final.
Les stratégies de résolution de problème vont dépendre de la nature des solutions. Lorsqu’elles sont bien définies, le sujet n’envisage pas toutes les transformations permettant de passer de l’état initial à l’état final. Un joueur d’échec, par exemple, va développer des heuristiques sur les transformations qui devraient normalement le conduire au but visé. Comprendre les heuristiques est l’objectif de la recherche sur le raisonnement.
Si l’on prend le cas de l’exercice de la tour de Hanoï :
Le problème des tours de Hanoï est un jeu de réflexion imaginé par le mathématicien français Édouard Lucas, et consistant à déplacer des disques de diamètres différents d'une tour de « départ » à une tour d'« arrivée » en passant par une tour « intermédiaire » et ceci en un minimum de coups, tout en respectant les règles suivantes (source wikipédia):
Deux stratégies existent. Le novice va procéder par essai et par erreur, usant de la stratégie de tâtonnement. L’expert va utiliser une stratégie de planification des actions afin de réduire la différence entre l’état initial et l’état final, de façon à définir des sous-buts plus faciles à atteindre. Il n’est donc pas évident que les processus de perception et de mémorisation interagissent.
Les recherches autour de l’intelligence artificielle se focalisent sur les aspects fonctionnels des activités cognitives en cherchant les logiques du fonctionnement des activités. Leur objectif est de simuler ces activités mentales sur un organisme artificiel, autrement dit un ordinateur.
Les recherches tendent donc à montrer que les activités mentales ne sont pas spécifiques à l’Homme dans la mesure où elles ne dépendraient pas uniquement de la physiologie du cerveau. En ce sens, tout système qui possèderait la même logique de fonctionnement dans ses activités, produirait de l’intelligence.
L’intelligence artificielle offre donc un nouveau moyen de vérifier les théories cognitives : le modèle élaboré sera donné à l’ordinateur, s’il se bloque, c’est que la théorie est incomplète ou contradictoire, si l’ordinateur élabore une autre solution que celle de l’Homme, cela implique que certaines étapes du programme sont fausses. Enfin, si le programme agit de la même façon que l’Homme, la théorie cognitive sera estimée plausible.
L’intelligence artificielle est née dans les années 50’s et résulte de deux évènements : la naissance d’une science de traitement logique de l’information et l’apparition des premières machines à traiter l’information.
Les premières machines à penser furent élaborées par Neuman aux Etats-Unis en 1945 puis par Turing en Angleterre en 1947.
Il s’agit de système d’intelligence artificielle fondé sur des règles de base symboliques. On demande à l’ordinateur d’enchaîner de façon rigide, une succession d’instructions. L’ordinateur lit la série de consigne mais ne produit pas d’intelligence, il utilise simplement celle que l’ingénieur a placé dans le programme.
Grâce à des règles de réponses simples, l’ordinateur entretient un dialogue interactif et simule ainsi l’intelligence. L’un des problèmes de ce type de système est qu’il nécessite de programmer toutes les configurations de questions possibles. De plus, si le sujet fait des fautes de frappe, l’ordinateur ne saura pas répondre. De même, si l’utilisateur répète les mêmes questions, l’ordinateur donnera toujours la même réponse. Ce type de programme simple ne peut donc s’adapter aux situations imprévues. Ils sont utilisés dans les bornes de distribution des billets de train par exemple.
Ils sont basés sur une architecture différente comprenant un ensemble d’informations données par le concepteur. De plus, le programme enregistre chaque stimulation et fait ainsi des inférences entre ses connaissances et les différentes stimulations. On dit que les systèmes experts disposent d’un moteur d’inférences.
L’ordinateur exploite donc aussi intelligemment que possible les informations qu’ils possèdent dans sa base de connaissances mais aussi celles transmises par l’utilisateur au fur et à mesure de ses emplois. Il est donc capable de trouver des solutions innovantes.
Le problème majeur de ce type de système porte sur la constitution de la base de connaissances car elle repose uniquement sur le travail de l’ingénieur. L’idéal serait donc de pouvoir se passer des connaissances humaines : l’objectif des ordinateurs de 3ème génération était de faire en sorte que les ordinateurs apprennent tout seul.
Toutes les activités mentales humaines se présentent sous la forme d’un influx nerveux se déplaçant au travers des réseaux de neurones et des connexions, c'est-à-dire des synapses. L’hypothèse des cognitivistes est donc que la puissance du cerveau humain provient de l’ensemble des connexions entre les cellules. Ils entreprirent ainsi de reconstituer artificiellement ce type de réseaux de neurones en silicone à l’intérieur des ordinateurs.
Le fonctionnement de l’ordinateur est semblable à celui de l’homme puisque chaque neurone laisse passer un certain nombre d’influx vers le neurone suivant. Par exemple, lorsqu’on présente le stimulus ‘BON’, il faut que les cellules qui correspondent à ces lettres envoient de l’énergie vers la cellule ‘mot’ et n’en envoient pas vers la cellule ‘non-mot’.
Ces systèmes peuvent donc apprendre à ajuster leurs réponses, au travers de l’ensemble de leurs synapses, ils sont également tout à fait plausibles du point de vue physiologique. Ce type de programme est utilisé dans les logiciels de vieillissement des visages par exemple.
En même temps que naît la psychologie cognitive et l’intelligence artificielle, un champ de la médecine et de la biologie commence à s’intéresser aux activités intellectuelles telles que le langage, la perception et l’apprentissage. Les techniques d’observation du cerveau se sont également perfectionnées, permettant ainsi de regarder et de filmer les cellules en train de réaliser telle ou telle activité.
On estime que le traitement de l’information se traduit sur le plan physiologique par l’activation de neurones situés à différents endroits du cerveau. L’un des objectifs de la neuroscience est donc d’identifier les cellules impliquées dans telle ou telle phase de traitement de l’information.
Les premières recherches furent réalisées par Hubel et Wiesel en 1960. Leurs objectifs étaient de comprendre s’il existait des cellules spécialisées dans le traitement d’informations visuelles spécifiques. Ils pensaient en effet que certaines cellules étaient spécialisées dans le traitement d’informations visuelles verticales et d’autres horizontales.
Ils envoyèrent donc des stimuli horizontaux, verticaux et obliques à un chat sur lequel avaient été fixées des électrodes enregistrant le signal électrique envoyé. Ils constatèrent ainsi que lors des stimuli verticaux, certains neurones s’activent alors qu’ils sont inactifs lors des stimuli horizontaux. Il existe donc des groupes de neurones spécialisés dans le traitement de l’information spécifique : on les appelle des modules. En conséquence, les activités mentales sont réalisées par un ensemble de traitements effectués par des modules indépendants à l’intérieur du cerveau.
Les deux hémisphères sont spécialisés dans des activités cognitives différentes. L’hémisphère gauche gère la linguistique, la déduction, la résolution logique de problème ou encore la maîtrise du calcul. L’hémisphère droit traite les informations non linguistiques, intervient dans les déductions formelles non linguistiques, la musique et analyse les formes dans l’espace.
Si l’on prend l’exemple du jeu TETRIS :
Le traitement de l’information consiste donc en une décomposition de l’activité en différentes activités plus complexes.
Cette méthode remonte aux travaux de Broca. Ce médecin observa un patient incapable de parler mais ne présentant aucune autre lésion. Il s’agissait donc d’un trouble cognitif spécialisé. A sa mort, il pratiqua une autopsie et identifia une lésion spécifique dans l’hémisphère gauche. Cette région, appelée aire de Broca, est donc impliquée dans le traitement spécifique du langage, c'est-à-dire la parole.
Plus tard, Wernické reproduisit la même méthode sur un patient capable de parler mais dans l’impossibilité de comprendre le langage ou de produire des phrases ayant un sens. Il identifia ainsi une lésion cérébrale située à l’arrière de l’oreille, il la nomma aire de Wernické, il s’agit de la zone intervenant dans la compréhension de la parole.
Plus tard, des dissociations furent également observées au niveau de la mémoire, sur des sujets qui présentaient une perte de la mémoire à long terme mais qui gardaient l’information en mémoire à court terme, et vice et versa. Cette double dissociation prouva que les zones cérébrales de la mémoire à court terme et de la mémoire à long terme sont différentes et fonctionnent indépendamment.
L’objectif de la neuropsychologie est donc de comprendre la relation entre des troubles spécifiques et des lésions cérébrales précises, de façon à entreprendre une cartographie du cerveau.
Elles consistent à photographier le cerveau en train de faire telle ou telle activité.
La première fut mise au point par M Posner, il s’agit de la tomographie par émission de positrons TEPscan. Lorsque le cerveau entre en activité, le débit sanguin augmente, il suffit donc de marquer radioactivement un élément contenu dans le sang, pour observer cette zone. On utilise ainsi le glucose pour faire des expériences combinées, faire varier les tâches cognitives et observer les zones qui entrent en activité et ainsi établir une cartographie précise.
Postner proposa une expérience combinée en 1988 dans laquelle il présentait une tâche d’indentification et de traitement sémantique aux sujets. La première consistait à repérer une liste (mémoire à court terme), la seconde à écrire des proverbes (mémoire à long terme). Cette expérience lui permit de repérer la mémoire à court terme qui est située dans une zone de l’hémisphère gauche proche de l’aire de Wernicke, et la mémoire à long terme qui se répartit entre les deux hémisphères.
Une seconde technique existe, il s’agit de l’imagerie par résonance magnétique (IRM) qui ne nécessite pas d’injection de substance. Lorsqu’une zone est activée, sa résonance magnétique se modifie, la rendant ainsi détectable par des capteurs.