Cours de psychologie

Résumé

I. Neuropsychologie de l’attention.

 

Michael Posner et William James sont les pionniers de l’attention.

Historique : 18ème siècle on commence à parler de l’attention avec un statut scientifique → 19ème siècle la notion s’individualise, conscience et attention sont liées, introspection, Leibnitz pense que seules quelques stimulations nous parviennent qui deviennent conscientes → fin du 19ème siècle, Wundt, Titchener, Ribit et James premiers psychologues attentionnels, l’attention devient la sélection d’une pensée ou d’un évènement et son maintien, James a permis de séparer les différentes attention (volontaire et involontaire) → vers 1910, Ebbinghaus montre les capacités limitées de l’attention, donc nécessité d’être sélectif → début 20ème siècle, on arrête l’introspection on va vers la démarche inférentielle (temps de réaction et de réponse) → vers 1920, le Béhaviorisme ne considère pas l’attention, mais certains psychologues continuent de s’y intéresser comme Skinner et Pillsburry → années 50 renouveau avec Shannon et Weaver (traitement de l’information) et Moruzzi et Magoun (états de vigilance et veille-sommeil), l’attention est vue comme une interface entre la saisie de l’information et la représentation mentale → années 60 essor.

On a d’abord opposé la composante intensive (éveil contre sommeil) à la composante sélection, puis la composante passive/involontaire à la composante active/volontaire, ensuite la composante transitoire à la composante soutenue, et enfin la composante automatique à la composante contrôlée. On a donc de nos jours en psychologie, plusieurs théories de l’attention pour rendre compte des mêmes phénomènes empiriques.

Mécanisme de l’attention :

- sélection parmi le flux continu d’informations : provenant du monde extérieur, et au sein du répertoire de réponses dont nous disposons pour y réagir, évitant ainsi la surcharge de traitement sensoriel et l’incohérence, voire la paralysie des effectueurs.

- distribution d’un ensemble limité de potentialités de traitement : qui gère des priorités, lorsque plusieurs activités concurrentes doivent être menées simultanément.

- régulation des aspects intensifs du comportement : qui adapte le régime de fonctionnement de l’organisme aux sollicitations, transitoires ou à long terme, auxquelles nous devons faire face.

- contrôle du comportement : qui hiérarchise les modalités du traitement affecté à nos activités, différenciant celles privilégiées qui bénéficient d’un accès à la conscience, et celles, les plus nombreuses, qui se déroulent automatiquement.

Les traitements automatiques sont plutôt dirigés par les données de l’environnement, donc plutôt de type ascendant. Et à l’opposé, les traitements dits contrôlés sont de type descendant et dirigés par les connaissances et les buts du sujet.

Les processus automatiques peuvent être réalisés en parallèle, y compris simultanément à un processus contrôlé. A l’opposé, les processus contrôlés sont de nature séquentielle et ne pourraient pas être réalisés simultanément à un autre processus contrôlé.

Les stimuli visuels qui prennent place dans la zone fovéal bénéficient de l’acuité maximale, cette acuité baisse de manière importante au fur et à mesure que l’on s’éloigne de la zone fovéal vers la zone périphérique. Les stimuli qui occupent une position périphérique sur la rétine peuvent être placés au centre de la rétine par un déplacement du regard afin d’avoir une meilleure acuité.

Pour l’orientation exogène, Posner a mis en place l’expérience d’indiçage (écran, carré qui s’allume, et la cible apparaît soit dans le carré soit à côté), les temps de réactions des sujets sont significativement plus courts dans la condition valide et plus longs dans la condition non-valide. Kim a repris ce genre d’expérience pour tester l’attention endogène, en donnant un indice sur l’apparition de la cible les réactions sont plus courtes.

Exogène = la situation d’indiçage périphérique qui l’opérationnalise ; endogène = situation d’indiçage centrale quel qu’elle soit.

2 mécanismes pour orienter l’attention : le premier permettant le traitement d’évènements nouveaux ou inattendus qui peuvent se révéler avantageux ou dangereux, afin de répondre de façon appropriée par des comportements d’approche et d’évitement ; et un autre mécanisme qui lui permet le maintien d’un comportement dirigé vers un but en dépit d’évènement distracteur.

L’orientation de l’attention vers l’environnement active un réseau d’aires cérébrales avant que la cible apparaisse (aspect endogène), et ce réseau est distinct du réseau cérébral qui est crucial pour l’attention exogène plus reflexe, automatique.

 

Kinsella a proposé qu’il n’est pas suffisant de faire des tâches de barrage ou de ligne mais qu’il faut caractériser les tâches en termes de processus impliqués pour détecter l’héminégligence : explorer l’espace à la recherche de stimuli dans l’espace extra personnelle, puis traiter une représentation interne de l’espace.

La zone qui est commune au cas d’héminégligence gauche sévère est le carrefour pariéto-temporal. Dominance des lésions pariétales droite.

Même si on a du mal à estimer la prévalence de l’héminégligence après lésion gauche ou droite, on a un faisceau d’observation de résultats qui pointe le rôle particulier de l’hémisphère droit. Cela évoque l’idée qu’au trouble spatial latéralisé se surimpose un trouble attentionnel non latéralisé diffus qui aggraverait les manifestations de l’héminégligence.

On peut avoir une héminégligence sans extinction, et une extinction sans héminégligence.

On ne retient pas l’idée d’un déficit sensoriel pour expliquer l’héminégligence. Très souvent l’héminégligence est dans la jonction pariéto-temporal-occipital, donc contenu de la proximité des cortex on a de fortes chances d’avoir un déficit primaire de la vision, mais c’est insuffisant pour expliquer les effets de l’héminégligence. Il y a peut-être des traitements qui n’arrivent pas à la conscience mais le patient a quand même accès à certaines informations.

On peut expliquer l’héminégligence  comme étant causé par la destruction de la représentation de l’espace controlatéral, il y a une amputation non pas du champ visuelle mais de la représentation de l’espace qui est controlatérale ou bien il y a une distorsion/compression de la représentation de la partie gauche de l’espace.

L’héminégligence serait causée par un déficit attentionnel. Ce sont des processus attentionnels sous-jacents qui sont dysfonctionnels. Le modèle de Kinsbourne a 3 hypothèses : chaque hémisphère biaise l’attention vers l’hémi-espace controlatéral ; dans le cerveau normal, tendance à l’orientation vers la droite, en lien avec le biais d’orientation sous tendu par l’hémisphère gauche, plus puissant que celui de l’hémisphère droit ; la lésion droite, en désinhibant l’hémisphère gauche, exagère ce biais physiologique vers la droite, ce qui génère une négligence gauche.

Chez le sujet normal, l’axe sagittal du corps est superposé à la référence égocentrique. Mais lorsque l’on s’intéresse à l’héminégligence, tout semble se passer comme si cette référence egocentrique est décalée, dissociée de l’axe sagittal du corps. Les héminégligents on a une déviation ipsilésionnel de la position de la référence egocentrique.

L’héminégligence peut être vue comme causée par un dysfonctionnement de la mémoire visuospatiale.

Un trouble de l'attention spatiale explique la plupart, mais non la totalité, des phénomènes cliniques de l’héminégligence spatiale unilatérale gauche.

On admet que le façonnement normal de l'attention repose sur la mise en jeu de réseaux cérébraux distribués. L'imagerie cérébrale fonctionnelle corrobore cette conception et indiquent que l'orientation de l'attention spatiale est coordonnée par un réseau cérébral largement étendu sur le cortex. On a toujours une implication du cortex pariétal lors des tâches attentionnelles mais aussi des structures frontales et latérales et du cortex cingulaire antérieur (CCA).

Chacun des réseaux repose sur un neuromédiateur particulier : Commande (contrôle/exécutif) → réseau antérieur = dopamine. Attention sélective, orientation → réseau postérieur = cholinergique. Alerte → réseau de vigilance = noradrénergique.

 

II. Neuropsychologie du langage.

 

Kanner pois Asperger ont détecté des symptômes pouvant s’apparenter à l’autisme, mais c’est Lorna Wing qui utilisa pour la première fois le terme de syndrome d’Asperger.

La prévalence de l’autisme augmente, car nous avons une meilleure description, de meilleurs outils, une meilleure prise en charge, un meilleur dépistage, une meilleure acceptation du trouble autistique, l’abord social de l’autisme est différent d’avant.

Dans beaucoup de troubles neurodéveloppementaux précoce on a un sex-ratio plus important chez le garçon. Par contre le trouble est plus sévère quand il apparait chez la fille.

L’enfant autiste est dans un monde sensoriel qu’il perçoit mais il n’y a pas le manuel de décodage qui explique ce que signifient ces indices. Il faut lui donner des règles qu’il sait acquérir.

Troubles souvent associés au tableau autistique : perturbations sensorielles, réactions sensorielles paradoxales aux bruits, à la douleur, à la lumière, retard mental et trouble cognitif, trouble du comportement (crise de colère et d’angoisses massives, automutilations, témoignent souvent de l’impossibilité de l’enfant à s’exprimer ou de contrôler des réactions paradoxales).

Pour établir un diagnostic différentiel TED, prendre en compte : le niveau intellectuel, le niveau du développement du langage, si le comportement de l’enfant est en rapport avec son âge chronologique, mental et son niveau de langage, tenir compte du mode d’interaction sociale, du type du langage, du type de jeux des autres comportements, identifier toute maladie somatique qui pourrait être en rapport avec les troubles, rechercher la présence de facteurs psychosociaux important.

Eléments du diagnostic différentiel avec le retard mental avec perturbations comportementales : les enfants retardés mentaux cherchent souvent à engager des relations avec les autres enfants. D’autres parts, ils utilisent le langage qu’ils possèdent pour communiquer avec les autres. Aussi, leurs troubles cognitifs sont assez homogènes contrairement aux enfants autistes qui ont une dysharmonie.

Eléments du diagnostic différentiel avec des carences psychosociales : les enfants carencés peuvent manifester un comportement de retrait, de repli, un retard, des acquisitions langage et moteur. Mais ces enfants présentent une amélioration rapide lorsque les conditions de vie, le support familial s’améliore, devient plus riche et favorable.

Surdité : les enfants sourds ont un babillage normal jusqu’à 6 mois, ne réagissent pas aux sons forts, ils cherchent des relations et de l’affection.

Troubles de désintégration (TED) : les enfants évoluent entre 2 et 4 ans normalement puis il y a une régression brutale.

Un bon bilan prend en compte la place qu’un symptôme a pris dans l’équilibre du sujet.

 

La reconnaissance de la voix humaine et des visages constituent deux axes forts des interactions sociales : lien avec les troubles de l’interaction et de la communication chez les personnes autistes. Si un de ces axes, ou les deux sont perturbées cela constitue un premier décalage pour expliquer les troubles. On observe que ces deux axes montrent des anomalies très précoces chez l’enfant autiste. Chez les personnes avec autisme, le cortex auditif primaire ne s’active pas de manière sélective à la voix humaine. Aucune différence entre voix ou sons. Absence ou hypo-activation spécifique du gyrus fusiforme (FFA) chez les personnes autistes pour la reconnaissance des visages.

La segmentation de la parole en mots est une étape essentielle à l’acquisition et à la maitrise du langage par les enfants. Des troubles élémentaires de la parole vont en cascade, altérer la perception du langage, son apprentissage et sa compréhension chez les enfants autistes. Les mots ne sont pas acquis comme des unités arbitraires, en représentations mentales, les mots restent donc très contextualisés et dépendant des sensations du moment et peuvent acquérir une toute autre signification pour l’enfant.

Ils n’utilisent pas les catégorisations selon un mode sémantique mais plutôt sur un mode perceptif, avec hyperfonctionnement du traitement perceptif. Activation bilatérale du cortex visuel mais il n’y a pas d’activation du cortex pré frontal gauche associé à la représentation sémantique du mot. Les personnes autistes activent tout le temps les régions liées à l’imagerie mentale quelque soit le niveau d’imagerie de la phrase (fort ou faible niveau). Il y a aussi des difficultés à effectuer des traitements intégratifs (traiter de manière simultanée la forme du mot et le sens).

Le contexte ne joue pas son rôle d’intégration sémantique. Il y a un problème de connectivité et de synchronisation entre les zones cérébrales dédiées au traitement intégratif des phrases, ce qui fait ce traitement désarticulé.

Le traitement des phrases comprend 2 processus : activation automatique dans la mémoire sémantique de la signification des mots présent dans la phrase (plus faiblement fonctionnel pour les personnes autistes), et intégratif qui permet de corriger les attentes et de s’adapter au contexte.

Chaque hémisphère a un travail précis :

- hémisphère gauche : utilisation du processus d’activation, donne traitement grossier/rapide influencé par la structure catégorielle de la mémoire sémantique

- hémisphère droit : utilise le processus d’intégration plus dépendant d’un processus intégratif.

→ Pour les personnes autistes, il y a un déséquilibre entre ces deux hémisphères avec une place plus importante pour l’hémisphère droit.

Les personnes AHN traite l’information au sens littéral alors que celles atteints du syndrome d’asperger lexicalisent.

Le STS gyrus temporal supérieur traite la perception des mouvements sociaux (regard, lèvres, mouvement corporel) ; c’est une des zones qui n’est pas mobilisée par les personnes autistes. Donc difficulté à décoder et à comprendre les stimuli sociaux, ce qui entraine : l’isolement social, le repli, l’interaction passive et l’interaction active mais inappropriée.

Grâce à leur bon niveau intellectuel ce sont des personnes qui arrivent à contourner un certain nombre de déficits auxquels ils sont exposés, ils compensent. L’apprentissage chez les autistes fonctionne, mais c’est l’apprentissage automatique social qui ne fonctionne pas.

Activation au niveau para-cingulaire lorsque les stimuli véhiculent une intentionnalité communicative (regard) + lobes temporaux.

L’orientation du regard à l’appel de leur prénom fait partie des premiers signes chez les enfants qui développent un syndrome autistique par rapport à ceux qui ont un retard mental (eux orientent leur regard).

 

Tenir compte de la manière dont l’enfant autiste apprend : ses caractéristiques (intérêts spécifiques et répétitifs, déficits sociaux et communicatifs, traitement perceptif), mettre l’accent sur les capacités et non pas sur les déficits, adapter les interventions à l’intelligence générale.

Facteurs déterminant l’efficacité des interventions :

- précocité : lorsque l’intervention intervient entre 2-4 ans, les effets obtenus sont meilleurs que lorsque le même type de programme est appliqué aux enfants plus grands.

- intensité : programmes intensifs, encadrement, implication de pairs.

- spécificité : lié à la connaissance de la spécificité de l’autisme, de l’adaptation de l’adulte aux particularités des enfants à l’individualisation des procédures.

- choix des cibles du travail : les domaines à travailler, comportements pivots.

- effet du contexte d’apprentissage : l’apprentissage en milieu naturel est très efficace.

Le support visuel et la possibilité de se focaliser sur un écran d’ordi sont très appréciés par les joueurs avec autisme à cause de leur hyper discrimination perceptive et de leurs problèmes de communication.

Piste biologique se confirme, 2 pistes :

- NLGN3 et NLGN4 : protéines de ces gènes au niveau de la synapse. Si mutation au niveau de NLGN3 on perd la capacité de connexions avec d’autres neurone.

- SHANK 3 : protéine d’échafaudage entre les neurones, participe à l’architecture déficitaire de la synapse chez les autistes. Gène de susceptibilité associé à la mélanine et au rythme circadien ; susceptible car en combinaison avec autre chose ça peut induire syndrome autistique.

 

III. Neuropsychologie de la mémoire.

 

Un système cognitifs munie d’une mémoire permet à l’organisme de réagir de manière différentes à des évènements semblables, de choisir de ne pas réagir, d’ajuster ainsi ses réactions non seulement aux changements de l’environnement, à ses propres états internes (faim, fatigue, douleur…) mais aussi aux rapports que ces évènements et ces états entretiennent avec des évènements et des états passés.

Historique : Ebbinghaus en 1885 publie la 1ère étude expérimentale de la mémoire. Avec le béhaviorisme l’étude de la mémoire est rejetée. Vers 1950 émerge le cognitivisme avec des théories de traitements de l’information, on conçoit alors la mémoire comme étant l’ensemble des mécanismes d’encodage, de stockage et de récupération des informations. Pour Charcot, la mémoire en tant que telle n’existe pas, elle est morcelée en diverses mémoires partiels autonomes, elle n’est pas unitaire. Korsakov met en évidence que la fonction mnésique a une relative indépendance face à d’autres fonctions, il fait la distinction entre les troubles. Claparede a identifié deux phénomènes de la mémoire (effet d’amorçage et l’apprentissage de procédure) et fait une dissociation entre mémoire implicite et explicite. Milner a documenté les dissociations. Dans les années 1980 les équipes élaborent des modèles détaillés de la mémoire humaine qui sont beaucoup en termes de différents systèmes de mémoire, de relations entre les différents systèmes.

N’importe quel système de mémoire a besoin de trois choses : capacité à encoder l’information, à la stocker et à la récupérer l’information. Si ces 3 étapes servent des fonctions différentes, elles interagissent. On peut difficilement les considérer de manière isolée. Il y a des interactions entre elles. L’encodage détermine quelle information est stockée et comment, ce qui déterminera et limitera en retour ce qui peut être ultérieurement récupéré.

La conception en trace multiple (de Versace) considère que chaque confrontation à un évènement entraîne la création d’une trace mnésique qui correspond strictement aux activations sensori-motrices et émotionnelles provoquées par celui-ci. Selon cette approche, se serait l’accumulation de ces traces qui permettrait à partir de la confrontation répétée entre l’individu et un objet dans une large gamme de contextes différents qui permettrait d’extraire en quelques sortes, un sens. Le sens n’est pas conçu comme stable abstrait, mais serait recréé à chaque activation. Ce sens qui n’est pas stocké en tant que tel correspond à l’ensemble des activations sensori-motrices liées à cet objet.

Critères pour caractériser les systèmes de mémoire (relié à un certain modèle de l’architecture neurofonctionnelle) : seraient impliqués dans des fonctions cognitives et composantes mentales ne présentant qu’un recouvrement partiel ; sous-tendraient l’acquisition et la rétention de différents types de savoirs et d’informations ; seraient sous la dépendance de structures cérébrales et/ou de mécanismes neuronaux spécifiques ; leur fonctionnement obéirait à différentes règles ou lois ou principes distincts.

Une information sera d’autant mieux mémorisée que le traitement réalisé sur cette information est profond, porte sur le sens. De plus, l’utilisation du même contexte à la récupération facilite la performance. Un encodage adéquat doit introduire en mémoire une information suffisamment spécifique pour qu’elle puisse être sélectionnée parmi d’autres stockées lors de la phase de récupération.

 

Pour tester la mémoire procédurale : apprentissage par répétition (tâche du labyrinthe; celle de poursuite de cible sur un disque tournant, la lecture en miroir, tour de Hanoï…). Va activer le striatum et le cervelet. Anoétique sans prise de conscience du sujet.

Pour tester la mémoire perceptive : traiter la former visuelle et auditive des mots. Active le cortex visuel occipital et le cortex auditif. Anoétique et n’implique pas de prise de conscience de l’objet qu’il traite.

Pour tester la mémoire sémantique : DO 80/100 normée par Deloche et Kremin, et fluences verbales standardisée par Cardebat. Active les cortex temporaux et frontaux. Système noétique implique une prise de conscience des objets qu’il traite.

Pour tester la MdT : l’empan envers, la double tâche de type procédure de Brown Peterson ou double tâche de Baddeley (on mesure la capacité d’empan endroit, puis on demande d’effectuer une tâche de traçage/poursuite enfin on impose en même temps au sujet de réaliser les deux tâches simultanément. On regardera en quoi l’exécution simultanée gêne le sujet ; ce qui nous donne une mesure de déficience de l’administrateur central. Active le cortex frontal et pariétal. Système noétique : implique une prise de conscience des objets qu’il traite.

Pour tester la mémoire épisodique : tâches de rappel libre de mots (tester la connaissance sémantique avant, pour les patients Alzheimer). Active les lobes temporaux médians, l’hippocampe et le cortex frontal. Système autonoétique impliquant une prise de conscience de l’objet et du sujet propre en tant qu’il perçoit l’objet. L’évaluation de la mémoire épisodique est importante dans le dépistage et le diagnostic différentiel des démences neurodégénératives, ainsi que pour leur prise en charge.

Pour la mémoire autobiographique : 3 principes généraux (pertinence, seuls les souvenirs épisodiques qui présentent une certaine pertinence avec les buts de vie vont résister au passage du temps ; principe de sémantisation, la capacité de rappel des circonstances épisodiques de l’évènement s’estompe avec le temps au bénéfice du rappel des caractéristiques communes ; et dynamique temporelle, les évènements qui sont particulièrement importants dans la constitution du self sont eux stockés avec une grande richesse de détails et accessibles tout au long de la vie avec une récupération de tous ces détails). 3 phases pour ce qui concerne les souvenirs épisodique : rétention (concerne les souvenirs des 20 dernières années), amnésie infantile (pauvreté de rappel pour les évènements vécus avant 4/5 ans), et pic de réminiscence (renvoie à la supériorité de rappels des souvenirs encodés par l’adolescent et le jeune adulte en comparaison avec les autres périodes du passé, c’est la construction du sujet).

Pour la mémoire prospective : la mémoire prospective time-based serait plus sensible aux effets du vieillissement que la mémoire prospective event-based. Cela suggère que les deux types de mémoire prospective ont des mécanismes sous jacents différents. Dans le vieillissement normal les tâches event-based sont bien préservées tandis que les time-based sont plus problématiques (car nécessite plus d’implications des fonctions exécutives).

Pour l’amnésie permanente chez l’enfant : protocole pour tester l’acquisition et la rétention des connaissances sémantique en 3 phases : 1, on évalue les connaissances des enfants à l’aide de photos, pour voir ce qui est familier et nouveau ; 2, apprentissage de nouveaux concepts à l’aide de photos et de textes ; 3, post apprentissage, évaluation des connaissances. Synthèse des tests : les patients peuvent savoir sans se souvenir (acquisition de nouveaux concepts, rétention à long terme malgré les troubles et lésions de la mémoire épisodique), l’acquisition sémantique d’informations nouvelles ne requiert pas forcément la mémoire épisodique (existence d’une voie néocorticale qui pallierait le dysfonctionnement hippocampique), et efficacité de rééducation.

 

Importance des modèles : les évaluations de la mémoire en neuropsychologie chez l’adulte se fondent sur des modèles précis et détaillés des systèmes et des processus permettant d’encoder, stocker et recouvrer de l’information ; ces hypothèses théoriques sur les différents systèmes guident le dépistage et l’évaluation des troubles, ainsi que leur prise en charge ; les tests de mémoire sont souvent issus de procédures expérimentales ayant conduit par la suite à des procédures d’évaluation standardisées et normées.

Modèle d’Atkinson et Shiffrin en 1968 : l’information entre d’abord dans un registre d’informations sensorielles et y réside pendant un temps très bref, la MCT reçoit ensuite une sélection des informations en provenance du RIS, enfin une partie est transférée en MLT, caractérisée par la permanence de l’information stockée, même si cette information peut être temporairement indisponible ou remaniée/modifiée au moment de la récupération.

Modèle de la MLT, par Squire et Knowlton en 1995 : suppose un seul système pour la mémoire déclarative, comprenant les aspects sémantiques et épisodiques, tous deux dépendants du LTI (lobe temporal interne) et du diencéphale. Conduit à proposer une distinction entre mémoire déclarative/explicite et mémoire non déclarative/implicite. Le point commun à la mémoire déclarative et non déclarative sont qu’elles sont inscrites dans les systèmes sensoriels et les systèmes moteurs qui traitent l’information.

Modèle sériel de Tulving en 1995 : hypothèse que la mémoire est scindée en 5 systèmes : épisodique, sémantique, de travail, perceptive et procédurale. Encodage sériel, stockage en parallèle et récupération indépendante. 4 systèmes de représentation sont supérieurs hiérarchiquement (mémoire procédurale, système de représentations perceptives, mémoire sémantique et McT) et Tulving pense qu’ils sont organisés par emboitement. La mémoire épisodique devient un sous système spécialisé de la mémoire sémantique. Cette conception exclut la possibilité de certaines doubles dissociations.

Modèle NEo-Structural Inter-Systémique de la mémoire humaine (MNESIS), par Eustache et Desgranges en 2003 : comprend 5 systèmes de mémoire et intègre notamment les conceptions de Tulving et de Baddeley (boucle phono, calepin visuo-spatial, le système central exécutif qui alloue les ressources aux deux sous système, et le Buffer épisodique). Insiste sur les inter-relations entre les différents systèmes pour rendre compte du caractère dynamique et reconstructif de la mémoire humaine. La MdT a une place particulière, centrale et fait l’interface entre le sous système qui permet l’apprentissage procédural, et les systèmes de représentations épisodiques et sémantiques.

 

IV. Ergonomie textuelle.

 

La fonction du langage se comprend par le discours, l’individu et la situation.

Le langage consiste à communiquer par signes vocaux organisés dans un système. Ce système c’est la langue, un ensemble de signes partagés par toute une communauté. Les psys s’intéressent davantage au langage et les linguistes à la langue, mais les deux se complètent.

Pour parler, il faut deux articulations :

- la première articulation : des unités sonores peuvent être assemblées pour former un nombre très important de mots différents. Des phonèmes s’assemblent ainsi que des graphèmes pour former des mots.

- et la seconde articulation : les unités de sens, mots, phrases peuvent se combiner et composer ainsi une infinité d'énoncés.

Compétence (connaissance des règles syntaxiques. Métacognition. Ce que potentiellement réaliser un locuteur, ce qu’on sait), et performance (mise en œuvre des règles syntaxiques. Ce que réalise effectivement un locuteur, ce qu’on fait).

D’après Morris en 1946, il y a trois approches de la langue et du langage : la pragmatique traite de l’utilisation et des effets des signes à l’intérieur du comportement ; la sémantique traite de la signification des signes sous tous ses aspects possibles ; la syntaxe traite de la combinaison des signes sans que l’on se préoccupe de leur signification spécifique ou de leur relation au comportement à l’intérieur duquel il se manifeste.

Le langage parlé est premier dans la phylogenèse (dans l’espèce) et dans l’ontogenèse (l’enfant apprend en premier à parler), et le langage écrit est second dans la phylogenèse (date d’environ 6000ans) et dans l’ontogenèse (l’écrit est couteux au niveau cognitif).

Typologie classique des niveaux de représentation des mots : niveau sémantique (concept), niveau lexical (forme globale des mots), niveau pré-lexical (représentations phonèmes, lettres), niveau des traits (représentations phonèmes, lettres primitives qui les constitueraient).

3 niveaux de description/explication :

- symbolique : opération sur les symboles, les concepts des significations sont reliés entre eux par des mots, réseau associatif entre concept.

- subsymbolique : organisation hiérarchique, les états d’activité ne sont plus des symboles mais des activations de réseaux, métaphore neuronale sans être au niveau biologique.

- biologique/neuronal : expliquer un niveau psychologique avec le niveau inférieur, le niveau biologique. Cela s’appelle le réductionnisme.

Il y a plusieurs façons de concevoir la relation sémantique qui sont concurrentes :

- représentations distribuées symboliques : des nœuds activés, c’est une représentation transparente. C’est l’ensemble du réseau qui a un sens.

- représentations distribuées subsymboliques : le patron global d’activation de l’ensemble des unités de traitement va constituer un concept, sans que chacune de ces unités de traitement soit séparément interprétable.

- neurones formels : ou biologiques, les neurones s’activent plus ou moins en fonction de ce qu’ils connaissent.

- représentations vectorielles : espace sémantique, conception distribuée de la connaissance, perspective symbolique, on interprète.

La mémoire sémantique est considérée comme un espace sémantique à de nombreuses dimensions, chaque concept correspondant à un vecteur, et la relation sémantique correspond à la distance entre ces vecteurs.

Associations d’ordre plus élevé : deux mots sont similaires s’ils apparaissent dans le même paragraphe → non c’est associatif ; deux mots sont similaires s’ils apparaissent dans des paragraphes similaires → c’est la décomposition en valeur singulière ; deux paragraphes sont similaires s’ils contiennent des mots similaires → par cette composition on bâtit un hyperespace sémantique.

L’idée d’une organisation modulaire, c’est celle de concevoir qu’on a des systèmes relativement indépendants les uns des autres, ce qu’on appelle des modules.

La reconnaissance de mot c’est simplement reconnaitre le mot comme quelque chose de familier. L’accès au lexique c’est reconnaitre le mot mais aussi accéder à toutes les informations relatives à ce mot.

Ce qui différentie le langage parlé et langage écrit c’est la distribution. La distribution au niveau du langage parlé se situe uniquement au niveau du temps, alors que pour l’écrit elle se déroule sur un espace/temps. Aussi, la disponibilité perceptive est moins forte pour le langage parlé qu’écrit. En ce qui concerne la variabilité physique, le langage écrit peut donner lieu à des choses très variables entres elles. Il y a une variabilité physique entre les lettres, mais on considère que la variabilité est plus forte en langage parlé. Néanmoins, la différence la plus marquée entre langage oral et écrit est la segmentation. Dans le langage oral, le signal est continu, à part au moment où le locuteur prend des poses. La segmentation n’est pas évidente dans le langage oral, par rapport à celle en langage écrit.

Relation entre écrit et parlé :

- hypothèse de la médiation phonologique : les lettres sont reliées aux phonèmes qui sont eux-mêmes reliés aux représentations globales du mot.

- hypothèse à l’accès direct : suggère que l’entrée visuelle entraine directement la représentation orthographique et permet la représentation lexicale.

- on peut envisager un troisième modèle, le modèle à deux voies, qui conçoit à la fois une voie directe et une  voie phonologique.

- et enfin on peut également suggérer un quatrième modèle d’activation interactive, où comme son nom l’indique, les représentations orthographiques, lexicales et phonologiques sont en en interaction.

 

La situation contemporaine, qui est la cause et la conséquence de l’explosion de l’informatique, c’est que l’utilisateur n’est pas la personne qui conçoit le dispositif. C’est là où l’ergonome est important, ne serait-ce que pour comprendre les contraintes des utilisateurs dans un contexte particulier.

L’homme est caractérisé par des invariants et des spécificités, l’ergonome prend en compte les spécificités avec des méthodes. L’ergonome n’est pas là pour concevoir, mais pour diriger ce qu’il faudrait concevoir.

Penser l’homme dans sa complexité : les hommes sont des êtres humains, les connaissances générales que l’on bâtit sur l’être humain permettent d’élaborer des principes généraux de conceptions ; il est nécessaire de prendre en compte les différences interindividuelles ; et il faut donc prendre en compte les spécificités de la situation.

Hypertexte, présentation fragmentée de l'information est à la fois la cause et la conséquence de plusieurs évolutions : tentative de créer des systèmes d'information compatibles avec la façon supposée dont nous pensons ; développement de l'informatique et des technologies de la communication en réseau ; volonté de créer des systèmes d’informations compatibles avec la façon supposée dont nous pensons, de l’évolution des besoins et des usages de prises d’informations.

La perte d’orientation dans un hypertexte correspond au fait que l'utilisateur ne sait plus d'où il vient, où il va, il peut avoir oublié le but (surcharge cognitive). Sentiment très fréquent mais qui s'est beaucoup réduit car les hypertextes sont mieux faits et une augmentation de l'expertise globale des utilisateurs. Du point de vue comportemental, on observe une activité en boucle (on fait le même chemin plusieurs fois). Attention, ce comportement peut parfois correspondre à une stratégie délibérée.

3 principales causes de la perte d’orientation (Foss 1989) : manque d'expérience de la navigation dans un hypertexte, manque d'expertise dans le domaine traité, surcharge cognitive. Ces causes ne sont pas indépendantes les une des autres (la surcharge peut être causée par le manque d'expertise). Causes posées sur l’utilisateur lui-même. Mais il faut penser aussi au fait qu’on a peut être (même surement) une interface mal construite.

Diminuer la perte d’orientation : l’expertise (facilite la compréhension, diminue la charge cognitive) ; on peut aussi agir sur les autres déterminants de la surcharge cognitive, externes, inhérents à la tâche, à la façon de présenter la tâche et à l'interface elle-même ; on va jouer sur les caractéristiques extrinsèques à tâche

Recommandations générales pour augmenter efficacité et efficience : on joue non sur la tâche elle-même mais sur les caractéristiques externes de la tâche pour alléger la charge cognitive : faciliter l'indication de l'endroit où l'on se trouve ; faciliter la connaissance de la structure ; faciliter la décision relative à un lien ; ne pas surcharger une page, permettre une recherche par mots clés.



08/03/2015
0 Poster un commentaire

Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 1514 autres membres