logo du site Interfaces numériques

Effacer l’interface
Une trajectoire du design de l’interaction hommemachine

David Pucheu 

https://doi.org/10.25965/interfaces-numeriques.3044

Les « interfaces invisibles » qui tendent à doter invisiblement l’homme et son environnement de capacités computationnelles concentrent aujourd’hui l’attention du design de l’interaction homme-machine (IHM). Leur développement s’inscrit dans un vaste projet de reconfiguration des rapports homme-machine initié il y a plus de 30 ans par les chercheurs du PARC (Palo Alto Reseach Center). Cette contribution propose d’interroger la genèse de cette « informatique invisible » à la lumière de la trajectoire sociohistorique du design de l’interaction homme-machine.

“Invisible interfaces” are currently the main focus of Human-Computer Interaction (HCI) design, and are intended to gradually and invisibly bestow both mankind and our environment with computation capabilities. Their development is part of a vast project aimed at reconfiguring the man-machine relations first established over 30 years ago by the PARC (Palo Alto Research Centre) research team. This contribution offers to investigate the origins of this “invisible computing” in light of the social-historical trajectory of Human-Computer Interaction design.

Sommaire

Texte intégral

1. Introduction

« Nous aurons réussi lorsque le monde sera devenu notre interface »
Neil Gershenfeld, directeur du consortium Things that think (1999, 4)

« Effacer l’interface » : telle pourrait être la devise de l’informatique « post PC » qui a lentement émergé à partir des années quatre-vingtdix pour littéralement exploser au tournant du millénaire avec le déploiement massif de l’informatique mobile et des innombrables programmes de recherche et développement (R&D) qui gravitent autour de « l’informatique invisible » (Internet des objets, Smartcity, Intelligence Ambiante, informatique pervasive, wearable computing, objets connectés, etc.).

Note de bas de page 1 :

Nous ne renvoyons pas ici au concept « d’appropriation sociale » largement mobilisé dans les études d’usage mais davantage à la notion basique d’appropriation technique désignant la capacité des usagers à manipuler la machine sans nécessairement en comprendre le fonctionnement.

Au cœur de ces innovations et de ces projets qui animent notre développement technologique contemporain, l’invisibilité des interfaces s’affiche comme un nouveau paradigme central du design de l’interaction homme-machine (IHM). Il ne s’agirait plus tant de designer des outils complexes que des utilisateurs seraient en mesure de s’approprier1 via des interfaces de contrôle « conviviales » (user friendly), que d’intégrer ces dispositifs au plus près de nos conditions d’être au monde, dans le déroulement itératif de notre vie quotidienne. L’invisibilité des interfaces ne désignant pas tant ici une invisibilité matérielle que fonctionnelle des processus de traitement automatique de l’information sur les termes de nos (inter)actions avec et sur le monde environnant. Toute la vulgate contemporaine du « design de l’expérience utilisateur » (UX design) témoigne de cette inflexion qui déplace l’attention initialement concentrée sur l’utilisation des dispositifs vers l’expérience qu’en font les individus dans le cours de leur vie quotidienne. L’évolution du champ pluridisciplinaire de l’IHM, autrefois largement dominé par l’Intelligence artificielle (IA), l’ergonomie et la psychologie cognitive, mais de plus en plus enclin à mobiliser l’anthropologie et la sociologie dans la conception des interfaces, en constitue un autre indicateur ; tout comme le retour en force de la figure du « designer » (et notamment des « UX designers ») qui semble aujourd’hui prendre l’ascendant sur celles des ergonomes et des cogniticiens.

Note de bas de page 2 :

Voir Turner Frederic (2014). Aux sources de l’utopie numérique. De la contre culture à la cyberculture. Paris : C&F édition.

Note de bas de page 3 :

Voir Ceruzzi Paul (1987). An unforseen revolution : computers and expectations, 1935-1985. Corn, Joseph (éd.) Imagining tomorrow, history, technology and the American future. Cambridge : MIT press.

Note de bas de page 4 :

Les applications de Quantified self en fournissent une bonne illustration (voir Pucheu, 2015, 122).

Mais ces innovations ne coulent pas de source : comme l’émergence de l’informatique personnelle au début des années quatre-vingt (sous l’impulsion notamment de la contre-culture américaine2) avait renversé la vision d’une informatique d’experts partagée par de nombreux industriels du secteur, l’informatique dite « invisible » remet en cause l’idée d’une informatique confinée dans un objet technique personnel (l’ordinateur « personnel ») dont l’usage serait laissé à la discrétion de son utilisateur3. Sortie de la boîte incubatrice du Personal Computer, la puissance de l’informatique serait désormais appelée à se disséminer dans les interstices de nos relations au monde environnant (notre monde matériel, social et cognitif) sans même que nous nous en apercevions. Les interfaces s’intégreraient progressivement dans la « fabrique de notre vie quotidienne » colonisant notre environnement bientôt « augmenté » de capacités computationnelles (capteurs, émetteurs, actuateurs) et, au plus près de notre intimité (Bell, 2003), elles s’insinueraient dans nos vêtements, nos corps appelés eux-aussi à devenir des ressources « interfacées » mises en réseau4 (Greenfield, 2007, 52).

L’idée d’une « naturalisation » des interfaces, de leur effacement au profit d’une utilisation plus nécessairement consciente mais bien performative de l’informatique sur le monde, n’a pas émergé dans la tête d’un seul homme : comme toute innovation elle semble relever d’orientations multiples portées par des controverses et des négociations entre experts de l’IHM, technologues mais aussi bayeurs de fonds de la recherche animés par les opportunités de marché, les besoins du complexe militaro-industriel et l’industrie florissante de la surveillance (voir Crang et Graham, 2007, 788).

Note de bas de page 5 :

Comme le souligne Thierry Bardini (2000, 240), le réseau de centres de recherche et d’universités constitué autour du programme de recherche avancées de la défense américaine (le DARPA) a fondamentalement donné naissance à un « collège invisible » qui joua et joue toujours un rôle déterminant dans l’évolution des technologies informatiques (comme le MIT, l’université de Standford ou encore le Xerox PARC pour ne citer qu’eux)

Elle résulte en premier lieu des controverses qui ont eu cours au sein des Computer Sciences et de l’IHM sur la notion même d’interaction homme-machine où se sont jouées pour une grande part les trajectoires du développement technologique de l’informatique et de l’Internet : un développement fondamentalement irradié à partir de la nation américaine5. Ce sont ces trajectoires spécifiquement américaines que nous voudrions interroger afin de mettre en lumière le rôle pivot joué par les chercheurs et ingénieurs du Xerox PARC au début des années quatrevingt-dix dans l’émergence des interfaces invisibles et des discours qui les accompagnent aujourd’hui.

Note de bas de page 6 :

La loi de Moore qui tend à démontrer empiriquement l’exponantialité de la miniaturisation et des capacités de calcul des processeurs, se trouve d’ailleurs au cœur des théories évolutionnistes de l’informatique proposées par le père de l’informatique ubiquitaire Mark Weiser (Weiser & Brown, 1997).

Il serait trop simple de présenter la genèse des interfaces invisibles en les situant, comme on a coutume de le faire, dans un continuum avec les interfaces utilisateurs qui se sont succédées dans notre paysage technologique depuis le début des années soixante-dix. La loi de Moore6 et le processus de miniaturisation des dispositifs numériques, invariablement cités pour expliquer cette trajectoire, n’épuisent en rien la genèse de ces objets techniques d’un nouvel ordre. Si l’histoire de l’interaction homme-machine atteste de cette progressive « disparition » des interfaces – des méga-ordinateurs (mainframe computer) jusqu’aux dispositifs numériques embarqués dans les objets de la vie quotidienne –, la miniaturisation ne fait que rendre possible ce que les discours, théories et savoirs produits au sein de l’IHM ont contribué à rendre nécessaire. En d’autres termes, il semble plus pertinent de se tourner vers les différents paradigmes de l’IHM qui ont informé et guidé le design des interfaces utilisateurs. C’est cette démarche que nous voudrions privilégier dans le cadre de cette contribution pour montrer en quoi les différentes conceptions de l’interaction produites au sein de l’IHM ont façonné, telles des episteme, les conditions de possibilité d’un savoir sur l’homme et la machine décisif dans l’émergence de notre contexte sociotechnique contemporain.

En mettant en perspective cette histoire du concept d’interaction (une histoire d’ailleurs extrêmement documentée, voir Grudin, 2011) on peut grossièrement identifier trois grands mouvements de rupture : le premier, qui surgit alors même que le concept d’IHM reste encore implicite, c’est celui qui consiste à envisager l’homme en miroir des contraintes fonctionnelles de la machine industrielle. Cette conception s’articule fondamentalement autour d’une vision psychophysiologique de l’homme, lui-même considéré sous un angle « machinique », visant à optimiser son intégration dans le nouveau « système » de couplage homme-machine comme le proposeront les théories des Human Factors.

Note de bas de page 7 :

Vouloir produire une intelligence artificielle implique nécessairement d’ouvrir la « boîte noire » du cerveau humain pour en dévoiler le fonctionnement. Mais cette « volonté de savoir » va elle-même se nourrir rétroactivement des réalisations technologiques qui en fixent les limites. Si bien qu’on ne sait plus très bien, comme dans le cas des sciences cognitives, si ce sont les Sciences de l’Homme qui informent les artefacts technologiques ou l’inverse.

Le second mouvement, qui coïncide avec les premiers travaux sur l’Intelligence Artificielle et la naissance de l’informatique dite « interactive », va au contraire proposer d’envisager la machine en miroir de l’homme en fixant comme horizon d’attente l’émergence de dispositifs mimant les capacités cognitives des êtres humains. Dans ce mouvement dialectique où se confondent les registres humains et non humains7, l’interaction homme-machine apparaît comme un processus symétrique, un « dialogue » entre deux entités considérées comme potentiellement « équivalentes ».

Le troisième mouvement qu’on voit émerger à la fin des années quatre-vingt va, d’une certaine manière, émanciper le concept d’interaction du cadre homme / machine. L’interaction s’affiche comme un processus mettant nécessairement en rapport une multitude d’agents (humains ou non humains) dans des situations et des contextes qui en déterminent le cadre. C’est à partir de cette conception, nous tacherons de le montrer, que l’invisibilité des interfaces va s’inscrire au centre du projet informatique.

2. L’interaction homme-machine : l’homme et la machine en miroir

2.1 L’homme en miroir de la machine

Note de bas de page 8 :

Les travaux de Etienne-Jules Marey sur la « machine animale » (Marey, 1873) mettent également en lumière, au sortir de la révolution industrielle, la réflexion dialectique qui s’enclenche entre l’homme et la machine (tout comme le courant anthropométrique qui émerge à la même époque).

Note de bas de page 9 :

Le plus souvent désigné en Europe sous le terme d’ergonomie.

Le concept d’interaction homme-machine et sa structuration en champ (pluri)disciplinaire d’étude n’a fondamentalement émergé au sein de l’ingénierie informatique qu’au cours des années soixante. Bien avant cette structuration, le management scientifique du travail de Frederick Winslow Taylor8 puis les premiers travaux sur les « facteurs humains »9 au milieu du XXe siècle avaient déjà porté un regard attentif sur les rapports entre l’homme et la machine. Comme le soulignait Alphonse Chapanis, l’un des pionniers des Human Factors :

Au sortir de la seconde guerre, les machines ne sollicitaient plus la force musculaire de leurs opérateurs mais leurs capacités sensorielles, perceptuelles, leur faculté de jugement et de prise de décision. Les nouveaux experts qualifiés pour apprécier cela n’étaient plus des ingénieurs mais des psychologues, des comportementalistes, des physiologues et des anthropomètres (Chapanis, 1969, 12).

Les Human Factors portèrent ainsi un éclairage nouveau sur la « condition humaine » pour contribuer au design des interfaces d’entrées et de sorties garantes de la performativité de ce nouveau « couplage » entre l’humain et la machine (voir « les systèmes homme-machine » dans Chapanis, ibid., 13). Bouton, poussoir, voyant lumineux, télétype, écran de contrôle, etc. : autant d’interfaces devant être conçues en miroir des limites et des capacités psychophysiologiques des opérateurs humains éprouvées empiriquement dans le cadre de stricts protocoles expérimentaux.

Assez naturellement, ce sont ces théories qui ont en partie informé la conception des premiers « méga-ordinateurs » (mainframe computing) et de leurs interfaces. Le fonctionnement de la première génération d’ordinateurs n’était pas encore à proprement parler « interactif » : les opérateurs de la machine, dotée d’interfaces matérielles, étaient isolés des processus de calcul dont ils devaient fournir en amont les instructions (en intégrant des cartes perforées ou des bandes magnétiques) pour laisser les processeurs travailler de façon plus ou moins autonome (c’est ce qu’on appelle le « Batch processing »). Ces opérateurs étaient pour la plupart des ingénieurs en électronique et devaient nécessairement maîtriser le fonctionnement matériel des machines.

Note de bas de page 10 :

En assurant la gestion des interactions entre les composants matériels et logiciels des machines, les systèmes d’exploitation vont en effet progressivement délester les utilisateurs de la maîtrise matérielle du système. Ils vont d’une certaine manière « sortir » de la machinerie informatique dont ils n’étaient qu’un rouage interne comme dans le système homme-machine de Chapanis (1969, 13).

Au tournant des années soixante, le terme d’« interaction hommemachine » va émerger de façon concomitante avec l’informatique dite « interactive » qui désignait les nouveaux rapports entre les opérateurs et les ordinateurs induits par le travail en temps réel. Les premiers systèmes d’exploitation (operating system) vont de leur côté progressivement se substituer au rôle des opérateurs10 (Bardini, 2000, 4), laissant les utilisateurs libres de manipuler l’ordinateur sans se soucier de leur fonctionnement interne. Les opérateurs pouvaient maintenant se concentrer sur les activités de programmation en temps réel dans ce qui pouvait s’apparenter alors à un « dialogue », à une « conversation » entre l’humain et la machine (voir Martin, 1973).

2.2 La machine en miroir de l’homme

Note de bas de page 11 :

Psychophysiologue spécialiste des Human Factors et lui-même membre de la première cybernétique.

Dès lors, le vocable de la communication humaine va se trouver mobilisé pour qualifier ces évolutions des rapports homme-machine. Une sémantique anthropomorphique qui s’accordait bien avec l’idée secrétée à la fois par la cybernétique et l’Intelligence Artificielle naissante d’une identité fonctionnelle entre l’humain et la machine. L’article séminal de Joseph Licklider11, « Human Computer Symbiosis » publié en 1960, en fournit une belle illustration. Dans ce texte fondateur de l’IHM, Licklider dépeint le devenir de l’informatique interactive dans ce qui pouvait s’apparenter à une véritable programmatique. Une programmatique qu’il mettra effectivement en œuvre quelques années plus tard en devenant le directeur de l’Information Processing Techniques Office (IPTO), bureau rattaché à l’ARPA, en 1962. Licklider y porte également une insistance fondamentale sur le développement des interfaces, condition sine qua non à l’union « symbiotique » de l’humain et de l’ordinateur qu’il appelait de ses vœux. Pour Licklider et plus globalement l’ensemble de la communauté de l’IA, l’ordinateur était appelé à devenir un « partenaire » ou un « collègue » (Bardini, 2000, 28) auquel l’humain déléguerait progressivement sa « pensée algorithmique » (Aurel, 1965, 100) pour se concentrer sur les finalités et la formulation des problèmes (Licklider, 1960, 10). Dans son plaidoyer, Licklider va passer en revue l’ensemble des interfaces nécessaires à un tel projet ; des interfaces comme celles qui seront développées par Douglas Engelbart (le dispositif souris, clavier, écran) quelques années plus tard au sein de son projet sur l’augmentation de l’intellect humain du SRI (le Standford Research Institute lui-même financé par l’IPTO). Fixant comme horizon d’attente l’hypothétique possibilité d’un dialogue naturel entre l’humain et la machine par le biais de la parole (Licklider, 1960, 10), les langages informatiques, d’abord ésotériques pour ceux qui n’étaient pas initiés à leur pratique, se sont lentement orientés vers le langage naturel puis symbolique de l’humain. Sous l’impulsion notamment d’Engelbart, le développement des premières interfaces graphiques (les GUI : Graphic User Interface), qui permettent de manipuler le langage informatique par la manipulation de symboles, va ouvrir la voie à une nouvelle catégorie d’utilisateur. C’est d’ailleurs sensiblement à la même époque que le terme « utilisateur » vient symptomatiquement supplanter celui d’ « opérateur » de la machine (Bardini, 2000, 143).

Note de bas de page 12 :

Voir sur cette notion les développements de Thierry Bardini (1999). Les promesses de la révolution virtuelle. Genèse de l’informatique personnelle, 1968-1973. Sociologie et société. Vol. 32. 2, p. 62.

Note de bas de page 13 :

Ironie du sort : cette perspective va à l’encontre des idées d’Engelbart qui, malgré son rôle dans le développement des GUI, a toute sa vie plaidé en faveur d’une coévolution de l’humain et de la machine nécessitant le développement de nouvelles aptitudes de la part des utilisateurs. C’est d’ailleurs ce qui explique sans doute la position marginale qu’Engelbart a toujours occupée au sein de l’IHM malgré son apport décisif.

Ce basculement décisif dans l’émergence de l’informatique personnelle favorisera l’appropriation technique de l’outil informatique par des professionnels non informaticiens et finalement par des quidams devenant « utilisateurs finaux » (end user). Les GUI (et par conséquent les interfaces écrans) vont dès lors clairement dominer les préoccupations de l’IHM pour permettre à tout un chacun de programmer (sans nécessairement le savoir) la machine : fournir des instructions, des commandes pour performer des actions avec l’ordinateur sans avoir à écrire une ligne de code. Par souci d’ « utilisabilité », de facilité d’usage et de « convivialité » (un terme qui va faire florès dans l’industrie informatique12), les interfaces graphiques opacifient, telles une « surcouche », le code et la grammaire algorithmique des machines13. Ce parti pris pour la « convivialité » des interfaces « user friendly » partait d’une constatation simple : « du point de vue de l’utilisateur : l’interface c’est le système » (Norman, 1986, 61), et c’est bien cette affirmation qui va guider le développement des interfaces.

3. L’invisibilisation des interfaces au cœur de l’informatique ubiquitaire

3.1 Vers une reconfiguration des rapports homme-machine

Les membres des programmes de recherche à l’origine de ces innovations principalement financées par l’Agence pour les projets de recherche avancée de la défense étatsunienne (l’ARPA) vont progressivement se fragmenter dans des centres de recherche privés à l’instar du PARC (Palo Alto Research Center) de la compagnie Xerox. Un centre où l’on verra converger les anciens cadres et ingénieurs de l’ARPA, de l’IPTO et de nombreux membres de l’équipe du SRI qui avaient accompagné Engelbart dans sa « croisade » pour l’augmentation de l’intelligence humaine (Engelbart, 1962). C’est ce qui explique sans doute que le Xerox PARC va d’une certaine manière « transformer » les essais exploratoires des programmes qui l’avaient succédé.

Note de bas de page 14 :

Windows, Icons, Menus, Pointer (Fenêtres, icônes, menus, pointeur).

C’est au PARC que va émerger le premier prototype de souris (inspiré de celle d’Engelbart) ; c’est encore le PARC qui va concrètement réaliser en 1973 les GUI comme nous les connaissons encore aujourd’hui (WIMP14). Le PARC sera également l’architecte du premier Personal Computer : le STAR en 1981. L’un des acteurs de ces innovations, Stuart Card, va également être à l’origine d’un ouvrage clef dans la structuration du champ pluridisciplinaire de l’IHM. Paru en 1983, The Psychology of Human-Computer Interaction va durablement inscrire la psychologie cognitive au cœur des approches de l’IHM. Card et ses collègues y tracent les contours « d’une psychologie appliquée au design de l’interaction homme-machine » (Card et al., 1983, 1) articulée autour du modèle computationnel de l’homme envisagé lui-même comme un processeur de traitement d’information (ibid. 26) : « Si l’interaction hommemachine doit être améliorée, nous avons besoin d’une science basée sur la connaissance des performances [cognitives] humaines à partir desquelles les designers pourront nourrir leur travail. » (Ibid., 425). Cette science qui s’intéresse aux processus cognitifs des individus (perception, apprentissage, langage, mémoire, décision, raisonnement, etc.) doit permettre de modéliser l’interaction entre l’homme et l’ordinateur. Dans un écho silencieux mais fidèle aux visions de Licklider, les auteurs envisagent l’ordinateur comme un « collègue » de l’homme devant être doté des mêmes compétences cognitives pour garantir la performativité de leur dialogue (c’est le modèle « buts, opérateurs, méthodes et règles de sélection » ; « GOMS » en anglais).

Mais en 1984, dans ce même centre de recherche, l’une des premières anthropologues jamais embauchée dans un laboratoire informatique va produire une thèse à l’effet disruptif. Dans Plan and Situated Action (Suchman, 2007), Lucy Suchman va porter une critique en règle contre les théories de l’Intelligence Artificielle et de la psychologie cognitive qui ont informé le design de l’IHM. Pas plus que l’homme ne peut se réduire à un processeur de traitement de l’information, l’interaction entre l’homme et la machine, deux entités irréductibles, ne peut s’assimiler à un « dialogue » entre deux collègues. En fait l’interaction entre les humains, comme l’enseigne l’ethnométhodologie, s’avère bien plus complexe qu’il n’y paraît : le contexte ou plus largement la situation y paraissent décisifs comme les innombrables indices périphériques qui nourrissent le dialogue, sa compréhension et les processus d’interprétation.

La communication homme-machine se caractérise par un degré extrêmement limité d’interactions, exclusivement réduites aux actions de l’utilisateur qui produisent effectivement un changement d’état de la machine. L’asymétrie radicale entre l’utilisateur et la machine quant à l’accès relatif aux situations contextuelles (unfolding situations) limite considérablement les possibilités d’interactions, en aucun point comparables à celles que peut susciter la communication entre deux personnes (Suchman, 2007, 5).

Note de bas de page 15 :

Voir par exemple l’introduction de Peter Thomas dans Thomas Peter J. (1995). The Social and Interactional Dimensions of Human-Computer Interfaces, Cambridge University Press, Cambridge.

La thèse de Suchman va exercer une profonde influence au sein du PARC et plus largement de toute la communauté de l’IHM15. Si toute (inter)action est nécessairement « située » et non simplement « planifiée » par les agents via leurs fonctions cognitives, l’enjeu n’est plus tant de développer des interfaces en miroir de l’homme que de produire des dispositifs capables de s’intégrer dans la « fabrique » de nos vies quotidiennes.

Un autre membre du PARC, Mark Weiser, nommé directeur du Computer Science Laboratory (CSL) en 1988 et se revendiquant luimême des idées de Suchman (Weiser, Brown, Gold, 1999, 693), va lui aussi proposer une nouvelle façon d’envisager le design de l’interaction homme-machine. Dans une série d’articles dont le très influent « The Computer for the 21st Century » (1991), Weiser va esquisser les contours d’un nouveau champ d’étude et de développement pour l’informatique qu’il baptisera « informatique ubiquitaire ».

3.2 Le projet ubiquitaire

Partant des constatations de Suchman quant à la nécessité d’envisager l’IHM dans une perspective qu’on pourrait qualifier d’écologique, Weiser entrevoit une informatique « émancipée » de l’ordinateur personnel et des interfaces de commande traditionnelles (écran, clavier et souris associés aux interfaces graphiques). Il imagine une informatique distribuée dans de multiples interfaces « invisibles » disséminées dans notre environnement :

L’informatique ubiquitaire envisage un monde physique enrichi et invisiblement entrelacé de capteurs, d’actuateurs, d’écrans et d’éléments computationnels embarqués « sans couture » [seamlessly] dans les objets de nos vies quotidiennes et connectés dans un réseau continu et persistant (Weiser, Gold et Brown, 1999, 694).

Contrairement à l’ordinateur personnel qui concentre notre attention sur une « boîte », les opérations de traitement automatisées de l’information effectuées par une multitude d’ordinateurs via des interfaces invisibles se retireraient progressivement « en périphérie de nos consciences » (Weiser, 1991, p. 94) pour s’inscrire pleinement dans le déroulement de nos (inter)actions avec et sur le monde environnant. Une informatique finalement appelée à se « dissoudre dans la trame de notre vie quotidienne au point de ne plus en être discernable » (ibid., 94).

Note de bas de page 16 :

Dans The Coming Age of Calm Technologies (1997), Weiser et Brown élaborent le concept d’« attention périphérique » en s’appuyant sur le célèbre travail de Gibson sur l’écologie de la perception visuelle. Il mobilise par ailleurs la notion de « savoir tacite » de Karl Polyani ainsi que celle d’« horizon » proposée par Heidegger dans son approche phénoménologique de la perception.

Pour mettre en œuvre un tel projet, Weiser va encourager la communauté des designers à concevoir ce qu’il nommait des « technologies calmes » (Weiser et Brown, 1996). Des interfaces qui ne concentreraient plus notre attention, mais qui seraient en mesure de susciter « naturellement », dans le cours de nos vies quotidiennes, leur propre usage à l’instar des « affordances » que James J. Gibson identifiait dans la nature16. Il s’agit en d’autres termes de faire disparaître l’interface, d’effacer l’outil en l’intégrant au plus près de nos conditions d’être au monde pour flirter avec un jargon phénoménologique – un courant philosophique d’ailleurs explicitement mobilisé par Weiser et ses confrères (Dourish, 2004, 21).

Fidèle à la dynamique de recherche-action qui anime le PARC, Weiser et son équipe vont concevoir une expérimentation grandeur nature (le programme UBICOMP entre 1988-1994) dans un environnement d’informatique ubiquitaire intégrant des prototypes comme le ParcTab (tablette tactile), les premiers assistants personnels (PDA), des surfaces interactives et des badges d’identification RFID (des puces à radio émission permettant d’identifier et de situer les usagers en temps réel). C’est d’ailleurs au cours de l’expérimentation des ParcTab que Bill N. Schilit, alors professeur invité au Xerox, va forger le terme « context aware computing » (informatique contextuelle) qui va profondément influencer l’évolution de l’informatique mobile (Schilit et al., 1994). Le « contexte » s’affiche en effet comme un concept central de l’informatique ubiquitaire : une informatique nécessairement « sensible » (sentient) au contexte de l’utilisateur qui puisse permettre aux interfaces de répondre implicitement, dans une logique prédictive, à leurs besoins et désirs présumés. De la simple géolocalisation de l’utilisateur à son comportement physiologique in situ, en passant par son rapport (présent ou passé) aux objets et aux autres utilisateurs qui l’entourent, le contexte doit désormais définir le cadre de l’interaction homme-machine. Comme l’écrit Weiser, c’est cette adaptabilité en temps réel des machines aux comportements des individus et à leur environnement qui garantirait finalement l’invisibilité des processus computationnels appelés à se dissoudre dans l’expérience même que font les hommes de leur rapport au monde : il s’agirait donc de concevoir « […] des machines qui s’adapteraient à l’environnement humain au lieu de forcer les humains à s’adapter à elles, rendant l’usage de l’informatique aussi agréable [refreshing] que faire une balade dans les bois » (Weiser, 1991, 104). Une « balade agréable » qui n’est pas sans faire écho au design de l’expérience utilisateur (UX Design) qui a envahi ces dernières années la rhétorique de l’IHM, portant l’attention sur l’expérience vécue des utilisateurs plutôt que sur leur rapport aux interfaces en tant que tel. Poussée à son paroxysme, cette vision tendrait à assimiler notre rapport au monde, aux objets et aux « autres » à une « expérience utilisateur » (voir Pucheu, 2014). C’est ce que suggérait par exemple la vision téléologique de Neil Gershenfeld, le directeur du programme Things that think du MIT cité en préambule de cet article : « Nous aurons réussi lorsque les ordinateurs auront disparu et que le monde sera notre interface » (Gershenfeld, 1999, 4). Allan Parson ne dira pas autre chose en affirmant que :

Les utilisateurs seront entourés par des interfaces intelligentes intégrées dans les vêtements, les objets, les murs, les véhicules, etc. L’environnement sera attentif (aware) à qui – ou quoi – sera présent et réagira en conséquence. Le corps tout entier sera utilisé pour l’interaction : la parole, les gestes et même la direction du regard. En fait, l’environnement devient notre interface (Parson, 2005).

Note de bas de page 17 :

« Sans couture » (seamless) devant être entendu ici comme la nature invisible des points de rencontres entre les dispositifs numériques et le monde ; leur intégration totale, sans « couture » visible, à l’environnement.

Note de bas de page 18 :

On pense notamment aux travaux sur le développement d’interfaces tangibles ou encore au programme Thing that Think du MIT (Gershenfeld, 1999).

Loin de se limiter à une énumération de dispositifs techniques, « The Computer for the 21st Century » esquisse donc dès la fin des années quatrevingt les contours d’un nouveau « projet ». Un projet au sein duquel se cristallisent les trajectoires fragmentées de l’ingénierie informatique (les travaux sur le wearable computing, les interfaces tangibles, les badges d’identification RFID, l’informatique mobile, la reconnaissance de pattern ou encore la connectivité sans fil, etc.) en vue de concourir à l’érection d’un écosystème numérique cohérent et « sans couture »17 avec le monde. Si d’autres travaux avaient déjà développé des technologies qui pouvaient s’apparenter à des interfaces invisibles18, c’est en revanche Weiser qui, le premier, va systématiquement inscrire le développement des ces dernières dans un projet unifié qu’on retrouve aujourd’hui sous d’innombrables étiquettes (Internet des objets, intelligence ambiante, informatique proactive, pervasive ou invisible notamment). Ce projet, que j’ai par ailleurs qualifié de « projet ubiquitaire » (Pucheu, 2013) auquel concourent aujourd’hui d’innombrables programmes de recherche et développement dans le monde, s’articule également avec des discours et des récits qui fixent l’informatique ubiquitaire comme horizon d’attente d’une société de l’information formellement accomplie (voir Dourish et Bell, 2011). Une nouvelle ère bien résumée par l’anthropologue Geneviève Bell :

Nous habitons un monde où le paradigme classique du PC posé sur un bureau laisse place à une vision bien plus complexe et nuancée des technologies informatiques et de leur puissance. Cette prochaine ère est celle d’un monde où les appareils et les algorithmes du futur répondront mieux à nos besoins, délivrant les bénéfices de la puissance informatique de façon bien plus intelligente [smarter] et appropriée au contexte des hommes. Préside à cette vision le fait que les ordinateurs, dans leurs multiples formes, seront pervasifs et dotés de capacités anticipatoires (Bell et al., 2003).

4. Conclusions

Les discours et les savoirs produits par l’IHM, en même temps qu’ils alimentent le design des interfaces, produisent des représentations de l’utilisateur qui fonctionnent à bien des égards telles des prophéties autoréalisatrices. Les interfaces conçues en miroir de ces représentations façonnent en retour de tels utilisateurs. Il y a d’une certaine manière une dialectique irréductible aux travaux sur l’IHM entre le design des machines et la représentation de leurs utilisateurs et plus largement de l’humain dont les interfaces tentent d’opérer pragmatiquement la synthèse (voir Cooper et Bowers, 50).

Nous avons vu au cours de cette brève incursion historique dans le design de l’IHM comment la figure initiale de l’opérateur de la machine s’est progressivement muée en « utilisateur » avec l’émergence des langages informatiques et des premières interfaces graphiques comme condition d’appropriation technique des dispositifs informatiques par des quidams. Envisageant les rapports homme-machine sous un angle symétrique, comme un dialogue entre deux « collègues », l’IA s’est attachée à orienter le design de l’IHM vers les langages naturels puis symboliques de l’homme. Très vite, l’attention s’est portée sur les interfaces graphiques, accentuée par l’émergence de l’informatique personnelle et ses opportunités de marché qui ont placé le principe de « convivialité » au centre des enjeux de son appropriation technique. La psychologie cognitive est venue assez logiquement s’agréger aux approches psychophysiologiques des Human factors au sein de l’IHM dans un rapport homme-machine mobilisant désormais presque exclusivement les fonctions cognitives de l’individu rivé sur des interfaces de contrôle écraniques. Les efforts déployés par l’IA pour construire une machine à l’image de l’homme ont de leur côté permis de formaliser des savoirs sur l’homme lui-même dont témoigne par exemple le « modèle computationnel du processeur humain » proposé par le cogniticien et ingénieur du Xerox PARC, Stuart Card.

Les travaux de l’anthropologue Lucy Suchman qui ont initié une critique de ces approches aujourd’hui largement diffusée, ont contribué de leur côté à inscrire l’interaction homme-machine dans une perspective écologique. Envisageant cette fois les rapports homme-machine sous un angle asymétrique, l’enjeu n’est plus tant de faire dialoguer ces deux entités irréductibles que d’inscrire leur relation dans le déroulement itératif des « (inter)actions situées » des agents humains et non humains. Une perspective qui a nourri le développement d’interfaces invisiblement entrelacées dans les objets de notre vie quotidienne, comme le proposa Mark Weiser dès la fin des années quatre-vingt. Le « projet ubiquitaire » initié par Weiser laisse entrevoir un monde augmenté de capacités computationnelles au sein duquel le rapport des individus à leur environnement (matériel, social et cognitif) se transformerait progressivement en « expérience utilisateur ».

Effacer l’interface ne reviendrait-il pas finalement à faire disparaitre du même coup l’utilisateur ? La notion « d’utilisateur final » – de celui qui décide en dernier ressort de l’usage qu’il fera de la machine – ne semble plus appropriée pour qualifier le statut de l’individu exposé aux interfaces invisibles de l’informatique ubiquitaire. L’humain y est envisagé comme un utilisateur générateur de données alimentant le travail « souterrain » des algorithmes de calcul (décentralisé désormais dans des entrepôts de données) sur les termes de ses actions façonnées par les interfaces invisibles qui peuplent son environnement. Des interfaces invisibles inscrites au plus près de nos comportements qui auraient tendance à neutraliser nos intentionnalités au profit d’un automatisme aux accents hétéronomiques (voir Rouvroy et Berns, 2013). Une opération de « délégation » de nos responsabilités que Bruno Latour avait déjà repéré dans les artefacts qui peuplent notre environnement (Latour, 1992, 157) mais qui trouvent avec les interfaces invisibles une forme paroxystique.

Note de bas de page 19 :

Les interfaces invisibles sont indissociablement liées à l’exploitation algorithmique des données massives (Big Data) produites quotidiennement par les utilisateurs. Ce sont ces données massives articulées aux techniques du machine learning ou du data mining qui alimentent aujourd’hui le « moteur » des interfaces invisibles.

Note de bas de page 20 :

Weiser parlait à cet égard de « virtualité incarnée » (embodied virtuallity) par opposition à la réalité virtuelle (voir Weiser, 1991).

Si l’utilisateur des dispositifs ubiquitaires se trouve délesté de tout investissement cognitif dans son rapport aux machines, lesquelles agiraient même – dans une logique prédictive – à un niveau pré-cognitif sur les termes de ses actions sur le monde, on peut légitimement s’inquiéter de voir ces dispositifs prendre une part disproportionnée quant aux choix et décisions qui nous incombent quotidiennement. Une mécanique que les thuriféraires du Web 2.0 semblent avoir déjà inoculée sur le web par l’exploitation algorithmique des données contextuelles des usagers19 et que de nombreuses applications mobiles tendent aujourd’hui à inscrire dans le monde physique. Si le principe d’immersion qualifiait traditionnellement l’homme plongé dans un monde virtuel, la tendance semble ici s’inverser : ce serait les dispositifs numériques qui coloniseraient progressivement l’environnement, une immersion du numérique dans le monde physique en d’autres termes20. En atteste l’incroyable prolifération du préfixe « smart » visant à qualifier la nature des objets et des choses invisiblement animés par les flux de données.

Note de bas de page 21 :

Si la psychanalyse et la psychologie du développement situent l’animisme dans la pensée infantile où au cœur de pathologies cliniques, il reste, comme le soulignait Piaget lui-même, d’irréductibles résidus de ce mode d’être au monde en chacun de nous.

Tout semble concourir à replacer l’homme dans des conditions d’être au monde, qui nous rappellent l’animisme envisagé comme mode d’existence (voir Savary, 2000, 242). Au-delà de l’anthropomorphisme qui a toujours plané au-dessus des rapports homme-machine, l’invisibilisation des interfaces tend à faire des données et de leur traitement automatique la nouvelle substance ou fluide traversant invisiblement la matière pour lui donner vie. Un « techno-animisme » qui ne serait plus le fait d’une quelconque ignorance des phénomènes qui animent le monde mais au contraire celui d’un contrôle et d’une maîtrise sans précédent de ces mêmes phénomènes par le truchement des interfaces invisibles animées par cette nouvelle énergie vitale que sont les données. Ce n’est pas un hasard si la propension animiste qui réside en chacun de nous à des degrés divers21 se trouve aujourd’hui mobilisée par de nombreux chercheurs américains dans le design de l’interaction homme-machine. Le « design animiste de l’interaction » proposé par la pionnière de l’IHM Brenda Laurel (2008) en fournit une bonne illustration tout autant que les récents travaux de David Rose (2014) sur les « objets enchantés ». Ce techno-animisme partage à bien des égards des affinités avec le devenir d’un monde posthumain imaginé par les techno-prophètes Californiens.