L’interface homme-machine, également appelée interface utilisateur ou interface homme-ordinateur, est le moyen par lequel les humains et les ordinateurs communiquent entre eux. L’interface homme-machine comprend le matériel et les logiciels utilisés pour traduire les entrées de l’utilisateur (c’est-à-dire l’homme) en commandes et pour présenter les résultats à l’utilisateur.

Usage de l’interface

La convivialité de l’interface homme-machine est la mesure dans laquelle la conception rend l’utilisation du système efficace, efficiente et satisfaisante. L’idée générale est de construire des interfaces basées sur une compréhension et une appréciation des capacités physiques, mentales et comportementales de l’homme.

Dans le modèle classique homme-machine, l’homme et la machine sont traités comme des dispositifs de traitement de l’information. Comme les humains, les ordinateurs sont capables de détecter des informations codées en entrée, de comparer, de choisir et de formuler des réponses appropriées, puis de communiquer ces réponses en sortie. Dans ce modèle, les sorties d’un composant du système alimentent les entrées de l’autre. Par exemple, la sortie de l’humain, comme le déplacement de la souris d’un ordinateur pour communiquer ses intentions, constitue l’entrée de la machine. Étant donné que les humains ont traditionnellement interagi avec le monde extérieur par l’intermédiaire de leur corps physique, la plupart des mécanismes d’entrée des ordinateurs nécessitent une certaine forme d’activité motrice, qu’il s’agisse de déplacer une souris, d’appuyer sur des boutons ou de parler.

Entrée et sortie

C’est dans le domaine des facteurs humains et de l’ergonomie que l’on a le plus étudié la conception des dispositifs et des techniques d’entrée pour tenir compte des limites de l’utilisateur humain et même pour exploiter ces limites. Les dispositifs d’entrée informatiques courants comprennent les dispositifs de pointage, tels que la souris, la boule de commande, le joystick et les trackers tridimensionnels spécialisés, ainsi que divers claviers et claviers. Les capacités perceptives et cognitives de l’être humain ont été utilisées pour le développement d’ordinateurs capables de détecter les entrées sous forme de parole ou de vision, ou qui s’appuient sur la reconnaissance tactile des gestes et de l’écriture manuscrite. Certains ordinateurs peuvent déduire implicitement des éléments tels que les émotions ou la charge cognitive à partir de flux vidéo du visage d’un utilisateur ou de signaux physiologiques tels que le rythme cardiaque. Compte tenu du large éventail d’entrées disponibles, le choix réel du dispositif et de l’application peut souvent être basé sur la tâche, les utilisateurs ou les environnements dans lesquels ils doivent être utilisés.

Guidés en grande partie par les besoins des personnes souffrant de handicaps physiques, les chercheurs ont commencé à exploiter les technologies de détection du cerveau pour construire des prothèses neurales cognitives ou des interfaces cerveau-ordinateur (ICN), dans lesquelles les utilisateurs manipulent leur activité cérébrale au lieu d’utiliser des mouvements moteurs pour contrôler les ordinateurs. Par exemple, des patients paralysés peuvent contrôler un curseur, taper du texte ou déplacer un fauteuil roulant simplement en imaginant le mouvement de différentes parties de leur corps ou en pensant à différentes tâches.

Quelle que soit la méthode utilisée, une saisie réussie nécessite généralement un retour d’information adéquat et approprié du système pour guider les actions, confirmer l’activation et présenter les résultats. Ce retour, ou sortie, est présenté sous une forme perçue par l’être humain. La forme la plus courante de sortie est la sortie visuelle par le biais d’écrans d’ordinateur, et le sous-domaine de la visualisation de l’information s’est concentré sur l’exploitation des principes de la perception et de la cognition humaines pour concevoir des images qui transmettent au mieux les idées. Outre la sortie visuelle, les concepteurs ont également exploré l’utilisation d’interfaces auditives, tactiles, voire olfactives (odeur) et gustatives (goût) pour tirer parti des autres sens humains. Les manettes de consoles de jeu qui vibrent lorsqu’elles sont frappées par un adversaire sont un exemple de sortie tactile convaincante. De même, de nombreuses unités de système de positionnement global (GPS) ont des interfaces auditives en plus de la carte traditionnellement visuelle, car les conducteurs ne peuvent pas détourner leur regard de la tâche à accomplir pour s’occuper des informations visuelles du GPS.

Évolution de l’interface homme-machine

L’évolution de l’interface homme-machine peut être divisée en plusieurs phases historiques, marquées par l’interface dominante de l’époque. Dans les années 1950, le modèle dominant était le traitement par lots, dans lequel les utilisateurs spécifiaient tous les détails d’une tâche (généralement sur des cartes perforées), les exécutaient (en introduisant les cartes dans la machine) et recevaient les résultats une heure ou plus plus tard, lorsque le traitement était entièrement terminé. Le traitement par lots était fastidieux et source d’erreurs. L’interface de traitement par lots a été suivie par le développement des interfaces de ligne de commande, qui permettaient aux utilisateurs de lancer de manière interactive des commandes que le système exécutait immédiatement et pour lesquelles il produisait des résultats. Les interfaces de ligne de commande, bien qu’elles constituent une amélioration, ne tirent pas pleinement parti des capacités de perception, de cognition et d’apprentissage de l’homme. Ces capacités ont été exploitées avec le développement des interfaces utilisateur graphiques (IUG) au milieu des années 1960 et au début des années 1970.

Dans les interfaces graphiques modernes, les utilisateurs s’engagent dans une communication riche avec l’ordinateur en utilisant divers dispositifs d’entrée. Par exemple, dans le modèle WIMP (fenêtre, icône, menus, pointeur) ou la métaphore du bureau, l’utilisateur manipule des objets virtuels à l’écran comme s’il s’agissait d’objets physiques (par exemple, des fichiers et des dossiers sur un bureau ou une poubelle sur le sol). Les progrès des technologies informatiques et la connaissance de la psychologie humaine ont alimenté le développement ultérieur d’interfaces post-WIMP, notamment les interfaces utilisateur organiques, qui reposent sur des écrans flexibles permettant de nouveaux moyens d’interaction, et les interfaces utilisateur « saisissables », qui permettent à l’utilisateur d’exécuter une fonction virtuelle à l’aide d’une poignée physique.

SEO INSIDE est une agence web à Lille

--

SEO Inside est une agence web et SEO - en savoir plus sur nous:

Agence web / Audit SEO / Conseil SEO / Création de site internet / Netlinking / Formation SEO / E-Réputation et avis

Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.

Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco

SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.