Les circuits documentaires des bibliothèques se sont affinés depuis des siècles: une oeuvre est sélectionnée pour rejoindre une collection, elle va vers le bon groupe d'experts qui la décrit, le rangement s'opère dans la catégorie adéquate, la fiche est créée. A un contenu correspond un mode de consultation sélectif, 2D sur papier ou écran, éventuellement de l'objet lui-même, par une porte d'entrée spécifique (lieu ou contact physique, service réseau). L'annotation sur le support d'origine est à priori interdite.
Mais désormais, c'est par millions que les contenus rejoignent les fonds numérisés, en ordre dispersé, avec des caractéristiques et des usages nouveaux (possibilité de vues 3D, prises de notes sur des couches superposables, extraction/agrégation de contenus de nature diverse, traduction automatique, etc.), et des attributs globaux (les pollens d'un livre sont-ils les mêmes que ceux d'une peinture?). L'utilisateur se trouve dans des lieux ou des situations nécessitant d'aller vers lui, de le comprendre. Il doit pouvoir identifier le système à même de l'aider dans sa démarche, sans avoir à deviner ou apprendre comment interagir.
Devant une telle soudaineté et complexité de traitement de l'information, de ses lieux d'accès, les sciences cognitives, matérialisées le cas échéant par un robot, sont incontournables. Seul leur système de règles (définies et gérées par les humains), déductives, apprenantes, exécutées à la vitesse de milliards d'instructions par seconde et capables de traiter simultanément une multitude de données pour une extreme diversité de publics et de langues, permettra d'apporter la bonne information, à la bonne personne, au bon endroit.
ps) Lire en complément l'article "The First Church of Robotics", du New York Times, où l'on apprend que Google ne numériserait pas les livres pour qu'ils soient lus par des humains, mais pour nourrir des systèmes d'intelligence artificielle.
Aucun commentaire:
Enregistrer un commentaire