SynerGétude

Mutualisons nos connaissances pour imaginer, créer et innover


Poster un commentaire

Ingénierie du Web et Big Data : de l’informatique cognitive à l’informatique quantique

Web Sémantique, Informatique Cognitive et Big Data : trois terminologies, trois concepts au cœur de l’économie digitale, des traitements de données complexes, et à l’aune d’une ingénierie des connaissances qui va de plus en plus se greffer au Web et aux systèmes de données complexes générées par les manipulations exponentielles que nous opérons en permanence à travers nos interactions directes ou indirectes au contact de données digitales qui concernent aussi bien la sphère professionnelle que la sphère privée. Des mutations nouvelles s’opèrent sur la publication des contenus, la manipulation du sens et des mise à disposition des savoirs, de recueil et de traitement ubiquitaire des données, aujourd’hui incarné par le Web et instrumenté par deux branches en pleine expansion de l’ingénierie :
(1) l’Ingénierie des Connaissances (IC), héritière des travaux en Intelligence Artificielle (IA) sur la formalisation des connaissances et du langage.

(2) l’Ingénierie du Web, qualifiée d’« ingénierie philosophique » par Tim Berners-Lee, et qui par l’expansion du Web et des Web Technologies s’est accompagnée très tôt (dès 1994) d’un développement parallèle de systèmes capables de traiter données et contenus symboliques à partir de leur sémantique afin d’automatiser la gestion du sens : c’est le propos du Web Sémantique.

Pour mieux appréhender ces formalismes, le n°61 de la Revue Intellectica a été entièrement consacré à la philosophie du Web et à l’Ingénierie des Connaissances.
L’Ingénierie des Connaissances y est présentée comme le prolongement de certains programmes de recherche de l’IA, dont celui qui vise à formaliser l’activité de raisonnement et à fournir une caractérisation formelle des contenus des connaissances, afin de permettre leur traitement automatisé.
Il en ressort aussi une très forte porosité entre l’ingénierie du Web et l’ingénierie des connaissances au regard des paradigmes et courants de sciences cognitives qui vont aider au travail de modélisation des connaissances à mener en vue de concevoir leurs dispositifs, et leurs propres productions qui vont permettre d’alimenter des discussions épistémologiques en sciences cognitives, en particulier en ce qui concerne le caractère distribué et externalisé de la cognition ou le rôle qu’y remplissent les représentations.
Pour reprendre l’analyse d’Alexandre Monnin :« Le Web acte non seulement l’externalisation généralisée des savoirs et des données mais il fournit également le cadre où s’exercent désormais majoritairement les activités de l’Ingénierie des Connaissances. Il constitue à ce titre une étape supplémentaire vers l’augmentation cognitive, témoignant par extension de la dépendance accrue de la pensée vis-à-vis des réalités de la technique ».
Au travers de ces techniques d’ingénieries au sein du Web, vont se profiler et se développer des systèmes d’informatique cognitive ou Cognitive Computing Systems (où IBM se positionne en tant que Leader en matière de R&D) aux confluents de la Conscience Artificielle, du Machine Learning et de la Business Intelligence en tant qu’outils stratégiques d’aide à la décision dans le traitement des Big Data, désignant aujourd’hui des ensembles massifs de données multi-variées et accumulées à très grande vitesse sur des individus et par des organisations, via le Web, les réseaux sociaux, et maintenant avec de plus en plus de capteurs constituant déjà ce que l’on appelle l’Internet des Objets.
La croissance du Big Data est accélérée par la digitalisation grandissante de l’information et le flux informationnel qu’elle génère, augmentant, aussi bien en volume qu’en vitesse, les variétés et les incertitudes des données traitées.
La plupart des données produites aujourd’hui se présentent sous des formes non structurées telles que la vidéo, les images, les symboles et le langage naturel. Un nouveau modèle de calcul est donc nécessaire pour que les entreprises puissent les traiter, leur donner un sens, afin d’améliorer et étendre l’expertise de l’homme. Et plutôt que d’être programmés à anticiper chaque réponse possible ou mesures nécessaires pour remplir une fonction ou un ensemble de tâches, les systèmes informatiques cognitifs sont aujourd’hui apprenants (ils se « forment » et s’entrainent) en utilisant l’intelligence artificielle et les algorithmes du Machine Learning pour détecter, prédire, déduire et parfois penser, dans la perspective d’atteindre un jour une véritable Conscience Artificielle.
Au regard de ce qui se prépare aujourd’hui et de ce qui se joue de façon décisive dans la révolution numérique, c’est tout un système dédié à la manipulation des savoirs qui est mis en marche, et qui va aller en bouleversant toutes nos habitudes de traitement et d’analyse des données et des connaissances qui en résultent.
Les questions de sémantique et d’ontologie dans le traitement des connaissances multiples et complexes, auront un rôle majeur à jouer pour l’appréhension des différents langages humains et leurs subtilités.
La part relative de l’informatique cognitive, devenant une évidence face à la prochaine révolution qui est déjà en marche : celle de l’informatique quantique.

Copyright©Férial BENACHOUR-HAIT./03/2015.Tous droits réservés.

 

Publicités