La data au sein de l’expo Artistes et Robots

Par défaut

En ce moment, j’essaie de m’inspirer des visites et lectures liées à l’Intelligence Artificielle pour tenter d’évaluer quelle est la part que joue la Data dans le processus d’innovation et spécifiquement dans le domaine de l’Intelligence Artificielle.

Dans ce cadre, je suis allée voir l’exposition « Artistes et Robots » au Grand Palais et 3 œuvres ont particulièrement retenu mon attention :.

Data.Tron de Ryoji Ikeda. Ce que j’aime : la représentation de l’immensité des données, mais aussi l’apaisement qu’inspire cette oeuvre, qui contraste avec les caractères ultra-rapides et instantanés  que l’on confère aux données aujourd’hui.

Reflexao 2 de Raquel Kogan. Ce que j’aime : une oeuvre immersive qui représente de façon très juste l’avalanche de données à laquelle nous devons faire face quotidiennement. J’ai noté qu’en faisant un pas sur le coté, en se situant juste en dessous du retro-projecteur, le visiteur peut avoir un point de vue sur l’ensemble des données. Prendre du recul, épouser un point de vue particulier permet d’appréhender les données comme un ensemble.

Spam Scape de Pascal Dombis. Ce que j’aime : le  cote « indescriptible » des messages et le paradoxe : alors qu’ils veulent attirer l’attention de l’internaute, les spams produisent l’effet inverse : c’est surtout une masse inintelligible qui est représentée. Mais là encore, en analysant cette masse en se déplaçant et en cherchant un point de vue, on arrive à distinguer des bouts de messages.

 

 

 

 

 

 

Enfin, j’ai remarqué que les data dans notre quotidien sont surtout présentées dans la seconde partie de l’exposition, « L’Oeuvre programmée » (entre la première partie « La machine à créer » et la dernier partie « Le Robot s’émancipe »). La matière disparaît et laisse place au logiciel, au programme, qui révèle et sublime la donnée.

Lien vers l’exposition Artistes et Robots au Grand Palais. 

Publicités

Contextes

Par défaut


En ce moment, je lis le hors série de Libération et France Inter sur l’Intelligence Artificielle.

Un des enjeux de l’Intelligence Artificielle est de surmonter les « biais » que les jeux de données peuvent induire. En effet, les machines doivent se baser sur des données objectives surtout si elles sont auto-apprenantes, au risque d’empirer le biais qu’on leur a donné. Ces machines apprennent à partir de données, et ne sont pas en mesure d’apprendre à partir d’un contexte qui ne leur aurait pas été communiqué au préalable.

Cela me fait penser à un discours d ‘ Yves Morieux qui soulignait que les salariés agissent dans un contexte donné. Ils sont amenés à reporter des deadlines, adapter un discours, prendre des decisions, faire appel à une personne tierce….. en somme, en permanence à s’adapter au contexte dans lequel ils travaillent.

Automatiser, libérer, responsabiliser, faire exécuter, contrebalancer….. Jouer avec les contextes est peut-être un des prochains enjeux majeurs auxquels devront faire face les professionnels et les entreprises. On pourrait peut-être même appeler cela l’intelligence des contextes :).

L’info pro. Data. Nouvelle donne.

Par défaut

Je publie ici un billet que j’avais écrit il y a quelques mois suite à la participation au Salon Solutions en octobre 2014, mais qui me parait toujours d’actualité.

Embed from Getty ImagesNouvelle donne ces derniers temps dans le domaine de l’information professionnelle : la gestion des données ouvertes. Les données ouvertes, c’est ce formidable vivier d’information gratuite et en libre accès et qui, mine de rien, peut participer à l’élaboration de connaissances stratégiques.

L’utilisation des données ouvertes par les entreprises existe depuis plusieurs années, mais ces derniers temps, une nouvelle tendance a vu le jour – avec la mouvance des big data, open data, smart data, etc. La data, c’est le nouvel Or pour les entreprises.

J’avais pu, lors de ce salon, remarquer de nouveaux acteurs sur le marché, qui proposent leur service d’analyse et de capitalisation des informations. Simple mode autour de la data?

D’un coté, on pourrait penser que ces entreprises qui bâtissent leur business modèle autour de la valorisation des informations libres, ne sont que le renouvellement des agences de veille et d’intelligence économique qui fleurissaient il y a quelques années. La démocratisation de l’accès à l’information sonnait, quelque part, la fin d’un modèle d’entreprise basé sur la difficulté de l’accès à l’info.

D’un autre côté, les entreprises semblent être de plus en plus attentives à la valeur ajoutée que peuvent leur fournir l’analyse de ces informations. Car la facilité de l’accès à l’information a complexifié l’identification de l’info utile.

Quoiqu’il en soit, un nouveau marché, autour de l’exploitation des données ouvertes se dessine, l’enjeu de l’accès à l’information a évolué, le marché de l’information professionnelle se renouvelle…. et c’est tant mieux 🙂 !

5 raisons d’appliquer les technos Big data à la veille sur les réseaux sociaux

Par défaut

Aujourd’hui, l’enjeu majeur pour une entreprise n’est plus d’analyser et comprendre l’ensemble des données la concernant de près ou de loin, mais bien de mettre en place des outils pour capter et saisir le déluge des données issues des réseaux sociaux. Les technologies logicielle issues du big data peuvent répondre à ce nouveau challenge : 

      1. Parce que les data issues du web social ne vont cesser de s’accroître. L’utilisation des réseaux sociaux est en constante augmentation : démocratisation continue de l’usage du web, utilisation de nouveaux supports mobiles (mobiles, tablettes) et multiplicité des réseaux sociaux (réseaux sociaux professionnels, microblogging, plateformes de partages de photos et de vidéos, forums de discussions), des nouveaux services, et du temps réel (objets connectés, géolocalisation, commandes en ligne, etc.). .
      2. Parce que les données peuvent provenir de multiples réseaux, appelant des technologies souples, qui peuvent s’adapter rapidement aux nouveaux usages du web et à l’hétérogénéité des réseaux. 
      3. Parce que la compréhension de l’ensemble son environnement web est la clé d’un positionnement en ligne efficace. A l’analyse de ses consommateurs et de leurs pratiques, s’ajoute celle de la concurrence, et des débats liés à son environnement (économique, juridique, etc.). Veiller l’ensemble des acteurs et des débats multiplie les axes d’études.
      4. Parce que la compréhension de l’ensemble de ses clients et publics est primordiale. Les études des usages de ses publics sont essentielles pour répondre au plus près de leurs demandes. Avoir plusieurs publics ciblent exige plusieurs axes d’analyses. 
      5. Enfin, parce que les données issues du web social doivent être recoupées avec les données internes. La capitalisation des données constitue l’une des clés d’une stratégie cohérente et juste. Ainsi, les données du marketing, de la communication, du service client comme du service compta ou autre juridique doivent être recoupées pour tirer profit de l’ensemble des données. 

 

Métiers de la data et création de valeur

Par défaut

On entend de plus en plus en plus parler des data par les caractéristiques et les usages qui en sont fait : open data, big data, smart data, etc. Autant de qualificatif pour illustrer la nouvelle ère qui s’offre aux entreprises : l’analyse des données pour créer de la valeur. 

La nécessité pour les entreprises, d’acquérir de nouvelles compétences….

creation_valeurLe nombre de données explose, les technologies d’aide à ces analyses de données évoluent et ouvrent un nouveau champ des possibles. Les compétences pour aborder ces technologies d’analyses sont nouvelles et pointues. Si le métier de data scientist commence à être plus connu et que des formations ouvrent sur ces compétences, il est essentiel de bien identifier les spécialités des data scientists dont les entreprises ont besoin. Comme le disait un intervenant lors d’une table ronde sur les bigdata, l’intégration de ces compétences doit être pensé de façon stratégique, rattaché à une direction proposant une vision globale de l’utilisation des données de l’entreprise (marketing, DSI, stratégie, relation clients,etc.). Dans le même esprit, Matthew Reaney sur le blog Dataconomy propose quatre catégories de datascientists : « Data Business People (DB), Data Creatives (DC), Data Developers (DD), Data Researchers (DR) ». Cette typologie est intéressante car elle démontre les vastes compétences et les différents profils de professionnels qui doivent être conjugués en entreprise pour relever les multiples défis de l’analyse de données. De nouveaux métiers donc, avec les défis RH qui y sont associés.

 

Mais avec un objectif inchangé : l’analyse des données pour créer de la valeur

valeur_infoL’objectif de l’intégration de ces compétences est bien la création de valeur. Lorsqu’on s’engage dans une démarche d’analyse des données, c’est pour en retirer des informations exploitables pour l’entreprise. Des informations qui deviennent dès lors qu’on se les approprie, des connaissances (sur ses clients, ses consommateurs, ses pratiques internes, etc.). Voir à ce propos mon article du Cercle Les Echos. Qu’elles soient des données de géolocalisation, issues de la presse, de la pratique des réseaux sociaux, les données constituent une matière brute, à travailler pour en tirer de l’intérêt et conduire une stratégie adaptée. Les technologies sont différentes mais les objectifs restent les mêmes. Dans ce cas, peut-on considérer que les métiers de l’information d’hier sont ceux de la data aujourd’hui ? L’avenir nous le dira. Quoiqu’il en soit, avec un marché jeune, construisant petit à petit son écosystème avec ses structures et ses spécificités, avec une intégration volontaire de spécialistes de la data au sein même des entreprises, l’analyse des données et la création de valeur ont de beaux jours devant elles.

 

 

Objectif Smart Data

Par défaut

smart_data_ecole42 « Smart, big, open: peu importe le qualificatif, si la donnée n’est pas utile, elle n’a pas de valeurs », c’est ainsi qu’Henri Verdier, directeur d’Etalab, a conclu la conférence Débat la semaine dernière, consacrée à la Data dans le cadre du Data Day organisé par FrenchWeb.

 

Entre Big, Small, Fast, Open et les autres qualificatifs des data, il est parfois difficile de savoir dans quelle direction s’orienter pour optiliser ses données.
Si tous les qualificatifs ont leur sens (Big pour signifier l’ampleur, Fast pour illustrer une diffusion ultra rapide, ou Open pour caractériser leur accès libre), ce sont bien les Smart data qui sont le but ultime de tous projets liés à l’analyse des données.

Le qualificatif Smart veut ainsi désigner l’intelligence extraite de l’analyse des données. C’est même l’objectif du traitement des données, et l’essence des professionnels de l’information.
Je dis souvent qu’il ne suffit pas de traiter les données; il faut en plus les contextualiser dans un environnement décisionnel propre, au sein d’une entreprise. Quand le Big, le Fast et l’Open sont des états, le smart est la résultante d’une démarche volontaire d’exploitation de ces données.

Et comme l’a fait remarqué David Bessis, initier une démarche de big, fast et open data c’est avant tout le désir de faire des choses intelligentes avec les données.

A noter également que lors de cette conférence, les intervenants ont largement démystifié le concept de big data : selon eux, peu importe le volume de données, du moment que celles-ci parlent et signifient quelque chose. Ainsi, le fait que certains jeux de données « tiennent sur une clés USB » est un exemple qui est revenu régulièrement. En fait, derrière la mode du big data, il y a surtout l’enjeux de savoir quelles données sont utiles pour servir un objectif stratégique.

La notion de temps réèl – fast data- en revanche est resté un élément clé avec des enjeux bien particuliers : servir son client et lui délivrer la bonne info au bon moment selon un contexte d’achat à déterminer.

Enfin, l’Open data reste un concept privilégié au sein des débats puisqu’elle a cette particularité de dépendre d’une démarche d’ouverture des données de la part des entreprises et des administrations.