Ce que j’ai retenu du Salon Big Data & AI Paris : gouvernance, observabilité et quantique au cœur des tendances

Le Salon Big Data & AI Paris s’est tenu récemment, rassemblant experts, entreprises innovantes et utilisateurs finaux autour des grands enjeux de la donnée et de l’intelligence artificielle. En tant que Data Engineer, j’ai profité de cet événement pour approfondir ma vision sur les pratiques de gouvernance, les innovations quantiques, les plateformes de données et les outils d’observabilité.

Déroulé de mes découvertes et rencontres

Actian : métadonnées, gouvernance et qualité

Lors de mes échanges avec Actian, et en particulier avec Ole Olesen-Bagneux, leur « Chief Evangelist », j’ai pu mieux comprendre les avancées autour du catalogue de données, de la gestion des métadonnées à large échelle, de la gouvernance distribuée, et des mécanismes garantissant la qualité des données. (Equilar)

Actian développe une plateforme Data Intelligence qui intègre observabilité, gouvernance, sémantique, et permet de structurer les données au moyen de métamodèles plus flexibles (ex. graphes de connaissance fédérés) pour mieux servir les usages analytiques et l’IA. Leur volonté de se développer en France me paraît stratégique, dans un contexte où les réglementations (RGPD, normes locales) et les attentes métier exigent une gouvernance robuste.

Quantique et cybersécurité — l’outil LLM de OQO

Une des sessions à forte valeur ajoutée a été celle dédiée à l’utilisation du quantique pour la cybersécurité. L’entreprise OQO a présenté un Large Language Model entraîné spécifiquement sur le calcul quantique, ses principes, ses dérives et ses usages. C’est une approche prometteuse pour :

     ● faire de la veille technologique,

     ● documenter les bonnes pratiques,

     ● sensibiliser sur les risques émergents (algorithmes quantiques vs cryptographie classique).

Observabilité des données avec Sifflet

Sifflet, startup française, propose une plateforme de data observability qui met l’accent sur :

     ● la détection automatique d’anomalies,

     ● la cartographie des flux de données,

     ● l’alignement entre les équipes techniques et les métiers. (Wikipédia)

Cette observabilité est vue non pas comme un gadget, mais comme une condition nécessaire à la fiabilité et à la conformité.

Snowflake : plateforme unifiée et défis d’intégration

Les échanges avec les ingénieurs de Snowflake ont mis en lumière les avantages de leur approche Data Cloud : séparation du stockage et du calcul, capacité à gérer différents types de workloads (batch, stream, BI, machine learning), et la promesse de réduire les silos. Toutefois, la complexité de la gouvernance, la maîtrise des coûts, ainsi que l’adaptation aux réglementations locales restent des défis concrets.

Le Salon Big Data & AI Paris a permis de confirmer des tendances majeures : gouvernance des données, qualité, métadonnées, observabilité et quantique sont au coeur des préoccupations. Les interactions avec Actian, Sifflet, OQO et Snowflake ont fourni des perspectives riches pour notre activité.

Enfin, on notera que Databricks ne figurait pas parmi les exposants ou speakers majeurs avec lesquels j’ai pu échanger. Son absence est significative, dans la mesure où c’est un acteur souvent cité dans les benchmarks et les choix de plateforme data/IA. Cela invite à surveiller de près sa stratégie de marché, et à ne pas considérer ses offres comme acquises sans alternative étudiée.

Je recommande que nous tirions parti de ces enseignements, notamment en renforçant nos capacités internes de gouvernance des données, d’observabilité, et en explorant comment préparer nos systèmes pour les impacts futurs du quantique.