Les référentiels ont-il un avenir ?

Thésaurus, listes d’autorité, plans de classement… depuis bien longtemps les référentiels ont prouvé leur utilité dans le domaine documentaire. Ils ont été le fondement de la gestion et de l’organisation de l’information dans les cellules documentaires, les bibliothèques, chez les éditeurs de contenus. L’avènement de l’informatique et d’Internet a sensiblement modifié leur usage et a nécessité une refonte de leur format et parfois de leur contenu.

Jusqu’au jour où le Web 2.0 est venu remettre en cause leur existence. Avec la « folksonomie », c’est l’utilisateur qui tagge, qui étiquette, qui décrit. Chacun annote comme il veut et classe comme il l’entend. L’ordre né de l’entropie. Une vraie révolution copernicienne.

« Le pouvoir au peuple ! à bas la dictature des référentiels ! ». En des temps pas si lointains où tout était politique, le référentiel aurait-il été qualifié de bourgeois ? Outil d’asservissement de l’utilisateur ignorant des choses subtiles de la classification et de l’indexation, réservé à une élite sachante ?

La recherche en texte intégral n’est-elle pas la solution idéale ? Le Graal qui délivre la connaissance ? Après Google qui met à mal les cellules de veille, Internet va-t-il tuer les référentiels ? Le référentiel a-t-il vécu ? Il est vrai que si l’on regarde de près des services comme Flickr ou Delicious, les résultats sont plutôt probants.

Lors de la conférence que nous tenons à Documation le 17 mars à 14h30, nous aborderons ce sujet en détail et essayerons de comprendre l’intérêt des référentiels à l’heure du Web 2.0 et de la montée en puissance du Web Sémantique (Web 3.0).

Le prix de la chose

Avec l’arrivée prochaine d’une nouvelle version de notre solution AFS et avec le changement d’année, donc d’exercice commercial, se pose immanquablement la question de la grille tarifaire.

La difficulté pour un éditeur de logiciels comme Antidot n’est pas tant de fixer un prix que de définir les variables qui permettent de calculer une valeur. Quelles sont les métriques à utiliser, sachant que les objectifs sont :

  • Clarté de l’offre : le prix doit être compréhensible et sa variation doit pouvoir être anticipée par le client.
  • Progressivité : en fonction de la richesse fonctionnelle, du volume, de l’usage, du nombre d’utilisateurs, de la valeur créée, …
  • Adaptabilité : l’offre doit être suffisamment modulaire pour que le client ne paye que ce qui est nécessaire à son besoin.

Les pratiques du marché, en tout cas en ce qui concerne les moteurs de recherche, sont variées mais pas forcément adaptées à l’environnement actuel.

Dans un contexte où les technologies évoluent très vite, les métriques basées sur le matériel ou la volumétrie sont dépassées. Ainsi :

  • La tarification au serveur, au processeur ou au gigahertz n’est plus envisageable avec la généralisation des multi-cœurs et la diversité des plateformes.
  • La tarification au volume indexé (compté en volume de données ou en nombre de documents) est également difficile à appliquer : une image pèse lourd mais n’a que peu d’information à fournir ; un catalogue très complexe de 100 000 produits ne pèse que quelques dizaines de mégaoctets, soit moins qu’un gros fichier PDF. La disparité informationnelle et l’écart de valeur entre les sources sont des obstacles insurmontables.
  • Un prix basé sur la taille de l’index de recherche est ‘créatif’ mais il ne répond pas du tout au critère de clarté et de lisibilité de l’offre. Il est trop dépendant de la technologie et il est incertain : en effet le changement d’un paramètre de configuration peut faire varier la taille de l’index généré de façon sensible, de même qu’un changement de version logicielle peut du jour au lendemain ajouter 30% à la facture.

A l’opposé de ces « métriques techniques », il y a la tarification basée sur l’usage ou la valeur créée. Cette approche demande une analyse, une connaissance et une segmentation très fine des marchés. Et là aussi les écueils sont nombreux :

  • Un prix au nombre d’utilisateurs n’est pas adapté dans les environnements Web, et la transposition en nombre de sessions simultanées ne convient pas pour les architectures SOA à base de Web Services.
  • La tarification au pourcentage du chiffre d’affaires ressemble par trop à une dime, et ne convient qu’aux logiciels qui structurent l’entreprise et sont à la base de sa génération de valeur.
  • En outre, le risque existe qu’une telle tarification soit ressentie comme un prix à la bonne mine du client, laissant la porte ouverte à toutes les dérives commerciales possibles.

Et si l’on ajoute à cela des modes d’utilisation du logiciel variés, allant de la classique licence et son support pour les logiciels installés sur le site du client,  au mode ASP (le fameux SaaS, où le logiciel est vendu comme un service), la complexité n’est que plus grande.

Je ne sais pas si la définition d’une grille tarifaire est un art, comme certains le prétendent, mais c’est en tout cas un sacré casse-tête. Voilà en tout cas un problème que ne connaît pas le logiciel libre et qui ne doit pas m’empecher de vous souhaiter à tous une excellente année 2010 !