Un article dans La Recherche sur la science du Logiciel Libre

Les collaborations avec des partenaires dispersés géographiquement ne datent pas d'aujourd'hui, notamment en science. Mais jusqu'à une époque récente, mieux valait se rencontrer physiquement pour discuter sérieusement et échanger les informations nécessaires. Avec l'évolution des technologies fondées sur l'internet, la situation a radicalement changé: on voit se développer des projets collaboratifs tels que Wikipedia ou, dans un autre genre, Linux, tous ayant en commun d'être le fruit d'une coopération entre un grand nombre de contributeurs.

Au-delà de l'aspect socio-économique, déjà largement étudié, comment de tels systèmes peuvent-ils fonctionner ? Sur quels principes scientifiques se fondent-ils et quelles sont les recherches à mener pour en améliorer la stabilité et la fiabilité ? Avec Wikipedia, le défi était de construire une encyclopédie alimentée et entretenue par une communauté dont les membres n'appartiennent pas au monde de l'édition. Cette encyclopédie libre a connu une croissance exponentielle, depuis sa création en 2001, sans aucune coordination centralisée pour en assurer la cohérence. Le fait que certain articles manquent, ou soient obsolètes voire faux ne l'empêche pas de remplir sa fonction. Bien au contraire, une étude intéressante de Spinellis et Louridas dans Communications of the ACM en Aout 2008 montre que les liens rouges sont le moteur de sa croissance. En quelque sorte, Wikipedia est un exemple extrême de travail massivement collaboratif.

Il en va tout autrement quand il s'agit de maintenir des logiciels libres, qui sont des objets eminemment techniques.

Dans un article de vulgarisation paru dans La Recherche de Decembre 2009, pages 70 à 73, je donne des exemples concrets de problèmes scientifiques qu'ils nous faut résoudre pour accompager et maintenir la croissance du logiciel libre.