En ce qui concerne le modèle économique des plateformes, la confiance est la clé du succès. D’après une étude menée par Blablacar et la NYU Stern, nous faisons presque autant confiance à un utilisateur de plateforme qu’à un ami. Une telle relation est assez paradoxale car les processus algorithmiques sousjacents échappent à la compréhension de la plupart des individus qui ne maîtrisent ni la trajectoire des données produites ou utilisées, ni les logiques de calcul de ces dispositifs. Dans ce contexte, les notions clés de liberté et de responsabilité se trouvent interrogées. Chercheuse à l’université de Namur, Antoinette Rouvroy insiste sur la différence entre les machines classiques et les machines algorithmiques5 : programmées pour orienter nos actions en nous donnant des informations et recommandations, ces dernières peuvent aller jusqu’à se substituer à la décision humaine. L’avènement des réseaux sociaux comme canal d’information est un autre exemple des risques que recèlent les algorithmes non maîtrisés sur l’accès à l’information. Dominique Cardon, professeur à Sciences Po, et Serge Abiteboul, directeur de recherche à Inria, alertent sur cette évolution, moins « neutre » que l’algorithme historique de classement de Google, plutôt transparent et « méritocratique ». En analysant nos préférences, ces algorithmes de filtrage et le choix du réseau social par les utilisateurs renforcent les bulles informationnelles et la viralité de certaines « fake news ». Au cours du séminaire, sur des thèmes divers, plusieurs intervenants ont évoqué cette absence de contrôle sur les algorithmes, mais aussi plus largement les questions de propriété des données, de transparence et de cyber-sécurité. Quelles limites faut-il donner aux usages, quelles fonctions voulons-nous attribuer ou déléguer à ces machines algorithmiques, quel degré d’opacité sommes-nous prêts à accepter ? Toutes ces questions qui tournent autour de la responsabilité sont encore largement en friche.