ParcoursIngénieur diplômé de l’ECE, je me suis spécialisé en sécurité informatique en travaillant 4 ans au sein de l’ANSSI puis dans un cabinet de conseil en sécurité informatique (Intrinsec). Je suis aujourd’hui RSSI adjoint du GIP RENATER où je suis notamment responsable du SOC interne.Curriculum VitaeCliquez sur l'image pour télécharger le CV. ArticlesLes articles suivants ont été initialiement publiés sur le site Uppercult.fr (site fermé en 2016) :Dans son livre sorti en avril 2011 « La vie privée en péril – Des citoyens sous contrôle »[1], Alex Türk, universitaire en droit public, sénateur du Nord (UMP) et vice-président puis président de la commission nationale de l’informatique et des libertés (CNIL) entre 2002 et 2011, revient sur l’intrusivité croissante des nouvelles technologies et l’atteinte qu’elles peuvent porter à notre intimité. Un an plus tôt, Jean-Marc Manach, journaliste spécialiste des questions liées à l’impact des TIC sur la société, étudiait, dans « La vie privée, un problème de vieux cons ? »[2] les mêmes problématiques mais n’en tirait pas exactement les mêmes conclusions. Je vous livre ici les points clés abordés dans ces deux ouvrages. Les technologies intrusives se répandent à une vitesse impressionnante : sous l’effort des industriels français particulièrement reconnus dans le domaine, les technologies biométriques sont utilisées dans des secteurs de plus en plus communs. La géolocalisation des individus a changé de forme et n’est plus seulement une fin mais un effet secondaire d’un nombre croissant de produits : si le but d’un GPS ou d’un bracelet électronique est de pouvoir géolocaliser le porteur celui d’un téléphone est d’établir une communication, et pourtant ce dernier géolocalise également. Enfin, sur la voie publique, les caméras de vidéosurveillance (ou « vidéoprotection » pour certains), dont les premières ont tout juste 20 ans, devraient passer le cap des 60 000 dans les prochains mois. Si l’on ajoute à cela l’interconnexion des système et leur miniaturisation progressive qui les rendent transparents aux yeux du citoyen, le danger potentiel que tout cela représente pour nos libertés est
réel et une question centrale se pose : comment pourra-t-on être sûr d’échapper au contrôle de systèmes qu’on ne peut pas voir ? La solution la plus simple consisterait à stopper cette croissance, voire à interdire ces technologies. Mais cette solution n’est pas pertinente, aucune technologie n’étant, en soi, bonne ou mauvaise. Il faut pousser la réflexion plus loin et étudier les usages qui en sont faits. Dans ce contexte difficile, la CNIL a pour rôle de « surveiller les surveillants » en s’assurant que l’utilisation qu’ils font d’une technologie donnée est justifiée et mesurée. On comprendra en effet qu’un système biométrique soit utilisé pour contrôler l’entrée dans une zone militaire, on comprendra moins que ce même système soit utilisé pour contrôler l’entrée de collégiens dans leur réfectoire ou que des caméras soient installées dans l’enceinte des toilettes d’un lycée (exemples réels de demandes ou de constats réalisés par la CNIL). Sur l’utilisation même de ces technologies, nos auteurs divergent. Alex Türk comprend par exemple le recours à la vidéosurveillance dans la lutte contre l’insécurité mais souhaite l’encadrer et instaurer une justification systématique de leur mise en place. Pour Jean-Marc Manach, la vidéosurveillance ne fait que déplacer le problème de l’insécurité et n’a aucune conséquence sur la délinquance. Elle n’a donc pas lieu d’être. Au-delà de ces technologies spécifiques, l’atteinte la plus importante à nos vies privées ne réside-t-elle pas dans toutes les données que nous confions volontairement aux géants d’internet ? Si leur utilisation à des fins commerciales est peut être le prix à payer pour pouvoir profiter des services offerts par Google ou Facebook, tout le monde en est-il vraiment conscient ? La question est plus complexe qu’elle n’ y paraît. Jean-Marc Manach estime que les « Digital Natives » comprennent mieux qu’on ne le pense les risques qu’ils encourent en publiant des contenus. Ils sont très présents sur la partie « publique » du réseau mais confient uniquement des informations qu’ils jugent sans importance et ne communiquent les autres que dans des cercles restreints. De plus, par accords tacites, ils respectent le choix du diffuseur originel et une personne qui enfreindrait cet accord serait alors mal vue par l’ensemble de la communauté. En plus de comprendre les risques, ils maitrisent les solutions et savent être proactifs sur le réseau en noyant les informations qui nuisent à leur réputation au milieu d’informations élogieuses. En allant plus loin et en s’appuyant sur les recherches du professeur Ravi Sandhu[3], il compare l’attitude de ces jeunes vis-à-vis de leur vie privée avec celle de leurs parents voir grands-parents dans les années 60-70 vis-à-vis de leur sexualité : « Au début, les gens avaient très peu d’inhibitions et adoptaient des pratiques très risquées, nous en sommes un peu à ce stade, en matière de partage de données. Avec le temps, les gens ont appris que ce n’était pas sans danger. » Il laisse donc penser qu’à travers ce qui nous semble aujourd’hui être de l’inconscience, une évolution des mœurs est en marche et que cette évolution profitera, au final, à la société dans son ensemble. Alex Türk se montre plus prudent sur les capacités de l’utilisateur lambda, face à la novlangue utilisée par ces entreprises, à se rendre compte de ce qui est fait de toutes les données qu’il transmet. Sont-ils tous conscients que derrière les mots « internautes » et « amis » se cachent « clients » et « usagers » ? De plus, cette notion de transparence empiète dangereusement sur celle d’intimité. Un ado qui n’est pas sur Facebook est considéré comme suspect car ayant quelque chose à cacher. Ce principe ne risque-t-il pas de s’élargir à la géolocalisation ? Trouvera-t-on bientôt suspect quelqu’un qui n’affiche pas sur Fousquare l’endroit où il se trouve en permanence ? Au delà de ces considérations, le simple fait de donner tant d’informations à une entreprise est-il un risque en soit ? Alex Türk revient notamment sur les discours maladroits et peu rassurants des patrons de ces grandes boites : en 2004, Mark Zuckerberg s’exclame « J’ai près de 4 000 adresses, mails, photos… Les gens me les ont donnés. J’ignore pourquoi ils me font confiance, putain d’abrutis ! ». Maintenant que son réseau dispose de plus de 600 millions d’utilisateurs, peut-on espérer que son point de vue ait changé ? En 2010, Eric Schmidt explique tranquillement que les autorités étatiques peuvent s’adresser à Google pour « en savoir plus » sur les utilisateurs de leurs services et nous livre sa propre version du slogan souvent ressassé « rien à cacher, rien à me reprocher » considérant qu’il faut en finir avec l’anonymat sur internet : si on regrette un jour ce qu’on a fait, il nous suffira alors de changer d’identité ! lex Türk insiste sur le fait que le « rien à cacher, rien à me reprocher », sur internet comme dans la rue, repose sur une confusion entre culpabilité et intimité. « Pourquoi distinguer les cas dans lesquels on serait suivi, observé, photographié ou filmé en compagnie de son épouse légitime de ceux dans lesquels on serait en compagnie de sa maitresse ? Curieuse conception dans laquelle la femme légitime n’aurait pas droit, elle aussi, à la protection de son intimité ! Comme si notre droit à l’intimité pouvait être fragmenté ou modelé en fonction des circonstances ou de la culture dominante… Non, nous avons le droit – et le devoir – de revendiquer le même statut d’anonymat, d’incognito, d’intimité, dans les deux cas. » La disponibilité sur les réseaux sociaux de tant d’informations sur les citoyens a souvent été utilisée pour dédramatiser la présence d’informations « intimes » (orientation sexuelle, état de santé) dans le fichier de renseignement EDVIGE. Jean-Marc Manach revient longuement sur la polémique et sur les dangers que représentent ces fichiers pour nos vies privées. Il traite notamment du nombre important d’erreurs qu’ils contiennent et contre lesquelles le recours est quasi impossible, du renversement de la charge de la preuve qu’ils induisent et de l’absence de visibilité pour les citoyens concernés sur le temps de conservation des informations qu’ils contiennent. L’inquiétude semble d’autant plus justifiée que le nombre de fichiers a plus que doublé depuis 2002 ! En allant plus loin, Jean-Marc Manach regrette également la non persévérance de la CNIL en ce domaine, cette dernière ayant été créée en 1978 pour surveiller les fichiers de l’état alors que le gouvernement de l’époque comptait les interconnecter. Et en effet, en 2004, lors d’une transposition d’une directive européenne de 1995, Alex Türk présentait une loi désignant les nouveaux objectifs de la CNIL. Constatant que ses avis concernant les fichiers gouvernementaux étaient très rarement suivis (la CNIL ne disposant que d’un pouvoir consultatif dans ce domaine), leur place dans ces nouveaux objectifs était fortement amaigrie. De son côté, Alex Türk relativise cette crainte en estimant qu’elle est issue de la méfiance de nombreux citoyens sur l’action de l’état et reconnaît les différences fondamentales dans l’objectif des fichiers de polices et des réseaux sociaux. Mais il ne comprend pas que l’on s’en indigne tout « en confiant sans réticence ses données personnelles à un fleuron du capitalisme mondial afin qu’il puisse établir un profil et en tirer profit ». Surtout si l’on prend en compte que les policiers considèrent les réseaux sociaux comme des sources d’informations plus fiables que les fichiers de renseignement. C’est, me semble-t-il, le point central de la discorde entre nos deux auteurs : qui est le vrai représentant de la société de surveillance ? Les géants d’internet et les responsables locaux (privée ou public) qui installent caméras et systèmes biométriques à tout bout de champs ou les gouvernements qui mettent en place un attirail complet d’outils législatifs pour permettre la surveillance ? La question a le mérite d’être posée mais les paradoxes sont nombreux : en septembre 2009, Brice Hortefeux justifiait le cofinancement par l’état de l’installation de plusieurs dizaines de milliers de caméra en disant « si vous n’avez rien à vous reprocher, vous n’avez pas à avoir peur d’être filmé. ». Une semaine plus tard, il fustigeait internet qui permettait, sans contrôle, la diffusion de la vidéo de sa célèbre réplique sur les « auvergnats ». On peut légitimement se demander ce qui se serait passé si cette vidéo avait été capturée par une caméra de surveillance. Dans l’ensemble, si l’on considère leurs points de vue séparément, on ne peut être que convaincu par chacun des deux auteurs. La confrontation de ces deux livres permet d’appréhender l’ensemble des problèmes liant le couple vie privée/nouvelles technologies et de se forger sa propre opinion sur un thème qui prend peu à peu de l’ampleur. Sur le fond donc, les deux ouvrages sont de belles réussites. Sur la forme, on pourra en revanche regretter que l’ouvrage de Jean-Marc Manach s’apparente davantage à une reprise de ces diverses publications qu’à une thèse structurée « pour l’occasion » comme semble l’être la réflexion d’Alex Türk. —–
[1] La vie privée en péril – des citoyens sous contrôle
Alex Türk Editions Odile Jacobe, paru en avril 2011. [2] La vie privée, un problème de vieux con ? Jean-Marc Manach Editions FYP, paru en juillet 2010. [3] Publication de Ravi Sandhu Responsable de l’Institut de la cyber sécurité à l’université du Texas à San Antonio —– Images Creative Commons croisées sur divers article du site owni.fr dont les crédits sont: by-nc-nd kakhun.wart by-nc-sa Inmigrante a media jordana by-nc-sa Stéfan Réduire l'article
Le 11 janvier dernier, OWNI, Sillicon Maniacs, Regard Citoyens et l’Epitech organisaient à La Cantine la deuxième édition du concours « Hack The Press ». Ce concours a opposé sept équipes autour d’un objectif commun : concevoir une application capable de fouiller dans une base de données (ici celle de Regards Citoyens qui centralise les activités des députés et sénateurs français) pour en extraire une information ou une tendance. Retour sur ce qu’est le data-journalisme, avec les thèmes abordés tout au long de cette journée.
J'ai également publié des comptes-rendus de confénces sur le blog sécurité d'Intrinsec.
Le data-journalisme est le fait de contredire (ou d’approuver) les croyances ou les discours en s’appuyant sur des faits chiffrés. Rien de vraiment nouveau dans cette approche. Mais la démocratisation d’internet et les nouvelles technologies ont changé la donne. Là où les données se trouvaient dans les livres et où leur exploitation était couteuse et difficile, elles sont désormais accessibles, souvent gratuites et leur format permet l’exploitation rapide de leurs contenus. Le data-journaliste est donc en quelque sorte un « journaliste 2.0″ capable d’analyser une grande quantité de données en peu de temps pour vérifier un discours ou pour appuyer une opinion. L’essor de ce phénomène s’est déroulé en trois étapes. Au début des années 90, quelques journalistes américains commencent à centraliser les résultats d’élections, les statistiques démographiques ou les faits divers dans des bases de données pour pouvoir vérifier facilement les discours d’hommes politiques. Assez vite, des entreprises y voient un nouveau marché et certaines développent des bases de données qu’elles vendent aux journalistes et qu’elles maintiennent à leur place en fonction de leurs centres d’intérêt. Dans les années 2000, les communautés du développement web et du logiciel libre s’emparent du phénomène et les sites de diffusion et de recensement de données commencent à fleurir sur la toile. Enfin, en 2010, des équipes mixtes journalistes/développeurs entrent dans les rédactions et se spécialisent dans le journalisme de données. C’est cette association entre le monde du journalisme et celui de l’informatique qui a permis d’obtenir l’efficacité qui manquait au data-journalisme. Les équipes présentes dans les rédactions comme celles présentes au concours Hack The Press étaient formées d’un développeur capable de concevoir des outils de récupération, d’ordonnancement et de pré-traitement des données ; de journalistes pour interpréter et contextualiser ces données brutes afin d’éviter toute interprétation démagogique ; et d’un designer pour mettre en image et schématiser ces données afin de les rendre plus accessibles au public. L’essor du data-journalisme s’explique également par la modification d’un point clé du journalisme : la plus-value des médias traditionnels s’est centrée sur la confiance qu’on peut avoir dans l’information. L’accès au lectorat étant désormais ouvert à n’importe qui (il n’y a plus besoin de passer par un média traditionnel pour diffuser une information) et l’accès à l’information étant possible en dehors des médias traditionnels (réseaux sociaux, sites institutionnels, Wikipedia), la valorisation de ces deux points est devenue difficile. Il s’agit donc pour les rédactions d’équilibrer la confiance qu’on peut avoir dans une information avec le délai de parution nécessaire pour la vérifier. Et c’est là que le bât blesse, on reproche de plus en plus à certains journalistes de ne pas approfondir les sujets et de se limiter à enrober les dépêches AFP et les communiqués des partis politiques. Et évidemment les équipes de communication des hommes politiques en jouent : augmentation du nombre de conférences de presse, multiplication des phrases choc, etc. Un journaliste ne voulant pas rater la dernière info n’a plus le temps de vérifier l’ensemble de ce qu’il retranscrit. Le data-journalisme s’est donc imposé comme un bon outil pour permettre d’augmenter la confiance qu’on peut avoir dans une information tout en limitant le délai de vérification. Le data-journalisme a aussi ses limites. La première est organisationnelle et axée sur les relations entre journalistes et développeurs. Dans sa keynote consacrée à ce sujet, Pierre Roméra[1] tente une explication : habitué à toucher à tout, le journaliste a du mal à concevoir qu’il va avoir besoin de l’aide de quelqu’un d’extérieur. Encore moins d’un informaticien qu’il associe à l’employé de la DSI qui met plusieurs jours à remettre sa machine en réseau après lui avoir demandé 20 fois si elle était bien branchée. A l’inverse, le développeur a tendance à être renfermé sur une façon de faire, une technologie, un OS et peut avoir du mal à acquérir la souplesse nécessaire au travail dans une rédaction. De plus, là ou le métier de journaliste change grâce au data-journalisme, celui du développeur évolue peu, il est donc parfois difficile de le motiver à rejoindre une rédaction plutôt qu’une entreprise privée. Il clôt sa présentation sur une note positive : une fois l’équipe mise en place, ces clichés disparaissent rapidement et le cercle vertueux du travail dans un environnement mixte se met en place. Le second point risque d’être le plus difficile à résoudre. Il concerne le format des données qui sont livrées par les administrations. Ce sujet a d’ailleurs cristallisé une bonne partie des échanges du débat[2] qui a clôturé la journée. L’exemple souvent repris est celui du gaz de schiste où la localisation des mines a été fournie au public dans un format que seul l’IGN est capable d’utiliser. On peut également comprendre qu’une administration qui accepte de fournir des données les fournisse au format dans lequel elle les utilise et qu’elle ne retarde pas la publication de ces données pour les mettre dans un format qui arrangerait les utilisateurs. Un autre reproche est fait à Séverin Naudet, directeur et représentant d’Etalab, celui de founir en priorité des données qui n’ont pas d’intérêt. La encore, l’arbitrage est difficile puisqu’une donnée qui peut sembler tout à fait inutile à un journaliste peut au contraire en intéresser d’ autres. Avant de voir les équipes de data-journalistes se former massivement dans les rédactions françaises, un problème doit être résolu : celui de l’existence même des données… Pour illustrer le fossé qui existe entre les rédactions françaises et anglo-saxonnes, Sylvain Parasie, lors d’une interview pour Silicon Maniacs en juin 2011[3], prend l’exemple d’un classement des maisons de retraites réalisé en France par Le Figaro et à Chicago par le Chicago Tribune. N’ayant aucune donnée objective sur le sujet, Le Figaro a envoyé aux maisons de retraite un questionnaire et a basé son classement sur les résultats reçus. Le Chicago Tribune s’est lui basé sur les statistiques de l’Etat de l’Illinois et les a croisées avec des données policières… On comprend aisément que la viabilité des données obtenues dans le second cas ne peut pas être atteinte en demandant aux maisons de retraite de se positionner elles mêmes. Même si l’ouverture des données publiques à mis du temps à arriver, la France rattrape son retard. En février 2011, le gouvernement décide de créer Etalab, mission chargée d’ouvrir les données des différents ministères. Dix mois plus tard naissait data.gouv.fr le site d’open-data de l’administration française. Tout un chacun peut maintenant avoir accès à certaines données des administrations. C’est un grand pas en avant, salué unanimement par les associations citoyennes ; mais dans les faits, du travail reste à faire et on est très loin de la diversité des données fournies par les administrations anglaises et américaines. Un problème structurel bloque le développement de l’open-data en France : le manque de granularité des données dû à leur centralisation par le ministère de l’Intérieur. On a accès aux statistiques département par département mais pas à l’échelle du quartier. Ça s’explique par une différence culturelle plus que par une mauvaise volonté politique. Aux USA, ces listes existent parce qu’elles sont utilisées : la police adapte son dispositif en fonction des chiffres de délinquance bloc par bloc. On rend même publique la liste des fonctionnaires avec leurs postes et salaires ; en France, l’idée d’une telle liste, même anonyme, est inimaginable. On trouve également une explication législative : Etalab doit encourager les administrations à rendre disponible leur données. Aux USA le « Transparancy ACT » oblige les administrations à rendre toutes les listes et données publiques sauf cas exceptionnels qui doivent être justifiés. Evidemment, la France n’a pas attendu Etalab pour utiliser ses données. L’INSEE existe depuis 1946, fournit des données d’excellente qualité et reste de loin la 1ère source (en quantité et en qualité) de données. Mais ses moyens sont réduits et les conséquences sont nombreuses. La plus visible est l’éloigement de l’INSEE des partis politiques qui préfèrent créer des « think tanks », sorte de groupes de travail qui publient à tout-va des données plus ou moins sourcées. Le cas souvent cité pour illustrer la subjectivité des rapports produits dans ces groupes est celui du rapport sur les 35h écrit par Hervé Novelli. Il y calcule le coût des 35h en se basant sur un rapport du Trésor Public qui estime leur coût annuel à 12 milliards d’euros et il y ajoute les 6 milliards d’euros qu’ont coûtés les diverses réformes votées par la droite pour « contrer » les 35h. Les médias traditionnels sont nombreux à avoir repris ce chiffre de 18 milliards d’ euros sans préciser la méthode employée alors que cette dernière est au moins discutable. Visiblement ce genre d’utilisation « limite » des chiffres risque d’être de plus en plus fréquent durant la campagne qui s’annonce. Face à cela, de nombreuses rédactions se sont préparées à la campagne présidentielle en mettant en avant des groupes de data-journalistes chargés de vérifier ce qui sera dit pendant la campagne. Pour confronter les points de vue sur la question de la libération des contenus et des données publiques en vue de la campagne, Regards Citoyens et Silicon Sentier organisent mercredi 29 février à La Cantine une table ronde avec les représentants des principaux candidats à l’élection présidentielle. Pour plus d’infos ou pour s’inscrire, ça se passe [ici].
Réduire l'article ContactVous pouvez me joindre par mail : Si vous souhaitez chiffrer vos messages, ma clé GPG est disponible sur l'annuaire de clé pgp.mit.edu ou directement ici. Son empreinte est disponible dans la description de mon compte Twitter (@ThibaudBD). |