Chez Atos, le cloud ouvert et hybride se fait avec Google

L'entreprise française lance une offre « Open Hybrid Cloud », une solution sur site entièrement gérée qui permet d'effectuer une transition progressive vers le « cloud-native » et d'adopter une stratégie de cloud hybride. Explications.
La nouvelle solution de cloud privé est proposée sur site et entièrement gérée. Pour accentuer son ouverture, Atos a pu compter sur l'open source. Ainsi « Open Hybrid Cloud » est basé sur les plateformes Kubernetes et OpenStack.
L'Open Hybrid Cloud d'Atos vient (plus (...)

- Applications

Renouvellement de l’équipe de modération

LinuxFr.org est une place incontournable sur le Web francophone du Libre et de l’open source depuis plus de vingt ans. L’ambiance évolue avec le temps mais la communauté et les contributions émergent encore et encore. Par exemple, plus de 2 000 contenus ont été publiés chaque année ces trois dernières années. Vous pouvez vous aussi faire partie de l’aventure et apporter votre pierre à l’édifice.

En effet, d’anciens membres quittent l’équipe de modération (merci à Lucas Bonnet et tuiu pol pour le travail accompli !) et les membres restants émettent le désir d’accueillir du sang neuf (nous venons d’ores et déjà d’accueillir devnewton et Ysabeau). Pourquoi pas vous ?

Les détails sont dans la deuxième partie de la dépêche.

La mission de l’équipe de modération

La mission de l’équipe de modération est décrite en profondeur sur les pages « Règles de modération » et « Règles de modération des contenus, commentaires et comptes problématiques ».

Dans les grandes lignes, l’idée principale est de garantir une certaine qualité de contenu pour les visiteurs : dépêches bien structurées, dans un français correct, et pertinentes, selon la ligne éditoriale.

Notre équipe de modération agit en premier lieu avant la publication des dépêches, mais son rôle consiste aussi à rendre service et à nettoyer les contenus : les corrections post‐publication sont assez fréquentes et demandées par les auteurs comme par les lecteurs ; des messages indésirables, ainsi que des contenus, commentaires et comptes abusifs ou problématiques doivent aussi régulièrement être supprimés.

Bien que le lectorat du site gère très bien le filtrage des contenus et commentaires grâce à la puissance du pertinentage, il faut malgré tout faire parfois la police : rappel des règles et suppression de propos problématiques.

Qui peut postuler

Pour faire partie de l’équipe de modération, il est important :

  • de lire et écrire en français ;
  • d’avoir des connaissances dans un ou plusieurs aspects du Libre (logiciel, art, etc.) ;
  • d’être membre du site depuis un certain temps (plusieurs mois, probablement une année) ;
  • d’y contribuer activement (idéalement de connaître les différentes parties du site, donc d’avoir déjà contribué en rédaction, avoir eu une dépêche publiée, écrit un journal, etc.)

Vous pouvez tout aussi bien rejoindre l’équipe d’animation de l’espace de rédaction pour contribuer à la rédaction de dépêches existantes, aider à amorcer de nouvelles dépêches, aider les débutants, etc.

Si vous répondez à la majorité des critères ci‐dessus et que vous avez envie de faire partie de l’équipe de modération, écrivez‐nous à l’adresse moderateurs@linuxfr.org.

Télécharger ce contenu au format Epub

Commentaires : voir le flux atom ouvrir dans le navigateur

L'April demande la publication du SILL 2019 et la feuille de route de la DINSIC

Paris, le 18 avril 2019. Communiqué de presse.

Des événements et des interviews récents concernant la place du logiciel libre et des données ouvertes au sein de l'État sont inquiétants. Cédric O, nommé récemment secrétaire d'État chargé du numérique, sera évidemment jugé à l'aune de son action mais d'ores et déjà il peut appuyer deux actions concrètes : la publication officielle du SILL 2019 (Socle interministériel de logiciels libres) et la feuille de route de la DINSIC.

Fin février 2019, le journal Contexte annonçait que Christian Quest avait remis sa démission à Nadi Bou Hanna, nommé fin 2018 à la tête de la Direction interministérielle du numérique et du système d’information et de communication de l’État (DINSIC). Christian Quest, par ailleurs porte-parole d'OpenStreetMap, était chargé de mission au sein d'Etalab1. Par sa démission il souhaitait tirer une sonnette d'alarme concernant les changements de priorité de la DINSIC suite à la nouvelle nomination. Il explique son départ par une « une feuille de route utilitariste et court-termiste n'intégrant quasiment aucune des valeurs qui l'ont fait rejoindre Etalab ».

Dans une interview donnée à Next INpact en mars 2019, Nadi Bou Hanna expliquait notamment que la priorité au logiciel libre était un « «débat du début des années 2000 » et qu'il préférait « une approche pragmatique ». En mars également, dans un article publié par Acteurs publics il était écrit « dans l'écosystème, certains craignent une remise à plat par le nouveau directeur, alors qu’une nouvelle dynamique animait l’Etat depuis peu, entre la promotion du logiciel libre et de l’ouverture des données au sein des administrations via le programme Entrepreneurs d’Intérêt Général (entre autres), la nomination d’un référent logiciels libres à la Dinsic et le lancement d’une communauté d’acteurs du libre au service de l’intérêt général dénomée "Blue Hats". ».

Autre signe inquiétant, la non publication du SILL (Socle interministériel des logiciels libres). Ce document a notamment vocation à encourager l’usage concerté et coordonné des solutions libres dans l’administration. Le SILL est généralement publié en tout début d'année depuis 2013 et pour le moment aucune publication ne semble prévue.

Un retour en arrière qui serait d'autant plus étonnant et inquiétant que la Cour des comptes validait en février 2018 la stratégie mise en place par la DINSIC, notamment sur le recours aux logiciels libres, et émettait des recommendations pour qu'elle soit amplifiée et relayée au sein des services de l'État.

L'April demande solennellement au secrétaire d'État chargé du numérique la publication officielle du SILL 2019 et la publication de la feuille de route de la DINSIC.

  • 1. le service au sein de la DINSIC chargé d’accompagner les administrations dans leurs démarches d’ouverture de données publiques

BD : Naja de Morvan et Bengal (2008)

Mais qui est Naja ? Tueuse ou espionne ? Elle est la numéro 3 d’une mystérieuse organisation et le numéro 1 voudrait l’éliminer ? Pourquoi? Beaucoup de questions au début de cette série de 5 albums et 10 chapitres, réunis aussi en intégrale. Et ça démarre plutôt sur les chapeaux de roue. Pour une fois… Lire la suite BD : Naja de Morvan et Bengal (2008)

Intelligence artificielle : des limites de l’éthique aux promesses de la régulation

L’Union européenne vient de publier un ensemble de recommandations et de règles (voir le rapport) pour développer des applications d’intelligence artificielle éthiques et responsables. Ce travail réalisé par un groupe d’une cinquantaine d’experts se révèle assez convenu, rappelant de grands principes éthiques pour orienter le secteur. Comme ironise The Verge, la plupart des propositions sont finalement un peu abstraites et en restent à des principes un peu flous et généraux.

Le philosophe et éthicien Allemand Thomas Metzinger (@thomasmetzinger) a été l’un des philosophes qui a participé à cette commission. Dans le journal allemand Der Tagesspiegel, il publie une tribune où il s’interroge pour savoir s’il n’a finalement pas participé à l’éthique washing ambiant, c’est-à-dire si le travail qu’il a accompli ne justifie pas une forme d’éthique qui n’en est pas vraiment ! D’emblée, il concède : « Le résultat est un compromis dont je ne suis pas fier, mais qui est néanmoins le meilleur au monde en la matière. » Effectivement, les États-Unis ou la Chine, leaders en matière d’IA, n’ont pas publié de lignes directrices pour orienter la R&D et le développement en matière d’IA. Ces premiers principes, bien qu’imparfaits, devraient certainement permettre d’inspirer la production future de principes de conformités légaux sur ces questions et certainement donner lieu à la production de cadres réglementaires. Mais, nous n’en sommes pas là ! Et comme le souligne le philosophe, pour l’instant, les recommandations « sont tièdes, à courte vue et délibérément vagues. Elles ignorent les risques à long terme, dissimulent par la rhétorique des problèmes difficiles (comme « l’explicabilité »), violent les principes élémentaires de la rationalité et prétendent savoir des choses que personne ne sait vraiment ».

Le philosophe explique par exemple que dans ce groupe de travail, composé de 52 personnes, seule une poignée était spécialistes de l’éthique (l’essentiel rassemblait des personnalités politiques, de la société civile, quelques chercheurs et surtout, majoritairement, des représentants de l’industrie). Trouver des compromis a donc été difficile. Il explique par exemple qu’il a travaillé pour sa part à définir des lignes rouges, c’est-à-dire des principes éthiques « non négociables », des secteurs où l’Europe devrait se refuser d’aller comme les armes létales autonomes ou l’évaluation des citoyens par l’État. Lors des discussions sur la rédaction des recommandations, l’ex-président de Nokia, le sympathique Pekka Ala-Pietilä, lui a demandé gentiment de supprimer la mention « non négociable »… De discussion en discussion sur la forme même du rapport, de nombreux représentants de l’industrie défendant une vision positive ont insisté avec véhémence pour supprimer les références aux lignes rouges. Le document final évoque seulement des préoccupations critiques, diluées dans un ensemble de principes généraux.

La réponse éthique en question

Pour Thomas Metzinger, c’est là un exemple très concret de « blanchiment éthique ». « L’industrie organise et entretient des débats éthiques pour gagner du temps – distraire le public et empêcher ou du moins retarder l’efficacité de la réglementation et de l’élaboration des politiques. Les politiciens aiment également mettre en place des comités d’éthique, car cela leur donne un plan d’action quand, étant donné la complexité des problèmes, ils ne savent tout simplement pas quoi faire – et cela n’est qu’humain. »

Dans le même temps, l’industrie elle-même construit des « machines à laver éthiques », pour montrer qu’elle se préoccupe de ces questions. Facebook a investi dans un Institut d’éthique en IA – en finançant un institut destiné à former des éthiciens de l’IA. Google, après avoir annoncé quelques grands principes, a lancé un comité d’éthique – qui a explosé en vol.

Pour le philosophe, le risque que se développent partout des comités Théodule, des labels autoréférentiels, des principes éthiques conceptuels un peu déconnectés des réalités opérationnelles est réel. Pourtant, constate le philosophe, face à la Chine ou aux États-Unis, seule l’Europe est à même « d’assumer le fardeau » de mettre en place les principes d’une responsabilité. Malgré leurs limites, ces principes sont pour l’instant les meilleurs que nous ayons pour avancer. C’est à la recherche et à la société civile de reprendre la main sur le processus pour extraire le débat des seules mains de l’industrie. « La fenêtre d’opportunité à l’intérieur de laquelle nous pouvons au moins partiellement contrôler l’avenir de l’intelligence artificielle et défendre efficacement les fondements philosophiques et éthiques de la culture européenne se fermera dans quelques années », prévient-il, alarmiste.

Un récent article d’Associated Press se faisait également critique de la mode de l’éthique dans le domaine de l’IA et finalement du peu d’empressement des grandes entreprises à se doter de cadres clairs en la matière. Créer des comités d’éthique sans cadres pour rendre opérationnelle la responsabilité, ne mènera pas très loin, estime le chercheur autrichien Ben Wagner (@benwagne_r), directeur du Privacy Lab de l’université de Vienne. Pour lui, là encore, ces comités d’éthiques relèvent de l’éthique washing, un effort superficiel qui vise seulement à rassurer le public comme les législateurs et retarder les régulations. Bien sûr, le fait que nombre d’entreprises étudient la question est intéressant, mais pour l’instant elles ont toutes latitudes pour décider quels principes intégrer ou non à leurs décisions commerciales. Pour l’instant, les employés de ces grandes entreprises sont ceux qui ont eu le plus de pouvoir sur ces questions : ce sont des critiques internes qui ont contesté le comité d’éthique de Google, ce sont des critiques internes qui ont poussé l’entreprise à annuler un contrat de surveillance signé avec le Pentagone pour analyser des images de drones.

Dans un article sur le sujet (.pdf), Ben Wagner s’interrogeait d’ailleurs sur comment s’assurer que l’éthique ne soit pas dévoyée. Pour cela, il souligne le besoin d’une participation externe qui soit régulière et qui implique toutes les parties prenantes. Il pointe l’importance pour les entreprises de se doter d’un mécanisme de contrôle externe et indépendant ; de s’assurer de processus de décisions transparents qui expliquent et motivent les décisions prises ; de développer une liste stable de normes, de valeurs et de droits justifiés ; de s’assurer que la question éthique ne se limite pas ni ne se substitue à une question de respect des droits fondamentaux ou des droits de l’homme ; de définir clairement le lien entre les engagements pris et les cadres juridiques ou réglementaires existants, notamment lorsque les deux sont en conflits.

Pour Wagner, quand l’éthique est vue comme une alternative à la régulation ou un substitut aux droits fondamentaux, alors l’éthique, le droit comme la technologie en souffrent. Si on comprend bien les propos de Wagner, les dispositions éthiques ne doivent pas se limiter à des principes généraux, mais se transformer en dispositions concrètes pour protéger les valeurs de la société, à l’image de ce que propose le RGPD dans le domaine de la vie privée pour les citoyens européens.

Pour la designer Molly Wright Steenson à la conférence Interaction Design en février, on recense des dizaines de boîtes à outils, de principes, de codes de conduites, de cadres, de manifestes et de serments… éthiques (cf. « Concrètement, comment rendre les algorithmes responsables et équitables ?« ). Mais l’éthique ne consiste pas seulement à appliquer la bonne feuille de route sur un produit, ou à coller des principes sur des pratiques. Dans sa présentation, Molly Wright Steenson pointait d’ailleurs un article du magazine Forbes de 2006, qui montrait que la mode du responsable de l’éthique n’est pas si nouvelle. Mais qu’en 2006 comme en 2019, les principes et les comités ne peuvent rien faire si la question n’est pas traitée globalement par l’entreprise.

La faiblesse fondamentale de cette explosion de comités éthiques dans les entreprises de technologies, estime la spécialiste de l’IA Rumman Chowdhury (@ruchowdh) d’Accenture, repose sur leur manque de transparence. Nombre d’institutions dans le domaine de la recherche ou de la santé ont depuis longtemps mis en place des comités d’éthiques qui défendent l’intérêt du public par rapport aux institutions qui les ont mis en place. Dans le cas des grandes entreprises de la technologie cependant, les intérêts que représentent ces comités ne sont pas aussi clairs, explique The Verge. Quelle est la capacité de surveillance des comités d’éthiques consultatifs s’ils ne peuvent ni apporter des modifications aux fonctionnements des structures qu’ils surveillent ni s’adresser au public ? Google n’a créé sa charte éthique qu’après que ses employés se soient opposés à son contrat avec le Pentagone. IBM a lancé également des initiatives éthiques, mais cela n’a pas empêché l’entreprise, comme l’a révélé The Intercept, de travailler avec les forces de police des Philippines à des outils de surveillance. « L’intérêt des entreprises pour des algorithmes éthiques jusqu’à présent ne les a pas arrêtés à accompagner des causes profondément non éthiques ». En attendant, rappelle l’article de The Verge, la législation a encore des atouts. Et les dispositifs légaux existants peuvent tout à fait être mobilisés pour contester des décisions algorithmiques, à l’image du ministère du Logement américain qui vient de poursuivre Facebook pour discrimination du fait que son système de ciblage publicitaire permette à des annonceurs immobiliers d’exclure de leurs annonces immobilières certaines personnes selon leur couleur de peau, leur religion ou leur lieu d’habitation (pour bien comprendre les limites du ciblage publicitaire, allez lire l’excellent article d’Olivier Ertzscheid sur la question).

Le réveil législatif et judiciaire ?

La dernière livraison de l’impeccable lettre d’information sur les algorithmes de la Technology Review revenait sur le projet de loi du Sénat américain (.pdf) (l’Algorithmic Accountability Act) pour réguler les algorithmes en imposant aux grandes entreprises une obligation à évaluer la partialité de leurs systèmes et en conférant, si elle était adoptée, à la Commission fédérale du commerce américaine de nouvelles possibilités de poursuite et de condamnation des entreprises. La loi vise à obliger les grandes entreprises algorithmiques (les entreprises qui gagnent plus de 50 millions de dollars par an ou dont les systèmes impactent plus d’un million d’utilisateurs ou de dispositifs, ainsi que les courtiers de données) à évaluer les biais de leurs systèmes, via des audits ou des rapports d’impacts rapporte The Verge. D’autres sénateurs américains ont proposé également une loi spécifique à la reconnaissance faciale imposant un consentement explicite au partage de données liées à la reconnaissance faciale. Pour Mutale Nkonde (@mutalenkonde) chercheuse au Data & Society Institute et impliquée dans le développement de ces processus réglementaires, l’Algorithmic Accountability Act s’inscrit dans une stratégie plus vaste visant à mettre en place une surveillance réglementaire de tous les processus et produits de l’IA à l’avenir, annonçant un futur projet de loi consacré à la propagation de la désinformation et un autre pour interdire les pratiques visant à manipuler les consommateurs pour les faire renoncer à leurs données. Le problème, souligne la newsletter de la Technology Review, c’est que ces technologies sont transverses : « La reconnaissance de visage est utilisée pour une foule de choses différentes, il sera donc difficile de dire : « Ce sont les règles de la reconnaissance de visage ». » Pour Mutale Nkonde il est probable que ce mouvement réglementaire aboutira à la création d’un nouveau bureau ou d’une nouvelle agence spécifiquement axée sur les technologies de pointe.

Reste que l’Algorithmic Accountability Act n’est qu’un projet de loi. Rien n’assure qu’il soit adopté. Il est pour l’instant porté par des démocrates alors que le Sénat est sous contrôle républicain. L’autre difficulté, c’est que ces questions demeurent très mal maîtrisées par l’ensemble des élus américains.

D’autres initiatives sont également en cours. La sénatrice américaine Elizabeth Warren, candidate à l’investiture démocrate pour les élections présidentielles de 2020 a publié sur Medium un appel à démanteler les Gafams. Comme le rapporte Korii, elle a également déposé un projet de loi qui rendrait juridiquement responsables les plateformes de toute fuite de données personnelles (un problème devenu endémique). Elle a également proposé que les Gafams soient taxés non pas sur les revenus déclarés au fisc, mais sur ceux qu’ils présentent à leurs investisseurs et actionnaires.

Pour réguler les systèmes automatisés, le paravent de l’éthique pourrait donc bien rapidement faire long feu face aux promesses plus immédiates des évolutions réglementaires et des poursuites judiciaires.

Hubert Guillaud

Émission « Libre à vous ! » sur radio Cause Commune (23 avril 2019)

23 Avril 2019 - 15:30
23 Avril 2019 - 17:00

Photo d'illustration de l'émission

La vingt-deuxième émission Libre à vous ! de l'April sera diffusée en direct sur radio Cause Commune sur la bande FM en région parisienne (93.1) et sur le site web de la radio, mardi 23 avril 2019 de 15 h 30 à 17 h 00. Et l'émission sera rediffusée le soir même de 21 h à 22 h 30.

Notre sujet principal portera sur les entreprises du logiciel libre avec Véronique Torner (Alter Way, administratrice du Syntec Numérique, présidente de l'Open CIO Summit), Stéfane Fermigier (Abilian, co-président du CNLL et président du Groupe Thématique Logiciel Libre) et Laurent Wargon (Easter Eggs et Réseau Libre Entreprise). Nous aurons également la chronique de Xavier Berne de Next INpact et la chronique « Jouons Collectif » de Vincent Calame, informaticien libriste.

Écouter le direct mardi 23 avril 2019 de 15 h 30 à 17 h 00   S'abonner au podcast

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h. Avec normalement une rediffusion le soir même de 21 h à 22 h 30.

Liens utiles

Les archives de l'émission

Écouter les émissions précédentes

Émission « Libre à vous ! » sur radio Cause Commune (23 avril 2019)

23 Avril 2019 - 15:30
23 Avril 2019 - 17:00

Photo d'illustration de l'émission

La vingt-deuxième émission Libre à vous ! de l'April sera diffusée en direct sur radio Cause Commune sur la bande FM en région parisienne (93.1) et sur le site web de la radio, mardi 23 avril 2019 de 15 h 30 à 17 h 00. Et l'émission sera rediffusée le soir même de 21 h à 22 h 30.

Notre sujet principal portera sur les entreprises du logiciel libre avec Véronique Torner (Alter Way, administratrice du Syntec Numérique, présidente de l'Open CIO Summit), Stéfane Fermigier (Abilian, co-président du CNLL et président du Groupe Thématique Logiciel Libre) et Laurent Wargon (Easter Eggs et Réseau Libre Entreprise). Nous aurons également la chronique de Xavier Berne de Next INpact et la chronique « Jouons Collectif » de Vincent Calame, informaticien libriste.

Écouter le direct mardi 23 avril 2019 de 15 h 30 à 17 h 00   S'abonner au podcast

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h. Avec normalement une rediffusion le soir même de 21 h à 22 h 30.

Liens utiles

Les archives de l'émission

Écouter les émissions précédentes

Blockchain et RGPD, des incompatibilités insurmontables ?

La semaine dernière, nous avons commencé à parler du RGPD dans le secteur de la Blockchain. L’objectif était de « poser le décor », afin d’avoir les éléments nécessaires pour comprendre les risques de non-conformité liés à la technologie. Cette semaine, nous entrons dans le détail des incompatibilités entre RGPD et Blockchain.

Quelles sont les incompatibilités ?

Je ne veux pas jouer les alarmistes, ce n’est pas mon objectif. Pour commencer, sachez que des ateliers de réflexion sur les moyens d’avoir une blockchain conforme au RGPD existent. L’European Union Blockchain Observaroty and Forum, à l’initiative de la Commission Européenne, s’est penchée sur la question. Un rapport a vu le jour suite à cette initiative, afin de présenter le besoin, le problème et d’éventuelles solutions.

La CNIL, de son côté, s’est également penchée sur le sujet, courant septembre 2018 :  Blockchain et RGPD : quelles solutions pour un usage responsable en présence de données personnelles ?

Dans les deux cas, la blockchain est une technologie récente et nous n’avons pas encore assez de recul sur le sujet. Les études plaident pour des analyses au cas par cas, en observant les besoins, les situations, les objectifs poursuivis et les moyens techniques mis en place.

Un des points « de base » du RGPD est la qualification du régime juridique des acteurs du traitement. D’habitude, la protection des données repose sur une gestion « classique » des données : elles sont centralisées au sein d’organismes identifiés de façon assez nette.

Problème : la blockchain (publique à minima) repose globalement sur l’absence d’organisme centralisé et identifié. Son fonctionnement est distribué aux différents nœuds qui la composent. Il n’existe pas de centralisation des données, mais des réplications des données sur la totalité du globe.

Nous pouvons nous attacher aux définitions formelles des acteurs, telles que formulées dans l’article 4 du RGPD.

Ainsi, un responsable de traitement est « la personne physique ou morale, l’autorité publique, le service ou un autre organisme qui, seul ou conjointement avec d’autres, détermine les finalités et les moyens du traitement, […] ». Un sous-traitant, quant à lui, est « la personne physique ou morale, l’autorité publique, le service ou un autre organisme qui traite des données à caractère personnel pour le compte du responsable du traitement ».

Dans le cadre d’une blockchain publique, qui est qui ?

Le fait d’installer une application et de devenir un node de la blockchain pourrait-il être assimilé à la définition des moyens (le logiciel) et des finalités (miner ou produire des transactions sr la blockchain) ? Dans ce cas, la quasi totalité des utilisateurs de la blockchain seraient des responsables de traitement ?

En pratique, non. L’avis de la CNIL est le suivant : une personne physique participant à une blockchain pourrait être responsable de traitement si ce qu’elle en fait est en lien avec une activité professionnelle ou commerciale. Une personne morale, quant à elle, serait responsable de traitement dès lors qu’elle inscrit des données à caractère personnel sur la blockchain.

Les personnes qui ne font que valider les transactions (on parle de mineurs) ne font que valider des transactions, ils ne déterminent rien et ne sont pas, dès lors, des responsables de traitement.

La situation doit s’évaluer au cas par cas et il ne faut pas négliger l’analyse. C’est à partir des conclusions de cette dernière que vous allez savoir quoi faire, et comment faire.

Imaginons que je vous contacte pour faire exercer un droit d’accès… si vous ne savez pas qui est le responsable de traitement, qui est la personne à contacter, alors je n’ai aucun moyen de faire exercer mes droits, ce qui pourrait fortement me déplaire… 😉

Tu vas respecter mes droits !!!

Une fois que vous avez réussi à savoir exactement qui était quoi, commence le « vrai » problème.

Durée de conservation, droits, …

Un responsable de traitement doit définir une durée de conservation des données, ou à défaut, expliquer les moyens qui permettent de définir cette durée… mais vous l’aurez compris avec le billet précédent, une fois qu’une information est dans la blockchain, elle est définitivement dedans. Il n’est pas possible de supprimer des données déjà présentes dans la blockchain. Donc, la durée de conservation est « infinie » et le seul moyen de supprimer des informations serait de détruire intégralement la blockchain en question.

L’objectif de la CNIL comme de la réglementation en matière de protection des données à caractère personnel n’est pas d’interdire la technologie mais de l’encadrer afin que la loi soit respectée. Ici, nous avons une incompatibilité majeure, liée au fonctionnement même de la blockchain.

On pourrait considérer que la durée de conservation est « la durée de vie de la blockchain ». Comme certains le disent dans le monde des avocats « ça se plaide ». Cependant, il n’est pas certain que la CNIL soit de cet avis, en fonction des cas…

Est-ce insurmontable ? Non. L’idée, afin que ladite blockchain soit conforme, serait de ne pas inscrire de données à caractère personnel dedans.

« Tout simplement » ?

Simple ? Certainement pas. La définition d’une donnée à caractère personnel est large : toute information relative à une personne physique identifiée ou identifiable, de façon directe ou indirecte. Ainsi, si on pense évidemment aux éléments directs (nom, prénom, numéro de téléphone, e-mail, …), les éléments indirects doivent être analysés avec bien plus de précautions. Par exemple, un pseudonyme, une caractéristique physique ou le recoupement de données qui n’ont strictement rien de personnel pourraient conduire à identifier des personnes physiques. Partant de ce principe, il est nécessaire de s’interroger quant aux données gérées afin de savoir si vous êtes en présence de données à caractère personnel.

Autre problème venant complexifier la chose : le besoin de la blockchain. Si elle est mise en place, c’est généralement pour répondre à un besoin de traçabilité des échanges, des interactions, des ventes, pour suivre la circulation de divers biens. Partant de là, ne pas avoir de données à caractère personnel peut s’avérer complexe.

La minimisation des données

Cette impossibilité de supprimer ces données vient s’opposer à un autre principe : celui de la minimisation des données. Le principe de la minimisation des données consiste à ne collecter, traiter et conserver que les données strictement nécessaires au traitement et à n’en donner l’accès qu’aux personnes légitimes à disposer de cette information (ont dit « ayant besoin d’en connaitre »). Dans le fonctionnement de la blockchain, il suffit de « télécharger un logiciel et le registre de la blockchain » et on dispose d’un accès aux informations et, en fonction du type de blockchain, à un accès total à ces informations. Estimer cette conformité à la minimisation des données pourrait donc s’avérer assez problématique.

L’exercice des droits

Enfin, toujours d’un point de vue RGPD, l’exercice de certains droits peut s’avérer compliqué à mettre en œuvre. Si l’obligation d’information et le droit d’accès, ainsi que celui à la portabilité semblent applicables, le droit à l’effacement, lui, est techniquement inapplicable, puisqu’il est impossible de procéder à l’effacement des données.

Le droit à la rectification semble applicable : en ajoutant une nouvelle information dans la blockchain, qui viendra invalider l’ancienne. L’ancienne ne sera pas supprimée de la blockchain, mais elle sera indiquée comme n’étant plus valide, ce qui permet de répondre, en soi, à la demande de rectification.    

Comme expliqué précédemment, l’objectif n’est pas de vous présenter une analyse détaillée du problème, mais un aperçu global des incompatibilités actuelles entre la blockchain et le RGPD. Cependant… a bien y réfléchir… il est possible de trouver une solution « en amont ». On en parle bientôt… dans le dernier article consacré au sujet !

Émission « Libre à vous ! » du 16 avril 2019 — Podcasts et références

La vingt‐et‐unième émission « Libre à vous ! » de l’April a été diffusée sur la radio Cause commune, mardi 16 avril 2019.

Nous avons commencé par la chronique de Marie‐Odile Morandi « Les transcriptions qui redonnent le goût de la lecture ». Nous avons enchaîné avec notre sujet principal qui portait sur le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (CHATONS) avec : Angie Gaudion de Framasoft, Denis Dordoigne d’INFINI et Christian Pierre Momon du Chapril. Nous avons poursuivi avec la chronique juridique « In code we trust » de Noémie Bergez.

La prochaine émission sera diffusée en direct sur la bande FM en Île‐de‐France (93,1 MHz) et sur le site Web de la radio mardi 23 avril 2019, de 15 h 30 à 17 h. Notre sujet principal portera sur les entreprises du logiciel libre.

La radio Cause Commune dispose d’une messagerie sur laquelle vous pouvez laisser des messages (annonces, rires, poèmes, coups de gueule, vœux…) destinés à passer à l’antenne sur la radio. Le numéro à appeler est le +33 1 88 32 54 33.

Télécharger ce contenu au format Epub

Commentaires : voir le flux atom ouvrir dans le navigateur

Fedora 30 devrait arriver entre le 30 avril et le 7 mai

Depuis le début du mois d'avril, des milliers de testeurs sont passés à l'édition bêta publique de la prochaine distribution Fedora, fondation de Red Hat Entreprise Linux. Voici ce qu'il faut retenir de cette prochaine grande révision..
En termes d'expérience utilisateur, la distribution GNU/Linux passe l'arme à GNOME 3.32 et les extensions de Nautilus migrent vers Python 3. Un nouvel environnement de bureau est d'ailleurs proposé : il s'agit de DeepinDE, mais il n'est pas le seul.
Ainsi, le fameux (...)

- Applications