Quantcast

Les articles du club

SELECTIONNER PAR:




Sondage exclusif : l’innovation doit être au cœur des politiques de développement économique, selon les agents publics

Développement économique : le grand chambardement Malgré un léger infléchissement prévu en 2018, la France a bel et bien retrouvé le chemin de la croissance et, avec elle, une attractivité et une confiance vivifiées. Cette amélioration de la conjoncture ouvre une période de forte activité pour les entreprises, que ce soit dans la modernisation de leurs organisations, la conquête de nouveaux marchés, l’innovation et l’investissement, dans un contexte d’automatisation des tâches et de circulati...

09/10/2018 | EXPERTISE

Développement économique : le grand chambardement Malgré un léger infléchissement prévu en 2018, la France a bel et bien retrouvé le chemin de la croissance et, avec elle, une attractivité et une confiance vivifiées. Cette amélioration de la conjoncture ouvre une période de forte activité pour les entreprises, que ce soit dans la modernisation de leurs organisations, la conquête de nouveaux marchés, l’innovation et l’investissement, dans un contexte d’automatisation des tâches et de circulation instantanée des technologies. Parallèlement, l’action publique vers les entreprises est à la fois en transition et sous tension. La maîtrise de la dépense publique touche aussi le développement économique. La concentration des parties prenantes est en route, principalement vers les régions et les EPCI. De nouveaux opérateurs nationaux s’affirment (comme BPIFrance ou la Banque des territoires promue par la Caisse des dépôts) pendant que se réduit le rôle des organisations consulaires, des départements et de leurs satellites locaux. Ce sondage pour l’Observatoire des politiques publiques renvoie l’image d’un écosystème à la recherche d’une nouvelle façon de faire du développement économique. Le jugement porté sur l’efficacité de l’État et des acteurs locaux est mitigé mais surtout… interrogatif. La question des moyens budgétaires, souvent au cœur des débats, n’est qu’en troisième position des obstacles et les répondants semblent attendre une nouvelle manière de piloter et d’exécuter l’action économique. Ils ne remettent pas tant en cause la compétence des agents ni des politiques que la multiplicité des intervenants et, notons-le, l’insuffisance du soutien à l’innovation. Pour être plus efficaces, tous les acteurs s’interrogent légitimement sur les modalités d’intervention de proximité : regroupement de structures issues des premiers temps de la décentralisation, réforme des aides économiques aux entreprises, développement de marques territoriales communes, réduction de la traditionnelle approche sectorielle pour mieux embrasser les grandes transitions mondiales. Qu’attendent de plus les entreprises au quotidien ? D’abord, de l’agilité et de la simplicité, car les dirigeants des entreprises reconnaîtront d’autant plus l’action économique qu’ils auront face à eux des interlocuteurs ensembliers et réactifs plutôt qu’une myriade d’intervenants. Et des acteurs publics qui jouent leur rôle – accompagner les investissements de long terme, préparer les territoires au besoin de nouvelles compétences, mettre en place des infrastructures modernes et compétitives. L’aménagement offre l’exemple de cette nouvelle exigence, à l’heure où l’économie du partage s’impose pour un usage plus hybride, ouvert et éphémère. Les mutations du monde économique et la raréfaction des ressources publiques génèrent aussi une nouvelle forme de relation public-privé, qui puisse agir en temps réel, réinventer l’offre de services, s’adapter au mieux à la compétition entre territoires. Selon une récente enquête du CNER, la proportion de présidents d'agences de développement issus du monde de l'entreprise est passée de 17 à 30 % entre 2012 et 2018. Signe que les temps changent, avec un besoin de priorités plus resserrées, plus opérationnelles, au retour sur investissement plus tracé. La transformation de l’action économique n’est peut-être nulle part aussi impérative que dans le financement des projets, dont le mot d’ordre est désormais “effet de levier”. Quels que soient les domaines d’accompagnement, les projets ne peuvent plus compter pour une part importante sur les moyens financiers de l’État et des collectivités. L’expérimentation menée dans certaines régions montre que celles-ci doivent considérablement accentuer leurs efforts dans la recherche de fonds privés, voire de financements européens. Bientôt, le succès d’une politique de développement économique se mesurera à l’aune de sa capacité à réaliser davantage de projets qualitatifs pour un même montant d’investissement public. Enfin, la course à l’innovation n’est plus simplement l’affaire des entreprises, mais aussi celle de l’acteur public : les collectivités, l’État et leurs opérateurs sont de plus en plus amenés à concevoir, financer, produire et communiquer différemment. Par exemple, les réseaux sociaux sont devenus un moyen de contact incontournable et leur taux d’utilisation par l’acteur public se rapproche de celui des entreprises (87 %). Efficacité, innovation, différenciation pour fabriquer de la croissance, des projets, de l’emploi… Les attentes des acteurs économiques rejoignent celles des citoyens et des acteurs publics. Ce sont les exigences d’un développement assumé et partagé, dans un monde qui change. Un monde où les mutations économiques, sociétales et technologiques s’accélèrent et où les transformations qu’elles entraînent nécessitent plus que jamais une action publique rénovée. À cette condition, la France et ses territoires ont toutes les cartes en main pour confirmer le nouvel élan du pays et accompagner sa transformation économique. Marc Lhermitte, associé EY, responsable du secteur public



Priorités, attractivité, compétences… Regards croisés sur la fonction financière publique

3ème baromètre des acteurs financiers publics

26/09/2018 | EXPERTISE

La fonction financière est plus que jamais au cœur de la démarche de transformation du service public. Dans un contexte marqué par la révolution numérique, les résultats de notre troisième baromètre sur la transformation de la fonction financière, une enquête nationale Acteurs publics Études et Deloitte réalisée cette année par l’Ifop, apportent un regard exclusif sur cette fonction stratégique. Innovation de taille : le périmètre de l’étude a été élargi cette année aux différents « clients » internes de la fonction finance, afin de disposer de regards croisés.   Numérique et efficience de la fonction Si les préoccupations des acteurs financiers en 2018 sont à peu près comparables à celles de 2017, l’efficience de la fonction et la transformation numérique sont considérées comme deux défis majeurs, au regard du degré d’importance relevé. Les acteurs financiers et les autres métiers sont d’accord sur ces deux priorités. Parmi les leviers pour renforcer l’efficience, figurent, sans surprise, la digitalisation (placée en tête des citations par les acteurs financiers) et l’optimisation des processus (placée en tête par les acteurs non financiers). Globalement, la qualité de service fournie est jugée satisfaisante ou très satisfaisante par les acteurs financiers eux-mêmes (76 %) et, dans une moindre mesure, par les « clients » internes (63 %).   L’un des principaux enseignements du baromètre 2018 concerne le volet des ressources humaines. La politique de l’emploi et de la formation doit être au cœur de la modernisation de la fonction finance. Le niveau d’adéquation des compétences et des profils est jugé à peine satisfaisant par les acteurs financiers eux-mêmes (« satisfaisant » pour 51 %, « très satisfaisant » pour 4 %). Si les compétences ­techniques arrivent en tête des citations (69 %), les compétences dites comportementales (gestion de projet/conduite du changement ; mangement d’équipe) sont jugées de plus en plus nécessaires.   Développement des compétences Plus largement, le développement des compétences est considéré comme prioritaire par les acteurs financiers publics pour améliorer l’attractivité de la fonction finance, devant la rémunération et la fidélisation des talents. L’attractivité de la fonction finance est diversement jugée selon que l’on exerce ou pas cette fonction au sein des administrations. Faiblement ou très faiblement attractive, affirment les deux tiers des acteurs financiers, tandis que l’image de la fonction est bonne ou très bonne (total 62 %) chez les non-financiers. Un paradoxe qui doit inciter les acteurs financiers à valoriser davantage en interne leur filière et à devenir de véritables acteurs de la décision stratégique.    A. P. méthodologie L’enquête a été menée en ligne par l’Ifop auprès de 446 acteurs financiers et métiers, du 24 avril au 18 mai 2018. 226 interviewés relèvent de la fonction « finance », 220 appartiennent à d’autres fonctions. Profil des répondants : administrations centrales et services déconcentrés (50 % pour les répondants appartenant à la fonction finance, 41 % pour les répondants des fonctions métiers et support), établissements publics (24 %/21 %), collectivités territoriales (18 %/15 %), organismes de droit privé exerçant une activité de droit public (4 %/6 %), autres (4 %/17 %).



Pour une politique publique de cyber-résilience face à une IA cybermalveillante

Les experts parlent de plus en plus d’intelligence artificielle (IA) appliquée à la cybersécurité, avec le développement d’outils détectant en temps réel les attaques informatiques, repérant les comportements d’utilisateurs suspects ou corrigeant les vulnérabilités des systèmes d’information. Mais on parle encore peu d’une utilisation de l’IA à des fins d’agression informatique… alors que son potentiel d’attaque informatique massive est très important, avec des conséquences probablement spectaculaires.

10/09/2018 | EXPERTISE

A ce jour, certaines actions offensives sont difficiles à mener automatiquement, ce qui limite l’ampleur des attaques informatiques : • trouver les vulnérabilités des logiciels en service, au-delà des outils automatisés qui identifient les vulnérabilités les plus simples ; • détecter les mauvais paramétrages et vulnérabilités des machines informatiques, au-delà des scans automatiques sur internet qui ne peuvent accéder aux machines internes aux entreprises ; • développer des outils d’attaque sophistiqués et indétectables, au-delà des simples virus générés automatiquement ; • exploiter des dispositifs d’attaque complexes, notamment des botnets évolutifs (i.e. réseau de milliers ou millions de machines contrôlées par un attaquant), au-delà d’une simple supervision du botnet assurée par des serveurs clandestins de control & command.   Il se trouve que l’IA est très bien adaptée pour trouver des vulnérabilités dans les machines et les logiciels, pour créer et exploiter des outils d’attaque sophistiqués. Les experts en cybersécurité commencent à l’utiliser à cette fin (cf. encadrés), et ce n’est qu’une question de temps avant que les attaquants les plus déterminés fassent de même à grande échelle. L’IA est aussi capable de mener des manœuvres de « social engineering » à grande échelle, trompant les hommes pour leur arracher de l’information (mots de passe…) ou affaiblir leurs réflexes de sécurité. Nous ne sommes pas là dans un scenario futuriste, mettant en scène une IA « forte » voulant nuire à l’humanité et prendre le contrôle de notre environnement, mais dans une simple adaptation à des fins malveillantes de technologies existantes.   Les quelques digues identifiées ci-dessus limitant la prolifération des attaques informatiques vont tomber avec l’appropriation de l’IA par les pirates, qui pourront ainsi massifier fortement leurs capacités de nuisance. Mais ce n’est que la partie émergée de l’iceberg… en fait, le problème est bien plus grave qu’une simple perspective d’industrialisation des attaques !   Une IA cybermalveillante sera en effet capable de prendre le contrôle de nombreuses machines informatiques – c’est l’objectif de tout pirate informatique. Mais surtout… elle développera son arsenal en adoptant de nouvelles techniques d’attaques, elle se dupliquera de plus en plus vite sur les réseaux au fur et à mesure qu’elle prendra le contrôle de nouvelles machines. Elle deviendra rapidement autonome, indépendante de ses concepteurs.   Contrairement à un pirate humain, elle se déploiera de manière automatisée, bien plus rapidement. Contrairement à un simple virus ou ver informatique, elle sera capable de varier les techniques d’attaque afin de diversifier ses cibles. Contrairement à un botnet, elle pourra multiplier les centres de control & command pour accélérer son déploiement et accroître sa robustesse. Contrairement aux kits d’attaques existants, elle trouvera par elle-même de nouvelles vulnérabilités à exploiter.   Je suis convaincu qu’une telle IA sera prochainement créée et lâchée sur le net, à des fins crapuleuses ou stratégiques, ou plus probablement terroristes ou idéologiques. Après une courte période d’apprentissage, elle se répandra de manière autonome et infectera tous les systèmes connectés ayant une quelconque vulnérabilité… c’est-à-dire l’immense majorité des milliards de machines connectées directement ou indirectement à internet, sans doute en quelques jours. Y sommes-nous préparés ? Lorsque l’attaque aura réellement commencé, il sera très difficile de l’entraver en raison de sa capacité de mutation et de prolifération exponentielle ; il y a bien des chances que l’IA cybermalveillante se répande sur le net bien plus vite que les défenseurs informatiques ne pourront la contenir. Sauf à risquer la panne informatique mondiale, la seule réponse possible sera alors la déconnexion immédiate de l’internet de la plupart des systèmes informatiques. Déconnexion qui pourra être assez durable, car les administrateurs informatiques ne reconnecteront pas les machines à l’internet sans s’être assurés d’un bon niveau de sécurité.   Il n’y a pas de parade magique possible, cette attaque massive se produira à court ou moyen terme et aura les effets indiqués ci-dessus. Pour autant, on peut s’y préparer afin d’en réduire la propagation et l’impact. Qu’elle soit menée par une intelligence humaine ou artificielle, une attaque informatique requiert en effet au moins une vulnérabilité pour se propager sur sa cible. Il convient donc de mettre en place une pratique de tolérance zéro en matière de vulnérabilité informatique des machines connectées à l’internet.   Adopter une politique de tolérance zéro en matière de vulnérabilité informatique n’est pas chose aisée, nous en sommes très loin. Non seulement faut-il que les entreprises et administrations l’organisent, au prix d’efforts importants, mais encore faut-il le faire respecter pour toutes les machines en ligne, y compris celles qui n’ont pas d’administrateur pour s’en occuper (PME, particuliers…). De ce fait, il s’agirait d’une politique publique de cyber-résilience qui n’existe pas aujourd’hui : tout le monde peut connecter à l’internet une machine vulnérable sans que quiconque objecte ou même s’en aperçoive. Le risque de compromission est principalement une externalité, qui pèse sur la société davantage que sur l’utilisateur, sans que celui-ci ait d’incitation à le pallier. La situation ressemble à la circulation routière à la fin du 19ème siècle, avant que soit instituée l’obligation du permis de conduire et d’homologation des véhicules : tout le monde pouvait conduire sur le domaine public et mettre impunément la population en danger ; tout véhicule pouvait être mis en circulation et librement modifié, aussi dangereux soit-il pour les passagers et les autres usagers. N’en doutons pas, réduire drastiquement la vulnérabilité des machines connectées à l’internet sera beaucoup plus compliqué que réglementer les routes, ne serait-ce qu’en raison de la difficulté du contrôle. Vérifier qu’un ordinateur n’est pas (ou peu) vulnérable est infiniment plus complexe et délicat que vérifier le permis d’un automobiliste ou la carte grise d’un véhicule ! Une politique publique de cyber-résilience mettrait à contribution de nombreux acteurs : grandes entreprises et administrations bien sûr, qui l’appliqueront en leur sein, mais aussi opérateurs de communication électronique qui vérifieront la résilience des machines connectées à l’internet par leur intermédiaire. De nombreux organismes de formation, à commencer par l’école publique, devront apprendre à la population à mieux sécuriser ses machines afin de les mettre en ligne sans risque pour la société. Et par ailleurs les industriels et éditeurs devront déployer, bien davantage qu’aujourd’hui, des dispositifs de mise à jour automatique des logiciels et des machines. Ils devront être tenus juridiquement responsables des vulnérabilités présentes et futures des machines et logiciels qu’ils vendent. Au-delà des ordinateurs, il faudra étendre ces règles à l’ensemble des systèmes et produits connectés, qui contiennent tous des machines informatiques souvent très vulnérables aux attaques.  L’intelligence artificielle, au service des défenseurs, pourra d’ailleurs certainement nous aider dans cette entreprise colossale. En détectant les vulnérabilités à corriger sur les réseaux par exemple. Mais aussi en repérant les machines déjà compromises, voire à terme en traquant les IA cybermalveillantes sur internet (cf. en encadré le « AI Fight Club » lancé en 2017 par Google Brain). Encore faudra-t-il que la loi le permette, donc que l’Etat et le législateur s’y préparent. Avant qu’une attaque massive menée par une IA cybermalveillante autonome mette à genoux l’internet, des attaques d’ampleur moindre se déploieront, soit qu’elles ne visent qu’une portion du parc informatiques (les machines sous Android, par exemple), soit qu’elles ne ciblent qu’un nombre restreint de vulnérabilités, soit qu’elles n’opèrent que par des modes d’attaques limités. Puissent ces futurs coups de semonce nous éclairer et inciter nos dirigeants à adopter une vraie politique publique de cyber-résilience ! Yves Le Floch yves.le-floch@sogeti.com L’auteur : après une carrière d’ingénieur de l’armement au sein des ministères de la Défense et des Affaires étrangères, Yves Le Floch a occupé pendant six ans le poste de conseiller, pour la sécurité des systèmes d’information et le renseignement technique, du secrétaire général de la défense et de la sécurité nationale. Exerçant toujours dans le domaine de la cybersécurité, il est maintenant vice-président au sein de la société Sogeti (groupe Capgemini).    



Au secours, nous sommes tous des Data Hoarders !

Par Daniel De Prezzo, Head of Technology Southern Europe chez Veritas

03/09/2018 | EXPERTISE

« Je conserve car ça peut servir un jour ». A l’ère du Big Data, les conservateurs ne sont pas toujours ceux que l’on croit : les Millennials stockent chaque année près de deux fois plus de données qu’un Baby Boomer et 30% de plus qu’un membre de la Génération X (né dans les années 60 et 70). Constamment connectés à une variété d’applications sur leur smartphone, tablette ou ordinateur, ils enregistrent et stockent - parfois même sans s’en rendre compte - un grand nombre de données diverses : textos, identifiants, achats en ligne, médias consultés, etc. La capacité de stockage ne semble jamais atteinte, et pourtant… Cette prolifération exponentielle va inexorablement soulever la question de la gouvernance des données à grande échelle, sous menace d’une saturation mondiale. Il revient aux pouvoirs publics d’adopter des solutions de gestion efficaces pour éviter que la situation ne leur échappe. En quoi consiste la Gouvernance des données ? On ne garde pas une vieille paire de chaussures trouée, à moins qu’elle n’ait acquis une valeur sentimentale. De même, on ne garde pas un vieux fichier Word inutilisé depuis des années. Il ne suffit pas de créer des données. Il faut également réfléchir à ce qu’elles vont devenir, à l’ensemble de leur cycle de vie. L’époque où l’on pensait qu’il valait mieux tout garder – plutôt que pas assez – est révolue. Les différentes réglementations européennes sont là pour nous le rappeler : le RGDP notamment, mais aussi la Loi Numérique sur la transmission des données des défunts, par exemple. Une bonne gouvernance des données consiste essentiellement à : Distinguer l’utile de l’inutile Distinguer ce qui a de la valeur de ce qui en a moins Mesurer le degré de confidentialité Classer ces données Attribuer des coûts (économiques, écologiques…) au stockage des données Protéger ces données Tirer de la valeur de ces données  Savoir supprimer les données obsolètes Vouloir tout conserver à tout prix est un comportement nocif à long terme. Pour autant, la prise de risque indispensable qui consiste à faire le ménage doit être encadrée. D’où la raison d’être d’une Gouvernance. Comment mettre en place cette Gouvernance ? Chaque donnée a une durée de vie. Certes, nous voudrions conserver certaines photos de nos proches pour toujours et les passer de générations de générations… mais un CV devient obsolète au bout de 2 ans, une facture doit être conservée 7 ans, des données médicales peuvent être utiles jusqu’à 30 ans après la mort. Gérer la durée de vie d’une donnée, c’est comprendre dès le début pourquoi la donnée a été créée : quel est son rôle ? A partir de cette connaissance, il est possible de mettre en place des règles de classement, afin d’éviter le stockage inutile. Des solutions informatiques d’automatisation existent pour assigner une durée de rétention à une donnée. Elles assurent également la confidentialité et la protection des données, à la fois en interne et à l’externe.   Les solutions de gouvernance existantes sont encore insuffisamment mises en œuvre. Aux pouvoirs publics de montrer l’exemple, c’est à dire gérer les données des citoyens au meilleur coût, de façon maîtrisée et durable, pour éviter de grossir le stockage mondial ad vitam eternam !


Numérique et enseignement

L’école numérique n’est plus uniquement une promesse mais déjà une réalité. Les nouvelles technologies comme les outils collaboratifs, l’usage des réseaux sociaux et l’intelligence artificielle (IA) viennent au service de l’apprentissage et des parcours pédagogiques personnalisés pour les faire évoluer, les améliorer quotidiennement et ce pour tous les élèves, y compris ceux en situation de handicap.

23/07/2018 | EXPERTISE

Faciliter l’apprentissage, encourager la collaboration entre élèves et mieux gérer le cycle de vie de l’étudiant sont les missions de Microsoft depuis plus de trente ans. Retrouvez dans ce livre blanc les différentes facettes de la transformation dans l’éducation. La transformation pour tous La transformation numérique est déjà amorcée dans l’éducation mais ce n’est pas qu’un progrès technique, c’est aussi un projet de société favorisant l’inclusion de tous et la démocratisation des opportunités offertes par la technologie. A l’école, cela se traduit par la mise à disposition des élèves et des enseignants d’outils innovants pour favoriser la réussite scolaire et par l’inclusion de tous les élèves, y compris ceux en situation de handicap. Lorsque l’on sait que 6 millions de personnes en France souffrent de troubles d’apprentissage, mais qui sont souvent détectés trop tard, il est important de pouvoir proposer les outils appropriés en classe. Par exemple, les nouveaux outils offrent désormais aux élèves un accès aux contenus éducatifs depuis leur domicile pour suivre les cours en direct avec une webcam… Ces nouveaux usages permettent de proposer une continuité dans l’enseignement notamment en cas de graves intempéries ou de maladie d’un élève.  Préparer aux métiers de demain et prévenir le décrochage scolaire La technologie doit profiter à tous et préparer les élèves pour le futur. Un avenir encore à imaginer alors que 65% des élèves exerceront un emploi qui n’existe pas encore aujourd’hui. Nous mesurons un peu plus chaque jour l’importance qu’auront demain certaines compétences clés sur le marché de l’emploi : collaboration, autonomie, créativité…, autant de savoir-faire et de savoir-être essentiels qui s’apprennent dès le plus jeune âge. L’intelligence artificielle ouvre un nouveau champ de possibilités. Dans les écoles, elle peut contribuer à détecter le décrochage scolaire, proposer des parcours d’apprentissage personnalisés et adaptés à chacun. Elle offre aussi la possibilité d’automatiser les activités de base ou encore faciliter les procédures d’inscription de rentrée afin de faire gagner du temps aux enseignants et directeurs d’écoles, temps permettant d’apporter plus d’attention aux élèves. La sécurité, la dimension éthique de l’IA (au travers de notre collectif de réflexion et d’action, “Impact IA“, par exemple) et l’exploitation des données sont des enjeux vitaux. Engagés sur ces sujets, Microsoft et tout son écosystème ont pour vocation de faire du numérique un vecteur de transformation durable et positive, pour tous. Améliorer le lieu de travail des élèves Le numérique, principalement via l’IA et l’IOT (Internet Of Things), doit aussi permettre une meilleure organisation des bâtiments scolaires pour plus de sécurité, de bien-être et de respect de l’environnement. Les espaces deviennent modulables pour plus de collaboration, ou bien plus calmes pour plus de concentration, plus connectés pour adapter au mieux les dépenses énergétiques du bâtiment en détectant les lieux avec beaucoup de passage et à l’inverse les espaces vides… Bref, le bâtiment devient connecté. Ces quelques exemples font partie des grands enjeux de la transformation de l’éducation pour les années à venir. Il est important pour nous de partager nos découvertes et les réussites de chacun, c’est pourquoi nous avons rédigé ce le livre blanc dédié à la transformation numérique dans l’enseignement. Découvrez le livre blanc de microsoft dédié à la transformation numérique dans l’enseignement. Laurent Schlosser, directeur secteur public – Microsoft france


La gestion des données au cœur de la réussite des Jeux Olympiques 2024

Par Daniel de Prezzo, Head of Technologies Southern Europe chez Veritas Technologies

12/07/2018 | EXPERTISE

En septembre dernier, après un siècle d’attente, Paris a été choisie pour accueillir les Jeux Olympiques en 2024. Pour la première fois, la capitale française entre dans le cercle des métropoles les plus attractives au monde. L’objectif de la ville est maintenant de faire place à la préparation des Jeux, et pour cette nouvelle édition, il ne s’agira pas uniquement de construire de nouveaux équipements et infrastructures : Paris a l’attention de se transformer en « smart city » en faisant concourir les nouvelles technologies comme l’IoT, l’Intelligence Artificielle ou encore le Big data pour pouvoir gérer les flux de citoyens, éviter la congestion pendant les Jeux, améliorer le confort urbain, connaître en temps réel la durée d’attente à l’entrée des activités et répondre aux défis énergétiques fixés lors de sa candidature.   Après l’appel à l’innovation lancé en 2016, de nombreuses start-up ont proposé des solutions pour répondre au mieux aux défis lancés par la ville. Une jeune pousse comme Placemeter par exemple, a dévoilé une technologie de vision par ordinateur qui permet de compter et différencier les voitures, motos, vélos et piétons et d’anticiper les flux de personnes. Une collaboration entre la ville et les grands groupes est également étudiée de près, notamment pour réduire et maîtriser la consommation d’énergie. Dans Paris transformé en ville intelligente, le mobilier urbain comme les réverbères par exemple pourraient être alimentés par l’énergie solaire et connectés aux autres infrastructures intelligentes de la ville. Ces derniers pourraient atténuer leur lumière pour indiquer aux conducteurs les places de parking disponibles et éviter les embouteillages.   Gérer et stocker un volume de données multiplié par huit d’ici 2025 Si s’appuyer sur les nouvelles technologies pour atténuer les désagréments engendrés par la tenue des Jeux demeure un choix judicieux, il reste encore à régler la problématique de la gestion de données. Cette année, IDC a publié une étude révélant le volume des données attendues à l'échelle mondiale d'ici à 2025. Le résultat est étonnant : en moins de dix ans, le volume total de données à analyser sera multiplié par huit, pour atteindre 163 Zettaoctets (163 milliards de Teraoctets). L’année dernière, un sondage mené par Data Genomics, qui a analysé plus de 31 milliards de fichiers anonymes à travers le monde, révélait déjà que les référentiels de données à l’échelle des entreprises avaient augmenté d’environ 50% à l’année, en raison de la prolifération de nouvelles applications et des technologies comme l’Intelligence Artificielle et l’Internet des Objets (IoT). Et ce qui est saisissant dans ces révélations, ce n'est pas l’augmentation de la production de données à stocker, mais le rythme effréné de cette augmentation.   En effet, si les données continuent d’augmenter à ce rythme et que les entreprises ne trouvent pas un moyen de les stocker et de les gérer, ces dernières seront bientôt, dans le monde entier, confrontées à des dépenses de stockage de données s’élevant à des milliards de dollars. Pour remédier à cette problématique, les entreprises ont compris qu’elles devaient se tourner vers le cloud pour réduire la complexité et améliorer l’agilité. Mais l’objectif de cette adoption est également de réduire les coûts associés au stockage des volumes conséquents, et des données secondaires sur le long terme, et dans plusieurs cloud. Dans ce cas de figure, les solutions de déduplication et de suppression des données en double constituent une alternative adéquate, car elles permettent de stocker leurs données dans le cloud à moindre coût et sans avoir à opérer de changement sur le réseau. De même, les sauvegardes sont exécutées plus rapidement et des économies peuvent donc être réalisées en migrant les données vers les cloud hybrides, privés et publics.   Partager les données publiques et personnelles de manière sécurisée Un autre facteur clé pour assurer la pérennité de la transformation de Paris en ville intelligente réside également dans l’ouverture et le partage des données. Car ce sera sur la base des données que les actions et les décisions stratégiques seront prises. L’OpenData, qui désigne les données auxquelles tout le monde peut accéder, est primordial pour le bon fonctionnement d’une ville intelligente. Dubaï par exemple, est l’une des premières villes à avoir adopté cette initiative ambitieuse en 2015. Aujourd’hui, les secteurs public, privé et le gouvernement partagent les données des citoyens de la ville. L’objectif à terme, n’est pas d’emmagasiner le plus de données possibles mais de créer de la valeur, des opportunités et des expériences améliorées pour la population. En France, si les grands groupes, les start-up, les collectivités ou encore le gouvernement choisissent de partager les données pour créer de la valeur et des services pour les citoyens, il est impératif de les équiper d’une technologie leur permettant de protéger et de visualiser les données dont ils disposent, aussi bien sur site que dans le cloud. En effet, une meilleure visibilité leur permettrait de définir plus facilement les données nécessaires à conserver et à migrer, supprimer celles qui ne sont pas essentielles, mais aussi de récupérer rapidement les données critiques à un instant précis. Cela permettrait non seulement aux entreprises et au gouvernement d’assurer leur mise en conformité avec les réglementations autour des données (comme GDPR par exemple, qui entrera en vigueur le 25 mai prochain), mais surtout de constituer une structure sécurisée essentielle pour gagner la confiance des citoyens.  Les villes intelligentes portent en elles un écosystème complexe. Pour réussir sa transformation, Paris devra d’abord véhiculer une vision unique de la gestion et de la sécurisation des données aux différents acteurs. Mettre en place des solutions adéquates sera ensuite la priorité afin de se prémunir contre les cyberattaques ou tentatives d’usurpation d’identité et de matériel. 


Thomas Cazenave - Au cœur de la transformation publique

Délégué interministériel à la transformation publique, Thomas Cazenave a décrypté les enjeux posés par la réforme de l’État lancée depuis le début du quinquennat.

04/07/2018 | EXPERTISE

Au cœur de la machine. Les mains plongées dans la réforme de l’État depuis sa nomination en novembre dernier, Thomas Cazenave, délégué interministériel à la transformation publique, a détaillé, lors du petit déjeuner du Club des acteurs de la Performance publique du 31 mai, les enjeux posés par le programme Action publique 2022. Devant les membres du Club, il a surtout été question de méthode, de manière de faire. Pas forcément des plus lisibles de l’extérieur, celle d’Emmanuel Macron a voulu tirer les leçons des années Sarkozy et Hollande, en effectuant une revue des missions de la puissance publique soigneusement évitée sous les deux quinquennats précédents. Mais Thomas Cazenave a prévenu : la bataille la plus fondamentale sera celle de la mise en mouvement des administrations. Pour optimiser la recherche de résultats, l’équipe Macron tente aussi d’innover en construisant une réforme bâtie autour de la déconcentration des décisions, avec une mise en responsabilité des managers publics assise sur la confiance. Un petit vent de liberté pourrait souffler, même si cette intention reste à confirmer. Thomas Cazenave a insisté sur l’importance des différents chantiers lancés depuis quelques mois : la rénovation du cadre budgétaire et comptable, le numérique, l’évaluation des résultats, etc. Sans parler les ressources humaines, à n’en pas douter le chantier le plus emblématique de ce début de quinquennat.