Pas de catégorie

Tendances 2013

L’année qui s’achève aura été caractérisée par le développement de tendances déjà fortement ancrées comme l’inexorable montée en puissance des tablettes au détriment du PC. Des évènements inattendus se sont pourtant produits qui vont amener les entreprises comme les particuliers à revoir leurs pratiques : les révélations d’un ancien employé de la CIA n’en finissent pas de semer le trouble et de conduire chacun de nous à s’interroger sur une surveillance digitale tentaculaire. Revue des quelques temps forts de cette année 2013.

Le regain d’intérêt pour le cryptage

Le scandale des écoutes de la NSA révélé par Edward Snowden aura fait beaucoup pour populariser une technologie dont l’usage restait jusqu’ici assez confidentiel.

Devant les révélations qui se sont succédées ces dernières semaines expliquant comment les agents des services secrets américains écoutaient les transmissions entre datacenters de Google, Yahoo, Microsoft … il est devenu clair que la confidentialité des échanges ne pouvait être garantie sans que les utilisateurs s’emparent eux même de la question en encryptant leurs messages et/ou leur disque dur.

La cryptographie assure en effet un niveau de protection adéquat si tant qu’elle soit bien gérée. Des clés de taille importantes sont généralement suffisantes pour se protéger des écoutes de la NSA ou de n’importe quel organisme. Non pas qu’il ne soit pas possible de cracker une transmission SSL mais plutôt parce que l’effort à fournir n’en vaut pas la peine tant la masse d’informations non protégées est importante et donc plus simple et plus rentable à exploiter.

Après les ténors de l’Internet qui commencent à encrypter massivement leurs données, il est probable qu’un grand nombre d’entreprises, d’organismes gouvernementaux et de particuliers vont emboîter le pas. 2014 sera-t-elle l’année ou se banalisera l’usage du cryptage ?

Biométrie de masse

Mise à disposition du grand public via le dernier iPhone 5S, l’identification biométrique est sans doute également promise à un bel avenir.

Cette technologie a pour objet de remédier aux nombreux problèmes causés par l’utilisation de mots de passe.

De nombreux incidents ont émaillé cette année 2013 dans ce domaine, l’un des plus retentissants étant représenté par le vol de millions de mot de passe stockés sur les serveurs d’Adobe. Après analyse des mots de passe en question, il s’avérait que les deux mots de passe les plus utilisés étaient « 123456 » et « password ».

Le risque qui découle de la divulgation d’un mot de passe est d’autant plus important que nous avons tendance à réutiliser la même combinaison de caractères pour accéder à de nombreux sites. Si un hacker récupère une clé valide, la probabilité est grande que cette même clé puisse être réutilisée pour ouvrir de nombreuses portes et il est pratiquement certain que les escrocs du web usurperont notre identité autant de fois qu’il leur sera possible.

Une solution à cette problématique consiste dans l’authentification forte reposant sur au moins deux facteurs, l’un que l’on possède et l’autre que l’on connaît.

Un outil biométrique permet de vous authentifier et donc de sécuriser une authentification par mot de passe. TouchID intégré dans le dernier iPhone répond précisément à ce besoin.

Dans un même ordre d’idée, on peut souligner que la camera Kinect fournie avec la Xbox One permet de reconnaître automatiquement son propriétaire et ainsi de lui donner accès à son profil sans nécessité de se logger manuellement.

Windows 8.1 dispose d’une technologie similaire à celle de l’iPhone 5S.

Reste à attendre la diffusion de capteurs biométriques dans les appareils que nous utilisons quotidiennement. Si l’histoire récente est un bon guide, l’exemple d’Apple devrait être rapidement suivi par de nombreux autres constructeurs.

La démocratisation des tablettes

Au commencement était l’iPad.

Bien que d’excellente facture et continuellement renouvelé (à l’instar des iPad Air et IPad mini retina), l’iPad reste un objet pour happy few capables de débourser environ 800 € tous les ans pour se doter du dernier modèle. A ce prix, l’iPad est autant un objet fashion qu’un outil technologique.

Les alternatives se sont heureusement multipliées et les fragiles et limitées tablettes Android d’entrée de gamme ont progressivement laissé la place à des modèles de bien meilleure facture comme le Nexus 7, le Kindle Fire sans oublier les offres de Samsung ou de Dell.

L’arrivée de Windows 8.1 a également permis l’émergence d’une nouvelle gamme de mini tablettes à des prix accessibles au grand public.

En provenance de Dell, d’Acer, d’Asus, HP ou encore de Microsoft avec sa Surface 2, cette nouvelle génération de tablettes hybrides permet de continuer à utiliser les applications Windows « classiques » tout en bénéficiant du confort d’utilisation d’une tablette pour exécuter des applications en provenance du Windows Store. Certaines mini tablettes sont accessibles pour des prix bien inférieurs à la barre des 500 €.

Toutes les conditions sont réunies pour la démocratisation de l’usage des tablettes auprès du grand public mais aussi des professionnels qui pourront constater que la plupart de ces outils peuvent être utilisés pour jouer mais également pour travailler.

Un système et des applications constamment et automatiquement mis à jour

Initié par Google, avec son navigateur Chrome qui se met à jour automatiquement sans intervention de l’utilisateur, le mouvement a été suivi par Apple qui pousse les changements de son iOS sur tous les appareils (iPhone et iPad).

Même tendance observée chez Microsoft avec les mises à jour d’Office 365 qui se font automatiquement via la technologie « click to run ».

Editeurs comme utilisateurs ont beaucoup à gagner en simplicité et en sécurité de systèmes et d’applications qui se mettent à jour en permanence. Ce mécanisme permet d’enrichir continument les applications de nouvelles fonctionnalités dans une dynamique évolutive appréciée des utilisateurs. En cas de menaces liées à la sécurité, un « push » permettra rapidement de circonscrire la menace.

Reste qu’il faudra encore beaucoup de travail pour généraliser cette fonctionnalité en l’étendant aux possesseurs d’Android sans oublier les PC sous Windows dont les utilisateurs doivent encore trop souvent chercher les mises à jour de drivers ou de firmware.

Il faut également prendre en compte les réticences des entreprises qui rechignent à juste titre à laisser leurs équipements se mettre à jour automatiquement, les nouvelles versions déployées par les éditeurs créant parfois plus de problèmes qu’elles n’en résolvent.

L’arrivée des hybrides

L’interface tactile, plébiscitée par des centaines de millions d’utilisateurs de smartphones et de tablettes, était restée jusqu’ici curieusement absente des PC et notamment des portables.

Mis à part le PC de bureau, et encore, il devient de plus en plus étrange d’avoir à utiliser un écran qu’il n’est pas possible de toucher pour interagir avec le système.

Avec Windows 8, Microsoft a fait le pari de porter l’interface tactile sur le monde du PC.

Bien que la réception de cette nouvelle version de Windows n’ait pas été à la hauteur des espoirs de l’éditeur, la version 8.1 qui corrige un grand nombre de problèmes se retrouve dans un grand nombre de nouveaux portables dotés d’écrans tactiles, capables pour certains de se transformer en tablette en quelques instants.

Ces PC constituent une nouvelle catégorie de machines dites hybrides : deux en un (PC et tablette) dont le clavier peut se détacher ou dont le couvercle sert également de clavier comme dans le cas de Surface de Microsoft.

Difficile de dire à ce stade si les utilisateurs vont adopter les hybrides ou s’ils préfèreront le confort de PC portable traditionnels auxquels ils sont habitués.

Reste que Microsoft tout comme ses partenaires OEM se sont suffisamment engagés dans cette expérimentation pour qu’il soit difficile d’imaginer un retour en arrière et qui sait, peut-être Apple les rejoindra à terme si on en croit un brevet de ce type que le constructeur a déposé en 2010.

Le cloud s’installe lentement mais sûrement

Le cloud est ou sera votre nouveau serveur et peut être également votre nouveau bureau.

2013 est l’année où des acronymes tels que IaaS ou PaaS ont perdu leur statut de concept ésotérique réservé à une classe d’initiés pour devenir une réalité de plus en plus ancrée dans la pratique des entreprises.

Azure continue à se développer pour devenir la dernière activité en date de Microsoft à dépasser le cap du milliard de chiffre d’affaires.

Les entreprises peuvent faire tourner des serveurs Windows Server tout comme Linux dans Azure et les outils traditionnels de l’éditeur (Windows Server 2012, System Center 2012) sont de plus en plus liés au cloud.

En parallèle, Amazon vient de lancer un service appelé Amazon Workspaces présenté comme un DaaS (Desktop as a Service) ou service bureau.

Chaque machine s’exécutant dans le cloud AWS héberge une licence de Windows 7, avec ou sans Office, que les entreprises peuvent déployer plutôt que d’utiliser les solutions traditionnelles de VMware, Citrix ou IBM. Amazon donne accès à ces services depuis une variété de terminaux (Windows, Mac mais aussi iPad, Android ou Kindle).

Google ne compte pas rester en dehors du mouvement et vient d’annoncer Google Compute Engine, un service d’hébergement de services (traitement de données, stockage, services applicatifs) sur lesquels des développeurs peuvent s’appuyer pour lancer leurs propres applications et services.

Si une entreprise préfère déployer son cloud privé, il lui est possible de s’appuyer sur une alternative Open Source telle que Havana Openstack basé sur Red Hat et supportée notamment par Dell.

Bref, 2013 a vu se franchir un cap dans la transition en direction du Cloud et tout laisse à penser que nous n’en sommes encore qu’aux prémisses et que les années à venir verront le Cloud prendre une place de plus en plus importante dans l’entreprise.

Publicités

Discussion

Les commentaires sont fermés.

%d blogueurs aiment cette page :