Pour gérer vos consentements :

Amazon Web Services dévoile ses recettes pour l’Internet des Objets

Capteurs du taux d’engrais pour l’agriculture, multiples senseurs et capteurs dans les moteurs d’avion ou les trains, envois de mesures pour la consommation électrique, tags pour le suivi des colis en logistique, mesures de de la tension pour la santé… l’internet des objets (ou IoT pour Internet of Things) est partout, et va envahir progressivement notre vie quotidienne.
En début d’année, une étude du cabinet AB Research estimait le marché de l’intégration, du stockage et de l’analyse des données issues des objets connectés à 5,7 milliards de dollars pour 2015. Amazon Web Services met en avant tous les avantages des services Cloud pour se positionner fortement sur ce créneau.

Internet des objets. Mais quels objets ?

On classe parfois très rapidement tout objet un peu intelligent dans la catégorie Internet des Objets. AWS considère plusieurs caractéristiques pour ces nombreux objets appelés à émettre le plus souvent de petites informations, mais à des fréquences régulières totalisant au final des volumes importants.

Tout d’abord, les objets imposent de multiples contraintes comme la taille ou le format (comme les tags RFID), une autonomie énergétique (comme pour les boîtiers de péage autoroutier), ou encore «un juste équilibre entre performance et coûts,» ajoute Stephan Hadinger, responsable Solutions Architecture chez AWS. « Le moindre euro pour produire objet devient vite conséquent s’il s’agit d’en diffuser des millions.»

En effet, une des caractéristiques mises en avant par AWS pour ces objets de l’IoT (Internet of Things) tient aussi dans leur diffusion à des milliers ou millions d’exemplaires, et à leur possibilité de jouer un rôle critique sans intervention humaine pour leur gestion technique (système d’exploitation, etc.). Enfin, le support des utilisateurs de dizaines ou centaines de milliers d’objets n’est pas anodin, d’autant plus en cas de succès rapide.

« Certes, l’interface de l’objet et son packaging sont primordiaux,» affirme Stephan Hadinger. «Toutefois, tout se jouant à une grande ou très grande échelle, il faut s’assurer que le back-end puisse fournir les ressources informatiques suffisantes et élastiques pour supporter ces flux de données et assurer efficacement les traitements en découlant, à un tarif étudié.»
Pour l’aspect connexion toute connexion à un réseau est envisageable : internet, Bluetooth, WiFi…

On notera que cette définition écarte les smartphones ou tablettes, eux-mêmes très dépendants d’une interaction humaine, entre autres.

Un scenario AWS pour l’Internet des Objets

De la force brute pour traiter tous ces flux

« Le back-end ne fait pas forcément la différence entre les acteurs, mais encore faut-il qu’il puisse assumer la charge : traitement des flux, stockage, analyse et corrélations éventuelles entre flux ou avec d’autres informations,» explique Pierre Gilot, Solutions Architect chez AWS. «Ce qui différencie plus encore les offres tiendra dans la capacité de traitement et de déploiement des algorithmes.»

Bref, à quoi bon investir fortement pour déployer des serveurs, de multiples équipements et des logiciels à maintenir, avec une prédictibilité difficile à établir, tandis que ces boîtes n’aideront pas l’entreprise à se différencier ? Pour pouvoir absorber les flux de façon linéaire et élastique (en ne facturant qu’à l’utilisation), Amazon Web Services met en avant divers scénarios combinant plusieurs de ses services.

Premier d’entre eux, le service cloud de streaming Kinesis reçoit et stocke en temps réel et en permanence des flux de données distribués, jusqu’à plusieurs téraoctets par heure à partir de centaines de milliers de sources. Le stockage Kinesis est plutôt à considérer comme un tampon de 24 heures permettant soit de réaliser des traitements un peu longs au fur et à mesure, mais surtout à pouvoir rejouer des scénarios avec les données conservées dans la journée. Pour un stockage traditionnel, Amazon S3 sera par exemple plus approprié.
Une fois les données collectées, Amazon Lambda peut intervenir pour appliquer des traitements sur les données reçues. Ce service de calcul cloud exécute du code ou du script en réponse à des événements, comme la réception d’une nouvelle information en streaming par exemple. « Le service assure lui-même le déploiement de ressources serveur (EC2) nécessaire, ainsi que la répartition de charge en parallèle, et autres aspects techniques, » rappelle Pierre Gilot. « Il est également possible de déployer une architecture Lambda permettant de réaliser plusieurs traitements en parallèle, éventuellement en interaction avec d’autres services cloud d’Amazon ou de partenaires

Enfin, le service cloud de base de données NoSQL Amazon DynamoDB peut servir à stocker les informations pour traitement. Cette base rapide et flexible affiche une latence constante de quelques millisecondes, quelle que soit l’échelle. Avec ce type de scénario, la facturation est totalement liée à l’usage (facturation à, l’événement ou à la taille du flux), à partir de quelques dollars par mois.

Pallier la diversité protocolaire ?

Ces technologies IoT encore jeunes souffrent encore du manque de standardisation dans les formats et les protocoles de communication. Ainsi, Kinesis ne reconnait que le protocole HTTP. « Une limite qui peut aisément être levé grâce à a l’installation d’un service EC2 avant Kinesis qui assure le rôle de passerelle traduisant le protocole de l’objet en HTTP,» rétorque Stephan Hadinger.

Cependant, cela impacte forcément les performances et ne simplifie pas le modèle. Évidemment, AWS ne souhaite pas non plus développer et maintenir des dizaines de protocoles plus ou moins exotiques. Pourquoi alors ne pas ouvrir ces aspects protocolaires à une communauté de développeurs Kinesis (en mode Open Source ou non). Une pratique qui a fait ses preuves et tend d‘ailleurs à se généraliser.

Parmi ses clients IoT, le pionnier du cloud computing compte –entre autres- le service de caméras de surveillance pour particulier via le Web DropCam (racheté par Nest, filiale Maison Connectée de Google, en juin dernier) absorbant plusieurs pétaoctets de données par mois. Philips Healthcare qui collecte plus de 15 Po de données et 390 millions de documents, ou encore la ville de Chicago pour son projet Array of Things (capteurs multiples dans la ville : pollution, bruit, circulation….).

A lire aussi :

AWS s’offre les compétences de migration des données d’Amiato

Internet des objets : le standard IoTivity émerge

Crédit Photo : Andrea Danti-Shutterstock

Recent Posts

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

11 heures ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

13 heures ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

15 heures ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

1 jour ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

2 jours ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

2 jours ago