Pour gérer vos consentements :

Amazon Web Services dévoile ses recettes pour l'Internet des Objets

Publié par La rédaction le | Mis à jour le

Le back-office et les traitements s'avèrent primordiaux pour l'internet des objets. Face aux très gros volumes de données, le cloud affiche ses atouts techniques et économiques. Et AWS compte bien y jouer un rôle majeur

Capteurs du taux d'engrais pour l'agriculture, multiples senseurs et capteurs dans les moteurs d'avion ou les trains, envois de mesures pour la consommation électrique, tags pour le suivi des colis en logistique, mesures de de la tension pour la santé. l'internet des objets (ou IoT pour Internet of Things) est partout, et va envahir progressivement notre vie quotidienne.
En début d'année, une étude du cabinet AB Research estimait le marché de l'intégration, du stockage et de l'analyse des données issues des objets connectés à 5,7 milliards de dollars pour 2015. Amazon Web Services met en avant tous les avantages des services Cloud pour se positionner fortement sur ce créneau.

Internet des objets. Mais quels objets ?

On classe parfois très rapidement tout objet un peu intelligent dans la catégorie Internet des Objets. AWS considère plusieurs caractéristiques pour ces nombreux objets appelés à émettre le plus souvent de petites informations, mais à des fréquences régulières totalisant au final des volumes importants.

Tout d'abord, les objets imposent de multiples contraintes comme la taille ou le format (comme les tags RFID), une autonomie énergétique (comme pour les boîtiers de péage autoroutier), ou encore «un juste équilibre entre performance et coûts,» ajoute Stephan Hadinger, responsable Solutions Architecture chez AWS. « Le moindre euro pour produire objet devient vite conséquent s'il s'agit d'en diffuser des millions.»

En effet, une des caractéristiques mises en avant par AWS pour ces objets de l'IoT (Internet of Things) tient aussi dans leur diffusion à des milliers ou millions d'exemplaires, et à leur possibilité de jouer un rôle critique sans intervention humaine pour leur gestion technique (système d'exploitation, etc.). Enfin, le support des utilisateurs de dizaines ou centaines de milliers d'objets n'est pas anodin, d'autant plus en cas de succès rapide.

« Certes, l'interface de l'objet et son packaging sont primordiaux,» affirme Stephan Hadinger. «Toutefois, tout se jouant à une grande ou très grande échelle, il faut s'assurer que le back-end puisse fournir les ressources informatiques suffisantes et élastiques pour supporter ces flux de données et assurer efficacement les traitements en découlant, à un tarif étudié.»
Pour l'aspect connexion toute connexion à un réseau est envisageable : internet, Bluetooth, WiFi.

On notera que cette définition écarte les smartphones ou tablettes, eux-mêmes très dépendants d'une interaction humaine, entre autres.

Un scenario AWS pour l'Internet des Objets

De la force brute pour traiter tous ces flux

« Le back-end ne fait pas forcément la différence entre les acteurs, mais encore faut-il qu'il puisse assumer la charge : traitement des flux, stockage, analyse et corrélations éventuelles entre flux ou avec d'autres informations,» explique Pierre Gilot, Solutions Architect chez AWS. «Ce qui différencie plus encore les offres tiendra dans la capacité de traitement et de déploiement des algorithmes.»

Bref, à quoi bon investir fortement pour déployer des serveurs, de multiples équipements et des logiciels à maintenir, avec une prédictibilité difficile à établir, tandis que ces boîtes n'aideront pas l'entreprise à se différencier ? Pour pouvoir absorber les flux de façon linéaire et élastique (en ne facturant qu'à l'utilisation), Amazon Web Services met en avant divers scénarios combinant plusieurs de ses services.

Premier d'entre eux, le service cloud de streaming Kinesis reçoit et stocke en temps réel et en permanence des flux de données distribués, jusqu'à plusieurs téraoctets par heure à partir de centaines de milliers de sources. Le stockage Kinesis est plutôt à considérer comme un tampon de 24 heures permettant soit de réaliser des traitements un peu longs au fur et à mesure, mais surtout à pouvoir rejouer des scénarios avec les données conservées dans la journée. Pour un stockage traditionnel, Amazon S3 sera par exemple plus approprié.
Une fois les données collectées, Amazon Lambda peut intervenir pour appliquer des traitements sur les données reçues. Ce service de calcul cloud exécute du code ou du script en réponse à des événements, comme la réception d'une nouvelle information en streaming par exemple. « Le service assure lui-même le déploiement de ressources serveur (EC2) nécessaire, ainsi que la répartition de charge en parallèle, et autres aspects techniques, » rappelle Pierre Gilot. « Il est également possible de déployer une architecture Lambda permettant de réaliser plusieurs traitements en parallèle, éventuellement en interaction avec d'autres services cloud d'Amazon ou de partenaires

Enfin, le service cloud de base de données NoSQL Amazon DynamoDB peut servir à stocker les informations pour traitement. Cette base rapide et flexible affiche une latence constante de quelques millisecondes, quelle que soit l'échelle. Avec ce type de scénario, la facturation est totalement liée à l'usage (facturation à, l'événement ou à la taille du flux), à partir de quelques dollars par mois.

Pallier la diversité protocolaire ?

Ces technologies IoT encore jeunes souffrent encore du manque de standardisation dans les formats et les protocoles de communication. Ainsi, Kinesis ne reconnait que le protocole HTTP. « Une limite qui peut aisément être levé grâce à a l'installation d'un service EC2 avant Kinesis qui assure le rôle de passerelle traduisant le protocole de l'objet en HTTP,» rétorque Stephan Hadinger.

Cependant, cela impacte forcément les performances et ne simplifie pas le modèle. Évidemment, AWS ne souhaite pas non plus développer et maintenir des dizaines de protocoles plus ou moins exotiques. Pourquoi alors ne pas ouvrir ces aspects protocolaires à une communauté de développeurs Kinesis (en mode Open Source ou non). Une pratique qui a fait ses preuves et tend d'ailleurs à se généraliser.

Parmi ses clients IoT, le pionnier du cloud computing compte -entre autres- le service de caméras de surveillance pour particulier via le Web DropCam (racheté par Nest, filiale Maison Connectée de Google, en juin dernier) absorbant plusieurs pétaoctets de données par mois. Philips Healthcare qui collecte plus de 15 Po de données et 390 millions de documents, ou encore la ville de Chicago pour son projet Array of Things (capteurs multiples dans la ville : pollution, bruit, circulation..).

A lire aussi :

AWS s'offre les compétences de migration des données d'Amiato

Internet des objets : le standard IoTivity émerge

Crédit Photo : Andrea Danti-Shutterstock

La rédaction vous recommande