Machine Learning et Intelligence Artificielle : 3 tendances à surveiller
La datascience évolue rapidement, avec un nombre incalculable de nouvelles applications chaque année. Les récents exemples illustrent la rationalisation du processus de la science des données en éliminant les obstacles qui ralentissent l'élaboration des modèles, tels que les données incomplètes ou obsolètes.
Des innovations comme l'Internet des objets (IoT) et les données non structurées produisent de façon exponentielle plus de données, ce qui permet aux organisations de découvrir des perspectives inattendues à partir de sources nouvelles et de manière plus encore plus fine.
Toutefois, ces sources de données croissantes présentent un risque accru de produire des modèles qui utilisent des données incorrectes et produisent donc des prévisions inexactes. Les risques liés à de mauvaises données vont au-delà de mauvaises prévisions.
En fait, IBM estime que de mauvaises données coûtent à l'économie américaine environ 3,1 milliards de dollars chaque année.
Heureusement, le machine learning est là pour faciliter la détection des valeurs aberrantes, en utilisant un algorithme pour identifier les observations qui sont extrêmement différentes du reste des données, permettant aux scientifiques de déterminer si ces observations extrêmes sont des valeurs réelles ou ont été incluses de façon erronée.
La mise en oeuvre de la détection des valeurs aberrantes sur un ensemble de données avant de faire des prédictions peut permettre d'économiser du temps et de l'argent et de s'assurer que les données du modèle sont exemptes de données incorrectes.
Au fur et à mesure que de plus en plus d'objets deviennent « intelligents » et que les sources de données continuent de s'étendre, il faut s'attendre à une détection plus fréquente des valeurs aberrantes.
Le traitement du langage naturel, un sous-domaine de l'intelligence artificielle qui permet aux ordinateurs de traiter et d'agir sur le langage humain et les requêtes en langage humain, a connu une croissance explosive au cours de la dernière année, principalement grâce aux chatbots et aux assistants vocaux comme Alexa ou Google Home. Mais le langage naturel apparaît dans des endroits nouveaux et inattendus.
Par exemple, Google interprète maintenant les recherches plutôt que de simplement rechercher les mots eux-mêmes, et les constructeurs automobiles installent des assistants d'IA dans leurs véhicules pour la reconnaissance faciale et même des recommandations musicales. Ces fonctions permettent aux utilisateurs d'obtenir rapidement plus d'informations et de contrôler leur environnement avec des commandes simples et avec moins de clics.
Les datascientists et leurs compétences sont rares, et la création de modèles est un processus fastidieux qui implique un processus de nettoyage des données, de sélection des modèles et de nombreuses séries de formation et de tests, ce qui ralentit le rythme auquel les modèles ML peuvent être appliqués.
Pour lutter contre ce problème, l'intelligence artificielle est utilisée à la fois pour créer et régler les modèles, ce qui accélère considérablement la construction des modèles et permet aux analystes qui manquent de compétences en codage de construire leurs propres modèles.
En 2017, Google a publié Cloud Auto ML, une suite de produits machine learningbasée sur le Cloud qui automatise la construction de modèles ML, avec des modules supplémentaires pour le traitement du langage naturel et la détection des images.
C'est une période prometteuse pour les entreprises qui tirent parti du machinelearning et de l'intelligence artificielle et de ses capacités d'innovation et d'expansion.
Sur le même thème
Voir tous les articles Open source