Recherche

DeepSeek déjà disponible sur Azure Foundry AI et GitHub

Deux jours après le lancement de DeepSeek R1, Microsoft accueille le chatbot made in China sur sa plateforme Azure Foundry AI et met le code à disposition des développeurs sur GitHub.

Publié par Philippe Leroy le | Mis à jour le
Lecture
5 min
  • Imprimer
DeepSeek déjà disponible sur Azure Foundry AI et GitHub

Business first ! Deux jours après le lancement de DeepSeek R1 qui a pris le cours le monde de l'IA et fait tréssaillir OpenAI, dont il est le premier actionnaire, Microsoft accueille le chatbot made in China sur sa plateforme Azure Foundry AI et met le code à disposition des développeurs sur GitHub.

Une légitimation pour DeepSeek R1 qui va prendre sa place au sein des 1800 modèles proposés sur la plateforme. Les clients peuvent-ils l'utiliser l'API en toute sécurité ? Microsoft s'engage en affirmant que « DeepSeek R1 a fait l'objet d'évaluations rigoureuses de sécurité et de red teaming, notamment des évaluations automatisées du comportement du modèle et des examens de sécurité approfondis pour atténuer les risques potentiels.»

Dans la foulée, Microsoft annonce que certaines versions de DeepSeek R1 pourront bientôt être exécutéees localement sur les PC Copilot+

Comment interpréter cette décision autrement que comme une pression exercée sur OpenAI après la tension générée par le lancement de son projet Stargate avec Softbank et Oracle ? Le jour de l'accord, Microsoft avait publié un communiqué qui cinglait comme une mise au point sur son rôle dans la gesdtion de l'inventeur de ChatGPT : « L'API OpenAI est exclusive à Azure, fonctionne sur Azure et est également disponible via le service Azure OpenAI. Cet accord signifie que les clients bénéficient d'un accès aux principaux modèles sur les plateformes Microsoft et directement depuis OpenAI.»

Autre motif de surprise : l'intégration de DeepSeek R1 sur Azure Foundry AI intervient alors que Microsoft enquête pour savoir si la start-up chinoise a accédé aux données d'OpenAI en violation de ses conditions générales pour aider à créer son chatbot, selon Bloomberg. L'automne dernier, des chercheurs en sécurité de Microsoft ont observé des individus qu'ils pensent être liés à DeepSeek exfiltrant une grande quantité de données à l'aide de l'API d'OpenAI, explique le média américain.

Une information validée par OpenAI qui s'est dite consciente que « des indications selon lesquelles DeepSeek aurait pu distiller nos modèles de manière inappropriée et nous les examinons, et nous partagerons ces informations dès que nous en saurons plus » ajoutant qu'à l'avenir, il était « extrêmement important que nous travaillions en étroite collaboration avec le gouvernement américain pour mieux protéger les modèles les plus performants ».

Front anti DeepSeek

DeepSeek a reconnu s'appuyer sur des recherches accessibles au public provenant d'organisations européennes et américaines.

Les entreprises américaines d'IA elles-mêmes ont été largement accusées de violer les lois sur la propriété intellectuelle en utilisant prétendument de grandes quantités de données protégées par le droit d'auteur pour former leurs modèles commerciaux, OpenAI étant la cible de plusieurs poursuites judiciaires sur cette question.

Le responsable de l'intelligence artificielle de la Maison Blanche, David Sacks, a déclaré à Fox News qu'il existait des « preuves substantielles » que DeepSeek avait utilisé une technique appelée « distillation » pour créer un « modèle de copie ».

Dans le même temps, la marine américaine a interdit à son personnel d'utiliser DeepSeek pour des raisons de sécurité. Les autorités navales ont envoyé un courrier électronique au personnel les avertissant de ne pas utiliser l'application en raison de « problèmes potentiels de sécurité et d'éthique associés à l'origine et à l'utilisation du modèle », a rapporté CNBC.

Sur le même thème

Voir tous les articles Business

Livres Blancs #cloud

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page