Qu’est-ce que Qwen2.5-max, comment ça marche et les limites

Alexis Tremblay
Alexis Tremblay

Le géant chinois du commerce Alibaba a annoncé au cours des dernières heures de la sortie de Qwen2.5-maxson nouveau LLM (Modèle grand langage) totalement open source qui pourrait dépasser Deeppsink R-1le modèle d’IA qui a récemment ébranlé le marché. Le lancement de Qwen2.5-Max a eu lieu dans un moment stratégique, non seulement parce qu’il a été fait au milieu du nouvel an chinois, mais aussi (et surtout) parce que l’annonce suit une visite étroite de celle de Deepseek-R1 , comme pour sembler être une réponse directe à ce dernier. Sans trop de cheveux sur la langue Alibaba, il a dit, en fait, que dans certains référence Qwen2.5-max dépasse Deepseek-V3 (la version précédente de R-1) et même Lama 3.1-405ble modèle open source de Moitié. Si cette déclaration trouvait d’autres confirmations, Alibaba se positionnerait dans une position dominante dans le secteur de la génération d’oer-open-sourcei AI.

Qu’est-ce que le modèle Alibaba Qwen2.5-Max fonctionne et fonctionne

D’un point de vue technologique, Qwen2.5-Max se démarque de son météentou la capacité de Comprendre à la fois le texte et les images et même de générer du contenu vidéocaractéristiques qui le rapprochent des modèles occidentaux les plus avancés, tels que GPT-4O de Openai et Claude 3.5 Sonnet Di Anthropique. En commentant le processus de formation de son nouveau modèle, Alibaba a expliqué:

C’est un grand modèle MOE à l’échelle qui était pré-édité sur plus de 20 billions de jeton Il est en outre après le post avec des méthodes d’apprentissage raffinées supervisées (SFT) et de renforcement de la rétroaction humaine (RLHF).

Les résultats de ces travaux se traduisent par d’excellentes performances pour QWEN2.5-max. Toujours selon ce qui a été dit par Alibaba, Le modèle dépasse Deepseek V3 dans une référence comme l’arène durs (Un outil d’évaluation automatique pour LLM réglé sur l’éducation), Live-bench (une référence qui teste pleinement les compétences générales d’un modèle) et Livecodebench (Utilisé pour évaluer les performances du LLM sur différentes fenêtres temporelles). Qwen2.5-Max a également obtenu des résultats concurrentiels dans d’autres évaluations, notamment Mmlu-pro (qui teste les connaissances à travers des problèmes de niveau universitaire).

Image

Dans la vidéo suivante, vous pouvez voir Qwen2.5-max au travail.

Doutes et limites sur Qwen2.5-max

Cependant, ils émergent également dans ce cas doutes liés à la sécurité et à la gestion des données. Comme dans le cas de Deepseek, Qwen2.5-max conserve des informations sur les utilisateurs sur les serveurs chinoisce qui implique la possibilité que le gouvernement chinois puisse y accéder. Étant donné que cela a incité le garant de la confidentialité italienne à ouvrir une enquête et, dans la première mesure, à supprimer l’application Deepsek par les magasins italiens, il est probable que des mesures similaires peuvent également être appliquées à d’autres modèles aux Chinois.

Une autre criticité est donnée par le fait que, malgré sa nature open source, L’utilisation de Qwen2.5-max n’est pas immédiate: Pour l’utiliser, comme l’explique Alibaba sur la page de présentation du modèle, vous devez « Enregistrez d’abord un compte Cloud Alibaba et activez le service Alibaba Cloud Model Studio, puis parcourez la console et créez une clé API», Un processus qui peut être peu intuitif pour moins d’utilisateurs » Smonettons « .

Qwen 2.5-Max, Deepseek et d’autres intelligences artificielles: ce qui se passe

L’annonce d’Alibaba est venue dans un contexte de concurrence croissante entre les entreprises chinoises opérant sur le marché de l’IA. Le succès de Deepseek, avec la sortie du modèle Deepseek-R1 Le 20 janvier, il a déstabilisé le marché, conduisant même à l’effondrement des actions de certains grands techniciens occidentaux, comme Nvidia. La startup a montré qu’il est possible de développer des modèles de haute qualité avec des coûts d’exploitation beaucoup plus bas que ceux d’entreprises américaines, remettant en question les énormes investissements de géants tels que OpenII, Google et anthropic.

Cela a déclenché une réaction immédiate en Chine: Bytedancela société mère de Tiktok, a mis à jour son modèle d’IA, déclarant qu’elle passe en performances OpenI O1 dans des tests spécifiques. Alibabacomme nous venons de le signaler, a plutôt répondu avec Qwen2.5-max.

Et revenir à la « compétition » dans le domaine open source entre Qwen2.5-Max et Deepseek, il est intéressant de noter que Qwen2.5 (la version précédente à Qwen 2.5-max) a atteint 94 millions de téléchargements sur la plate-forme Visage étreintdont la moitié seulement le mois dernier, surmonter Llama 3.1 de Meta et s’établir comme le modèle open source le plus déchargé au monde. Cela représente sans aucun doute un signal important, car il souligne comment le marché de l’intelligence artificielle évolue rapidement vers des solutions plus accessibles et personnalisables, des alternatives aux modèles « fermés » tels que ceux d’Openai.