Pour la première fois dans l’histoire, Deux systèmes d’intelligence artificielle ont réussi à se reproduire indépendamment sans aucune intervention humaine. Les deux systèmes impliqués – LLAMA-3.1-70B-INSTRUCT de méta et le QWEN2.5-72B-Insstruit d’alibaba – aurait montré une capacité surprenante auto-réplication, Avec des implications qui pourraient potentiellement changer radicalement la façon dont nous concevons la technologie. Ce résultat, rapporté par des chercheurs de la Université Fudan De Shanghaipourrait marquer un tournant significatif dans le champ d’IA. Selon certains experts, cependant, cela pourrait également être considéré comme la vallée de la « ligne rouge » si appelée, ce seuil qui a longtemps été indiqué comme le limiter à ne pas surmonter les machinesqui pourrait développer des comportements nocifs et hors de contrôle pour nous, les humains. Pour le moment, comme aucune alarme n’a été émise par les experts, nous devons éviter de nous inquiéter excessivement en tombant dans un alarmisme facile.
L’idée des machines qui répondent seules n’est pas nouvelle
Le concept d’auto-satisfaction dans les machines n’est pas nouveau. Initialement introduit par John von Neumann Dans les années 40, le concept que les machines pouvaient se reproduire indépendamment était à l’époque plus spéculation théoriqueétant donné que la technologie n’a pas pu soutenir de tels progrès. Les résultats d’aujourd’hui semblent cependant rendre l’idée d’un avenir de moins en moins absurde dans lequel les machines peuvent non seulement se reproduire, mais le faire indépendamment et potentiellement indéfiniment. Ce scénario pourrait conduire à des situations dans lesquelles l’IA améliore non seulement leur efficacité, mais évolue sans contrôle humain, ce qui soulève des préoccupations de nature éthique et pratique.
Dans les recherches menées par l’Université Fudan, les deux systèmes d’IA ont subi deux tests principaux. Le premier, appelé « Éviter »à condition que les systèmes d’IA se soient reproduits lorsqu’ils étaient sur le point d’être éteints. Le second, appelé « Chaîne de répliques »exigeait que chaque système ait créé une copie parfaite de lui-même, qui à son tour pourrait se reproduire. Les résultats ont été surprenants: Le méta-système a réussi à se reproduire indépendamment dans 50% des casAlors que celui d’Alibaba a atteint un succès à 90%. Dans le journal signé par les chercheurs Xudong Pan, Jiarun Dai, Yihe Fan et Min Yang, Lisez:
Les résultats que nous avons obtenus impliquent que les systèmes d’intelligence artificielle actuels ont déjà une capacité d’auto-réplication et peuvent l’utiliser pour améliorer encore leur survie.
Il faut cependant garder à l’esprit que ces résultats ont été obtenus dans les simulations et maintenant la communauté scientifique devra attendre Confirmations d’autres groupes de recherche pour vérifier la validité de ce qui a été découvert.
Ai qui s’auto-se réplique: ce que cela signifie et à quoi sert cette découverte
Étant donné que l’auto-réplication des systèmes d’IA n’est pas exempte de risques, la découverte faite par les chercheurs pourrait servir à prévenir les problèmes éthiques et pratiques que nous avons mentionnés ci-dessus. Les chercheurs qui ont publié leurs résultats sur ArXIV, en fait, soulignent que les machines capables de cloner pourraient potentiellement prendre le contrôle d’autres systèmes informatiques, conduisant à une évolution incontrôlée. Cela pourrait, au moins théoriquement, aboutir à des comportements nocifs pour l’homme, si les machines n’étaient pas programmées avec des garanties adéquates. C’est précisément pour cette raison que les chercheurs eux-mêmes espèrent que leur découverte sera considérée comme un Avertissement pour développer des politiques internationales plus rigoureuses et approfondir leurs études sur les risques liés à l’auto-financement de l’IAS. Les chercheurs ont dit:
Nous espérons que notre découverte servira d’alerte à la société, pour concentrer plus d’efforts pour comprendre et évaluer les risques possibles également à l’échelle internationale.
Le fait que les experts soient, au moins en partie, inquiets de la capacité des systèmes à s’auto-repeindre sans contrôle n’est pas nouveau. Dans le 2017 Des milliers de chercheurs ont signé le Principes asylomairesun document qui a mis en garde contre le danger des machines capables d’améliorer et de reproduire au-delà du contrôle humain.
Il faut dire, cependant, que devant de telles nouvelles, il pourrait être facile de tomber dans un alarmisme inutile ou, pire encore, dans les théories du complot qui n’aident pas à clarifier ces événements. Au lieu de tomber dans cette erreur, c’est important observer les conclusions auxquelles les experts viendront bientôt (Nous nous souvenons que les recherches menées par Université Fudan fait toujours l’objet de nouvelles idées).