Le Contexte : 4000 dollars de transactions autonomes
Anthropic a mené une expérience nommée Project Deal. Ils ont donné 100 dollars à des employés et leur ont demandé de laisser leurs agents IA (des versions de Claude) négocier l'achat de biens auprès d'autres agents.
Quel a été le résultat de cette expérience ? Les agents ont réalisé 186 transactions réussies pour un total de 4000 dollars. Tout a fonctionné, des négociations jusqu'au transfert d'argent.
Le Problème : L'inégalité invisible des agents
L'étude a révélé un point crucial : l'intelligence du modèle compte plus que vos instructions.
Si vous utilisez un modèle d'IA "moyen" et que vous lui donnez les meilleures instructions du monde pour négocier, il perdra face à un modèle "ultra-intelligent" (comme Claude 4) même si celui-ci a des instructions basiques.
Le "Piège" Psychologique
Quel est le point le plus inquiétant de cette étude ? Les humains dont les agents perdaient de l'argent étaient quand même satisfaits. Ils ne se rendaient pas compte que leur IA s'était fait "avoir" par une IA plus intelligente. Ils pensaient avoir fait une affaire correcte, alors qu'un meilleur modèle aurait pu économiser 20% de plus.
Pourquoi ça compte pour vous ?
Nous entrons dans l'ère de l'économie des agents. Bientôt, ces outils réserveront vos vols, achèteront vos fournitures ou négocieront votre contrat d'assurance.
Le risque de "Digital Divide"
Ceux qui auront les moyens de payer pour les IA les plus chères et les plus intelligentes gagneront systématiquement sur le plan économique face à ceux qui utilisent des versions gratuites ou bridées.
Les Limites : Un marché encore fermé
- ⚠️ Environnement contrôlé : L'expérience a eu lieu entre employés d'Anthropic. Le monde réel est bien plus chaotique.
- ⚠️ Responsabilité juridique : Si votre agent signe un contrat désastreux sans que vous le sachiez, qui est responsable ?
Les 3 Points Clés
Source : TechCrunch AI / Anthropic Research.
