La Centrale如何将其GenAI平台从单代理升级至多代理

Comment La Centrale a passé sa plate-forme GenAI du mono au multi-agent

Silicon.fr by Clément Bohic 2026-04-13 16:13 Original
摘要
法国汽车交易平台La Centrale将其GenAI平台从单代理升级为多代理系统,采用AWS的AgentCore和开源SDK Strands Agents。新平台通过“代理即工具”模式优化了车辆搜索助手,并实现约1美元成本将编辑文章转化为网站内容,显著提升了处理效率和系统灵活性。

法国汽车交易平台La Centrale近期完成了其生成式AI平台从单智能体架构向多智能体架构的重大升级。平台最初版本(v1)虽已支持约20个生产用例,如基于车辆数据生成更具吸引力的广告描述、为专业卖家提供定价辅助等,但其架构在实现多智能体协作及一定程度上支持多模型供应商方面存在局限。集团架构负责人Fabien Roussel指出,随着市场框架成熟,原有基于Bedrock生态的定制化平台虽灵活但逐渐失去优势。

为此,La Centrale在v2版本中全面转向基于AWS的开源SDK Strands AgentsAgentCore 框架。新架构的核心优势在于实现了“无需自行编写协作代码”的多智能体系统,并原生集成OpenAI等主流模型。其中,“智能体即工具”模式是关键:主智能体(协调器)可解析用户查询,能处理则直接响应,否则将任务委托给封装为工具的专用智能体。

这一设计已应用于2024年部署的车辆搜索助手。该助手现包含两个专用智能体:基于集团旗下Caradisiac网站内容构建的RAG系统Caraguide(提供汽车购买建议),以及负责标准化车辆数据并调用搜索API的Free Text Search。每个智能体均运行在独立运行时环境中,具备短期与长期记忆能力。

另一典型用例是自动化处理Caradisiac的编辑内容,将其转化为适用于La Centrale平台的格式,以辅助用户决策并提升搜索引擎排名。该流程涉及约20个协同工作的智能体,处理单篇文章耗时约10分钟,大语言模型成本仅约1美元(计算成本可忽略)。

在基础设施层面,平台通过AgentCore Gateway部署托管式MCP服务器,并采用“每个业务域一个MCP服务器”的平衡策略,避免了单一网关上下文过载或微网关难以扩展的问题。智能体认证采用OAuth 2与Cognito,网关与工具间认证则按需使用API密钥或IAM角色。系统除管理AgentCore Runtime内的智能体外,也支持外部智能体的集成。

Summary
La Centrale, a French automotive group, migrated its GenAI platform from a custom v1 to a v2 built on AWS's AgentCore and the open-source Strands Agents SDK to enable multi-agent and multi-provider capabilities. This shift, led by Head of Architecture Fabien Roussel, improved systems like a vehicle search assistant using an "agent as tool" pattern and streamlined content adaptation for Caradisiac at a cost of about $1 per article. The new architecture uses managed MCP servers for tool integration and addresses scalability and context management issues present in the initial platform.

La Centrale has overhauled its generative AI platform, transitioning from a monolithic, single-agent architecture to a flexible multi-agent system built on AWS's AgentCore and the open-source Strands Agents SDK. This shift addresses limitations in the original platform, which, while successfully deploying about twenty use cases—such as generating vehicle descriptions and aiding professional sellers with pricing—proved inadequate for multi-agent workflows and was cumbersome for multi-provider integration, requiring significant effort to connect directly with services like OpenAI outside the AWS Bedrock ecosystem.

According to Fabien Roussel, Head of Architecture at Groupe La Centrale, the initial platform's relevance diminished as market frameworks matured. The new v2 architecture leverages AgentCore for orchestration and Strands Agents for its native integrations with LLM providers and pre-built components like memory management, eliminating the need for custom collaboration code.

A key application is the enhanced vehicle search assistant, which employs an "agent as tool" pattern. A primary orchestrator agent qualifies user requests, responds if possible, or delegates to specialized agents treated as tools. These include Caraguide, which provides automotive advice using a RAG system based on editorial content from Caradisiac, and Free Text Search, which normalizes vehicle data and calls the search API. Each agent runs in its own runtime with dedicated short and long-term memory.

Another significant use case involves transforming Caradisiac's editorial content for integration onto La Centrale, both to aid user decision-making and improve search engine positioning. This process utilizes about twenty collaborating agents within a shared runtime, taking roughly ten minutes per article at an approximate cost of $1 for LLM usage, with compute costs deemed negligible.

For tool integration, La Centrale uses managed MCP (Model Context Protocol) servers deployed via AgentCore Gateway, adopting a one-server-per-domain model to balance context management and scalability. Authentication is handled via OAuth 2 with AWS Cognito for agents, while gateway-to-tool authentication varies, employing API keys or IAM roles for Lambda functions. The system also supports managing external agents beyond those deployed in the AgentCore Runtime.

Résumé
La Centrale a migré sa plateforme GenAI vers AgentCore et Strands Agents pour passer d'une architecture mono-agent à une solution multi-agent, éliminant ainsi le besoin de développer en interne les mécanismes de collaboration et les intégrations avec des fournisseurs comme OpenAI. Cette refonte a permis d'améliorer des cas d'usage existants, comme un assistant de recherche de véhicules utilisant le pattern "agent as tool", et d'en créer de nouveaux, tels que l'adaptation automatisée de contenus éditoriaux à un coût d'environ 1$ par article. L'architecture repose désormais sur des serveurs MCP managés par domaine pour une gestion scalable du contexte et des outils.

DynamoDB pour gérer le contexte, S3 pour centraliser les configurations d’agents, Lambda pour orchestrer les outils et l’observabilité… À l’origine, il y avait un peu de tout ça dans la plate-forme GenAI de La Centrale.

Cette v1 a permis la mise en prod d’une vingtaine de cas d’usage. Parmi eux, la création de descriptions à partir des données de véhicules pour rendre les annonces plus attractives. Ou l’aide au pricing pour les vendeurs professionnels. Elle s’est cependant révélée inadaptée pour faire du multi-agent. Et, dans une certaine mesure, du multifournisseur. Il fallait en tout cas un certain « effort d’implémentation » pour sortir de l’écosystème Bedrock et se brancher en direct avec OpenAI, par exemple.

Quoique flexible (couche applicative au-dessus de l’API Converse), cette plate-forme était par ailleurs de moins en moins pertinente à mesure que les frameworks du marché gagnaient en maturité, selon Fabien Roussel, head of architecture chez Groupe La Centrale.

Des agents en tant qu’outils

Pour la v2, La Centrale a basculé sur AgentCore, en y associant Strands Agents, un SDK open source (Python, NodeJS) made in AWS.

Fabien Roussel – © DR

« On peut faire du multi-agent sans faire nous-mêmes le code de collaboration », explique Fabien Roussel. Il ajoute que Strands Agents fournit des intégrations natives avec OpenAI & Cie. Ainsi qu’avec AgentCore (exemple avec la brique de gestion de la mémoire : « Ce n’est pas nous qui allons coder le GET et le PUT »).

Ce socle a permis d’améliorer l’assistant de recherche de véhicules que La Centrale avait déployé en 2024. Notamment grâce au pattern agent as tool : Strands Agents peut encapsuler des agents en tant qu’outils.

Sur cet assistant de recherche, l’agent principal (l’orchestrateur) qualifie la demande de l’utilisateur, y répond s’il le peut et délègue sinon à des agents spécialisés… traités, donc, en tant qu’outils. D’une part, Caraguide, spécialisé dans le conseil auto, à l’appui d’un RAG basé sur Caradisiac, le site éditorial du groupe. De l’autre, Free Text Search, qui normalise les données véhicule puis appelle l’API de recherche.

Chaque agent est déployé dans son runtime, avec une mémoire à court et long termes.

« Environ 1 $ » pour adapter des articles

Caradisiac porte un autre cas d’usage : la transformation de son contenu éditorial pour l’intégrer sur La Centrale. À la fois pour l’aide à la décision des utilisateurs en début de parcours et pour améliorer le positionnement sur les moteurs de recherche.

Le processus implique une vingtaine d’agents. Il prend environ 10 minutes par article. Coûts LLM : environ 1 $ (les coûts de compute sont négligeables, affirme Fabien Roussel).

Les agents travaillant ensemble, ils partagent un runtime.

Les deux cas d’usage exploitent des serveurs MCP managés déployés avec AgentCore Gateway.

La Centrale a opté pour un serveur MCP par domaine. Une gateway pour tous les outils n’était pas envisageable (« On explose le contexte »). Une gateway par outil ne l’était pas non plus (« C’est trop fin, trop petit, on ne peut pas scaler »).

Pour l’authentification des agents, c’est de l’OAuth 2 avec Cognito derrière. Pour l’authentification entre la passerelle et les outils, cela dépend : clés pour les API, IAM pour les fonctions Lambda.

Au-delà des déploiements dans AgentCore Runtime, le système gère aussi les agents externes.

Illustration principale générée par IA

The post Comment La Centrale a passé sa plate-forme GenAI du mono au multi-agent appeared first on Silicon.fr.

AI Insight
Core Point

法国汽车交易平台La Centrale将其生成式AI平台从单代理架构升级为多代理架构,以提升复杂任务处理能力并降低开发成本。

Key Players

La Centrale (Groupe La Centrale) — 法国汽车分类广告和交易平台。

AWS — 提供Bedrock、AgentCore、Lambda等云服务和AI框架的云厂商。

Industry Impact
  • ICT: High — 展示了企业级AI平台向多代理、模块化架构演进的技术路径。
  • Automotive: Medium — 通过AI优化车辆描述生成、定价和内容集成,提升平台服务。
Tracking

Monitor — 其采用开源SDK(Strands Agents)和托管MCP服务器实现多代理系统的模式,为其他垂直行业平台提供了可参考的AI工程化案例。

Related Companies
positive
OpenAI
mature
neutral
neutral
neutral
positive
neutral
positive
positive
positive
positive
neutral
neutral
positive
Categories
人工智能 软件 云计算
AI Processing
2026-04-13 20:09
deepseek / deepseek-chat