石油・ガス会社の AI エンジニアは、掘削作業をサポートするマルチエージェント AI システムを設計しています。さまざまなエージェントが地下モデリング、リスク分析、リソース割り当てを担当します。これらのエージェントは、運用コンテキストを共有し、相互に依存する計画ステップを通じて推論し、構造化された透過的なロジックを使用して共同での決定を正当化する必要があります。アーキテクチャは、メモリの永続性、逐次的な意思決定、およびエージェント全体にわたる思考連鎖のプロンプトをサポートする必要があります。
この設計を最もよくサポートする実装はどれですか?
-
A.
Triton を介して NeMo エージェントを調整し、共有コンテキスト、ReAct プランニング、および推論に NeMo ガードレールにベクトル メモリを使用します。
-
B.
API ゲートウェイの背後でステートレス LLM エンドポイントを使用し、エージェント間で共有プロンプトを渡してコンテキストと推論をシミュレートします。
-
C.
LangChain を使用してサードパーティ エージェント API を調整し、静的プロンプト チェーンにエンコードされたロジックを使用して共有情報を外部メモリに保存します。
-
D.
LoRA を使用してエージェントの役割ごとに個別の NeMo モデルを微調整し、事前にスクリプト化されたアクション フローを TensorRT 経由でデプロイしてレイテンシーを削減します。
An AI engineer at an oil and gas company is designing a multi-agent AI system to support drilling operations. Different agents are responsible for subsurface modeling, risk analysis, and resource allocation. These agents must share operational context, reason through interdependent planning steps, and justify their collaborative decisions using structured, transparent logic. The architecture must support memory persistence, sequential decision-making and chain-of-thought prompting across agents.
Which implementation best supports this design?
-
A.
Orchestrate NeMo agents via Triton, use vector memory for shared context, ReAct planning, and NeMo Guardrails for reasoning.
-
B.
Use stateless LLM endpoints behind an API gateway and pass shared prompts across agents to simulate context and reasoning.
-
C.
Use LangChain to coordinate third-party agent APIs and store shared information in external memory, with logic encoded in static prompt chains.
-
D.
Fine-tune separate NeMo models for each agent role using LoRA, with pre-scripted action flows deployed via TensorRT for latency reduction.
コメントComments コメント 0 件0 comments クリックして展開Click to expand