1. NCP-AAI トピック 4 問題 391. NCP-AAI Topic 4 Question 39
問題Question
電子商取引プラットフォームには、簡単な FAQ への回答から複雑な製品の推奨事項や技術的なトラブルシューティングに至るまで、さまざまな問い合わせに対応する AI を活用したカスタマー サポート システムが実装されています。システムでは、販売イベント中の突然の急増やさまざまな複雑さの要件など、予測できないトラフィック パターンが発生します。単純な質問はリクエストの大部分を占めますが、必要なコンピューティングは最小限ですが、複雑な製品の推奨事項には高度な推論が必要です。同社は、すべてのクエリ タイプにわたってサービス品質を維持しながら、コストを最適化したいと考えています。
この変動するワークロードと複雑性が混在する環境に対して、最もコストが最適化されたスケーリング戦略を提供できるのはどのアプローチでしょうか?
- A. すべてのトラフィック パターンにわたって一定のリソース割り当てを維持する自動スケーリング インフラストラクチャを備えた、大容量 GPU ですべてのエージェント機能を処理する単一の大規模モデル構成を使用して、特殊な NVIDIA NIM マイクロサービスをデプロイします。
- B. 自動スケーリング機能を備えた CPU に最適化されたインフラストラクチャに特殊な NVIDIA NIM マイクロサービスをデプロイして、ハードウェア コストを最小限に抑えながら、コスト最適化のメリットを得るために推論時間の延長を受け入れます。
- C. LLM ルーターを使用して特殊な NVIDIA NIM マイクロサービスを展開し、さまざまなモデル タイプを個別にスケーリングする自動スケーリング インフラストラクチャと組み合わせて、複雑さに基づいてリクエストを適切なモデルに動的にルーティングします。
- D. 利用可能なすべての GPU にわたって同一の大容量モデルを備えた複数の特殊な NVIDIA NIM マイクロサービスをデプロイし、リクエストの複雑さの区別や動的なモデル選択機能を必要とせずに自動スケーリング インフラストラクチャを実装します。
An e-commerce platform is implementing an AI-powered customer support system that handles inquiries ranging from simple FAQ responses to complex product recommendations and technical troubleshooting. The system experiences unpredictable traffic patterns with sudden spikes during sales events and varying complexity requirements. Simple questions comprise the majority of requests but require minimal compute, while complex product recommendations need sophisticated reasoning. The company wants to optimize costs while maintaining service quality across all query types.
Which approach would provide the MOST cost-optimized scaling strategy for this variable-workload, mixed-complexity environment?
- A. Deploy specialized NVIDIA NIM microservices using a single large model configuration that handles all agent functions on high-capacity GPUs, with auto-scaling infrastructure that maintains constant resource allocation across all traffic patterns.
- B. Deploy specialized NVIDIA NIM microservices on CPU-optimized infrastructure with auto-scaling capabilities to minimize hardware costs, while accepting longer inference times for cost optimization benefits.
- C. Deploy specialized NVIDIA NIM microservices with an LLM router to dynamically route requests to appropriate models based on complexity, combined with auto-scaling infrastructure that scales different model types independently.
- D. Deploy multiple specialized NVIDIA NIM microservices with identical high-capacity models across all available GPUs, implementing auto-scaling infrastructure without request complexity differentiation or dynamic model selection capabilities.
推奨解答Suggested Answer
C
コメントComments コメント 0 件0 comments クリックして展開Click to expand