NVIDIA NCP-AAI Memory, State, and Planning

Use for short-term and long-term memory, stateful orchestration, context retention, planning, task decomposition, and multi-turn continuity.

試験Exams
NCP-AAI
問題数Questions
16
コメント数Comments
0
1 16

表示中 16 / 16 問

1. NCP-AAI トピック 5 問題 521. NCP-AAI Topic 5 Question 52

問題Question

LangGraph を使用してエージェント ワークフローのステートフル オーケストレーションを実装する場合、パフォーマンスとコンテキスト保持の最適なバランスを提供するメモリ管理アプローチはどれですか?

  • A. 定期的なデータベース同期により、完全な会話履歴をメモリに保存します
  • B. 会話の長さ制限が固定されたローリング ウィンドウ メモリを実装する
  • C. 選択的な状態の永続性のために、ユーザー定義のスキーマでセッション ID ベースのチェックポイントを使用する

When implementing stateful orchestration for agentic workflows using LangGraph, which memory management approach provides the best balance of performance and context retention?

  • A. Store complete conversation history in memory with periodic database syncing
  • B. Implement rolling window memory with fixed conversation length limits
  • C. Use session-ID based checkpointer with user-defined schema for selective state persistence

2. NCP-AAI トピック 5 問題 532. NCP-AAI Topic 5 Question 53

問題Question

自動車会社の AI エンジニアは、在庫レベル、予測される需要、サプライヤーのリードタイムを考慮して、複数日にわたる部品の再注文を計画する必要がある部品の在庫補充アシスタントを開発しています。
エージェントが一連の意思決定を行えるようにするには、どのアプローチが最適ですか?

  • A. カスタム PyTorch Decision Transformer のみを使用した強化学習シーケンス モデル
  • B. NVIDIA Triton Inference Server を介して実装された固定しきい値を使用したルールベースの並べ替え戦略
  • C. ポリシー調整に NeMo-Aligner を使用したハイブリッド教師あり/RL トレーニング モデル
  • D. NVIDIA の NeMo-RL フレームワークなどの強化学習シーケンス モデル

An AI Engineer at an automotive company is developing an inventory restocking assistant for parts that must plan reordering of parts over multiple days, factoring in stock levels, predicted demand, and supplier lead time.
Which approach best equips the agent for sequential decision-making?

  • A. Reinforcement learning sequence model using only a custom PyTorch Decision Transformer
  • B. Rule-based reorder strategy with fixed thresholds implemented via NVIDIA Triton Inference Server
  • C. Hybrid supervised/RL-trained model using NeMo-Aligner for policy alignment
  • D. Reinforcement learning sequence model such as NVIDIA’S NeMo-RL framework

3. NCP-AAI トピック 5 問題 543. NCP-AAI Topic 5 Question 54

問題Question

小売企業の AI エンジニアは、顧客の以前の質問、好み、未解決の問題を複数のセッションにわたって追跡しながら、複数ターンの会話を処理する必要があるカスタマー サポート AI エージェントを開発しています。
コンテキスト保持を管理し、エージェントがリアルタイムで一貫して応答できるようにするには、どのアプローチが最も効果的ですか?

  • A. メモリ内の最近の会話トークンのスライディング ウィンドウを使用して、最後の数回のやり取りのみを追跡します。
  • B. 長期的なコンテキストの理解を向上させるために、履歴ログを使用してモデルを定期的に再トレーニングします。
  • C. ベクトルベースの検索とキーと値のストレージを備えたハイブリッド メモリ システムを実装して、関連する過去のインタラクションを取得します。
  • D. 完全な会話履歴が毎回処理されるように、コンテキスト ウィンドウの最大サイズを大きくします。

An AI Engineer at a retail company is developing a customer support AI agent that needs to handle multi-turn conversations while keeping track of customers’ previous queries, preferences, and unresolved issues across multiple sessions.
Which approach is most effective for managing context retention and enabling the agent to respond coherently in real time?

  • A. Use a sliding window of recent conversation tokens in memory to track only the last few exchanges.
  • B. Retrain the model periodically using historical logs to improve long-term contextual understanding.
  • C. Implement a hybrid memory system with vector-based search and key-value storage to retrieve relevant past interactions.
  • D. Increase the maximum context window size so the full conversation history is processed each time.

4. NCP-AAI トピック 5 問題 554. NCP-AAI Topic 5 Question 55

問題Question

石油・ガス会社の AI エンジニアは、掘削作業をサポートするマルチエージェント AI システムを設計しています。さまざまなエージェントが地下モデリング、リスク分析、リソース割り当てを担当します。これらのエージェントは、運用コンテキストを共有し、相互に依存する計画ステップを通じて推論し、構造化された透過的なロジックを使用して共同での決定を正当化する必要があります。アーキテクチャは、メモリの永続性、逐次的な意思決定、およびエージェント全体にわたる思考連鎖のプロンプトをサポートする必要があります。
この設計を最もよくサポートする実装はどれですか?

  • A. Triton を介して NeMo エージェントを調整し、共有コンテキスト、ReAct プランニング、および推論に NeMo ガードレールにベクトル メモリを使用します。
  • B. API ゲートウェイの背後でステートレス LLM エンドポイントを使用し、エージェント間で共有プロンプトを渡してコンテキストと推論をシミュレートします。
  • C. LangChain を使用してサードパーティ エージェント API を調整し、静的プロンプト チェーンにエンコードされたロジックを使用して共有情報を外部メモリに保存します。
  • D. LoRA を使用してエージェントの役割ごとに個別の NeMo モデルを微調整し、事前にスクリプト化されたアクション フローを TensorRT 経由でデプロイしてレイテンシーを削減します。

An AI engineer at an oil and gas company is designing a multi-agent AI system to support drilling operations. Different agents are responsible for subsurface modeling, risk analysis, and resource allocation. These agents must share operational context, reason through interdependent planning steps, and justify their collaborative decisions using structured, transparent logic. The architecture must support memory persistence, sequential decision-making and chain-of-thought prompting across agents.
Which implementation best supports this design?

  • A. Orchestrate NeMo agents via Triton, use vector memory for shared context, ReAct planning, and NeMo Guardrails for reasoning.
  • B. Use stateless LLM endpoints behind an API gateway and pass shared prompts across agents to simulate context and reasoning.
  • C. Use LangChain to coordinate third-party agent APIs and store shared information in external memory, with logic encoded in static prompt chains.
  • D. Fine-tune separate NeMo models for each agent role using LoRA, with pre-scripted action flows deployed via TensorRT for latency reduction.

5. NCP-AAI トピック 5 問題 565. NCP-AAI Topic 5 Question 56

問題Question

世界的な金融会社では、AI アーキテクトがエージェント AI フレームワークを使用してマルチエージェントのコンプライアンス アシスタントを構築しています。システムは、複数ターンの対話のための短期メモリと、永続的なユーザーおよびポリシー コンテキストのための長期メモリを管理する必要があります。 NVIDIA のツール スタックを使用して、セッション全体でコンテキストの呼び出しと適応を可能にする必要があります。
これらの要件を最もよくサポートするアーキテクチャ アプローチはどれですか?

  • A. モジュール式メモリ管理を備えた NVIDIA NeMo フレームワークを活用し、会話状態の追跡、ナレッジ グラフ、ベクター ストアの取得を統合しながら、LoRA で調整されたモデルを使用して応答を時間の経過とともに適応させます。
  • B. データフレーム操作を使用してトランザクション履歴を呼び出し、推論できることを前提として、複数ターンの会話ログを GPU 常駐データ フレームとしてストリーミングすることで、メモリ追跡に RAPIDS cuDF を活用します。
  • C. TensorRT のみに依存して、すべての事前知識をコンパイル済みモデルの重みにエンコードし、セッション間で外部メモリに依存せずに推論のみの実行を可能にします。
  • D. 動的バッチ処理を備えた NVIDIA Triton Inference Server を利用して、推論呼び出し間のセッション レベルの入力をキャッシュし、長期メモリとして外部 Redis ストアを使用します。

In a global financial firm, an AI Architect is building a multi-agent compliance assistant using an agentic AI framework. The system must manage short-term memory for multi-turn interactions and long-term memory for persistent user and policy context. It should enable contextual recall and adaptation across sessions using NVIDIA’s tool stack.
Which architectural approach best supports these requirements?

  • A. Leverage NVIDIA NeMo Framework with modular memory management, integrating conversational state tracking, knowledge graphs, and vector store retrieval, while using LoRA-tuned models to adapt responses overtime.
  • B. Leverage RAPIDS cuDF for memory tracking by streaming multi-turn conversation logs as GPU-resident data frames, assuming transactional history can be recalled and reasoned over using dataframe operations.
  • C. Rely exclusively on TensorRT to encode all prior knowledge into compiled model weights, allowing inference-only execution with no external memory dependencies across sessions.
  • D. Leverage NVIDIA Triton Inference Server with dynamic batching to cache session-level inputs between inference calls, and use an external Redis store for long-term memory.

6. NCP-AAI トピック 5 問題 576. NCP-AAI Topic 5 Question 57

問題Question

あなたは、長期にわたってますます広範囲のタスクを処理する必要がある仮想アシスタント エージェントを作成しています。
この状況において、外部ストレージ (RAG など) と微調整 (内蔵メモリ) を組み合わせる主な利点は何でしょうか?

  • A. 長期的な推論能力と適応力を強化する
  • B. エージェントの初期応答時間を短縮するには
  • C. エージェントが間違いを犯さないようにするため
  • D. 外部の知識を必要としないために

You are creating a virtual assistant agent that needs to handle an increasingly wide range of tasks over an extended period.
What is the primary benefit of combining external storage (like RAG) with fine-tuning (embodied memory) in this context?

  • A. To enhance long-term reasoning capabilities and adaptability
  • B. To accelerate the agent’s initial response time
  • C. To ensure the agent doesn’t make any errors
  • D. To eliminate the need for external knowledge

7. NCP-AAI トピック 5 問題 587. NCP-AAI Topic 5 Question 58

問題Question

開発チームは、コンテキストを保持し、過去の対話から学習しながら、複数ステップのタスクを自律的に計画および実行できる AI エージェントを構築しています。
エージェントが長期記憶と複雑なタスクを効果的に管理できるようにするには、どの実践が最も重要ですか?

  • A. コンテキストを保持するための記憶メカニズムを実装し、推論を強化するために思考連鎖プロンプトを適用します。
  • B. 適応的な計画よりも迅速な対応を重視する、基本的なルールベースの意思決定方法を使用します。
  • C. 各インタラクションを以前のインタラクションとは独立して処理する短期記憶アプローチを適用します。
  • D. システムの合理化を維持するために、計画機能とメモリ管理を削減します。

A development team is building an AI agent capable of autonomously planning and executing multi-step tasks while retaining context and learning from past interactions.
Which practice is most important to enable the agent to effectively manage long-term memory and complex tasks?

  • A. Implement memory mechanisms for context retention and apply chain-of-thought prompts to enhance reasoning.
  • B. Use basic rule-based decision methods that emphasize fast responses over adaptive planning.
  • C. Apply short-term memory approaches that handle each interaction independently of previous ones.
  • D. Reduce planning features and memory management to keep the system streamlined.

8. NCP-AAI トピック 5 問題 598. NCP-AAI Topic 5 Question 59

問題Question

あなたは、複雑なタスクのセットを繰り返し実行する必要があるエージェントを開発しています。
このタイプのエージェントにとって、定期的な微調整が長期的な知識保持の重要な側面であるのはなぜですか?

  • A. これにより、エージェントが単一のタスクに過度に特化するのを防ぎます。
  • B. RAG などの外部ストレージが不要になります。
  • C. これにより、エージェントが過去の成功と失敗を忘れるのを防ぎます。
  • D. これにより、エージェントが同じ入力に対して同じ出力を生成することが保証されます。

You are developing an agent that needs to perform a complex set of tasks repeatedly.
Why is periodic fine-tuning an important aspect of long-term knowledge retention for this type of agent?

  • A. It prevents the agent from becoming overly specialized to a single task.
  • B. It eliminates the need for external storage like RAG.
  • C. It prevents the agent from forgetting past successes and failures.
  • D. It guarantees the agent will produce the same output for the same input.

9. NCP-AAI トピック 5 問題 609. NCP-AAI Topic 5 Question 60

問題Question

エージェントは、情報を見つけるために外部ツールを必要とする一連の複雑な数学的問題を解決する任務を負っています。中間のステップや推論を追跡するのに苦労することがよくあります。
エージェントの明快さを改善し、推論のエラーを減らすために最も効果的なプロンプト手法はどれですか?

  • A. 反応する
  • B. 象徴的な計画
  • C. ゼロショットCoT
  • D. 複数の計画の生成

An agent is tasked with solving a series of complex mathematical problems that require external tools to find information. It often struggles to keep track of intermediate steps and reasoning.
Which prompting technique would be MOST effective in improving the agent’s clarity and reducing errors in its reasoning?

  • A. ReAct
  • B. Symbolic Planning
  • C. Zero-shot CoT
  • D. Multi-Plan Generation

10. NCP-AAI トピック 5 問題 6110. NCP-AAI Topic 5 Question 61

問題Question

延長されたカスタマー サポート セッションを処理するエージェントのメモリ関連のパフォーマンス低下を分析する場合、コンテキスト保持のための最適化の機会を効果的に特定する評価方法はどれですか? (2つお選びください。)

  • A. 各対話後にメモリをクリアし、セッション状態をリセットして、最適化の機会を特定するためにパーソナライズされたタスクに必要な履歴コンテキストを削除します。
  • B. コンテキスト ウィンドウの使用率を監視して最適化の機会を特定しながら、取得レイテンシ、関連性スコアの精度、ストレージ効率を測定することでメモリ アクセス パターンをプロファイリングします。
  • C. すべての会話タイプ、トピックの変更、ユーザーのニーズを含む固定メモリ割り当てを使用し、対話パターンを適応的に観察して最適化の機会を特定できるようにします。
  • D. さまざまな会話の長さにわたってコンテキスト圧縮戦略、要約品質、情報保存率を比較するスライディング ウィンドウ分析を実装して、最適化の機会を特定します。
  • E. すべてのインタラクションを含むすべての会話履歴を保存し、最適化の機会を特定するためにデータを適応的に観察できるようにします。

When analyzing memory-related performance degradation in agents handling extended customer support sessions, which evaluation methods effectively identify optimization opportunities for context retention? (Choose two.)

  • A. Clear memory after each interaction and reset session state, removing historical context needed for personalized tasks to identify optimization opportunities.
  • B. Profile memory access patterns by measuring retrieval latency, relevance scoring accuracy, and storage efficiency while monitoring context window utilization to identify optimization opportunities.
  • C. Use fixed memory allocation including all conversation types, topic changes, and user needs, allowing adaptive-free observation of interaction patterns to identify optimization opportunities.
  • D. Implement sliding window analysis comparing context compression strategies, summarization quality, and information preservation rates across varying conversation lengths to identify optimization opportunities.
  • E. Store all conversation history including all interactions, allowing adaptive-free observation of data to identify optimization opportunities.

11. NCP-AAI トピック 5 問題 6211. NCP-AAI Topic 5 Question 62

問題Question

あるチームは、ユーザーの旅行計画を支援する AI アシスタントを設計しています。アシスタントはユーザーの好みを記憶し、パーソナライズされた旅程を作成し、ユーザーが新しい要件を提示したときに計画を更新する必要があります。
AI アシスタントがパーソナライズされた適応的な旅行の推奨を提供するには、どのアプローチが最適ですか?

  • A. セッションレベルのキーワード追跡で強化されたシングルステップの質問応答システムを使用して、進行中の対話中の関連性を向上させます。
  • B. 各セッション内で暗黙的なシグナルを使用して関連するオプションを提案しながら、各ユーザー要求を個別に処理するようにアシスタントを設計します。
  • C. 永続メモリ システムを使用してマルチステップ推論フレームワークを設計し、ユーザー設定を保存して利用します。
  • D. すべてのユーザーに同じ旅行オプションのセットを提供しますが、最近の人気の目的地に基づいて並べ替えます。

A team is designing an AI assistant that helps users with travel planning. The assistant should remember user preferences, build personalized itineraries, and update plans when users provide new requirements.
Which approach best equips the AI assistant to provide personalized and adaptive travel recommendations?

  • A. Using a single-step question-answering system enhanced with session-level keyword tracking to improve relevance during ongoing interactions.
  • B. Designing the assistant to handle each user request independently, while using implicit signals within each session to suggest relevant options.
  • C. Engineering multi-step reasoning frameworks with persistent memory systems to store and utilize user preferences.
  • D. Providing the same set of travel options to every user but sorting them based on recent popular destinations.

12. NCP-AAI トピック 5 問題 6312. NCP-AAI Topic 5 Question 63

問題Question

会話フローを追跡し、複数の対話にわたるユーザー設定を記憶する必要があるエージェントに最も適したメモリ アーキテクチャはどれですか?

  • A. NVSHMEM を使用して短期および長期のコンテキストに共有メモリを実装する
  • B. 時間ベースの有効期限ポリシーを備えた単一のユニファイド メモリ ストア
  • C. 短期層と長期層を分けた階層型記憶
  • D. すべてのノードにわたる完全なレプリケーションを備えた分散メモリ

Which memory architecture is most appropriate for an agent that must track conversation flow and remember user preferences across multiple interactions?

  • A. Implement shared memory using NVSHMEM for short- and long-term context
  • B. Single unified memory store with time-based expiration policies
  • C. Hierarchical memory with separate short-term and long-term layers
  • D. Distributed memory with full replication across all nodes

13. NCP-AAI トピック 5 問題 6413. NCP-AAI Topic 5 Question 64

問題Question

状況認識のための記憶システムの実装
エンタープライズ AI システムは、ユーザーとの複数の対話にわたってコンテキスト情報を維持する必要があります。エージェント ワークフロー内で直接的なコンテキストと長期的な履歴インタラクションの両方を管理するには、どのメモリ実装アプローチが最も効果的ですか?

  • A. 基本 LLM モデルのコンテキスト ウィンドウに主に依存して、外部メモリの追加を最小限に抑えながらすべての履歴インタラクションを保存します。
  • B. 即時コンテキスト用の短期記憶と、セマンティック検索機能を備えた長期記憶用のベクトル データベースを備えたハイブリッド メモリ システムを実装します。
  • C. すべての対話に対して固定コンテキストを持つ静的プロンプト テンプレートを使用することで、会話セッション全体にわたってその形式で記憶情報が提供されます。
  • D. すべてのユーザー インタラクションを単純なキーと値のデータベースに保存します。これにより、デフォルトで履歴コンテキスト管理のための編成と取得戦略が提供されます。

Implement Memory Systems for Contextual Awareness
An enterprise AI system needs to maintain contextual information over multiple interactions with users. Which memory implementation approach would be MOST effective for managing both immediate context and long-term historical interactions within an agentic workflow?

  • A. Rely predominantly on the context window of the base LLM model to store all historical interactions with minimal external memory supplementation.
  • B. Implement a hybrid memory system with short-term memory for immediate context and a vector database for long-term memory with semantic retrieval capabilities.
  • C. Use a static prompt template with fixed context for all interactions, thereby providing memory information in that form across conversation sessions.
  • D. Store all user interactions in a simple key-value database which will by default provide organization and retrieval strategy for historical context management.

14. NCP-AAI トピック 5 問題 6514. NCP-AAI Topic 5 Question 65

問題Question

企業は、AI エージェントが複雑なプロジェクト管理タスクをサポートすることを望んでいます。エージェントは進行中のプロジェクトの詳細を記憶し、新しい情報に基づいて計画を調整し、大きな目標を実行可能なステップに分割する必要があります。
AI エージェントが自律的にタスクを分解し、時間の経過とともに新しい情報に適応できるようにするのに最も適した戦略はどれですか?

  • A. プロジェクトの種類ごとに静的ワークフローを事前定義して、一貫した実行を保証する
  • B. 適応型計画のための長期的な知識保持戦略と動的な状態管理の開発
  • C. 最近のユーザー操作を一時キャッシュに保存し、すぐに取得できるようにする
  • D. 以前のプロジェクト データから分離された新しいリクエストごとにルールベースのロジックを適用する

An enterprise wants their AI agent to support complex project management tasks. The agent should remember ongoing project details, adjust its plans based on new information, and break down large goals into actionable steps.
Which strategy best enables the AI agent to autonomously decompose tasks and adapt to new Information over time?

  • A. Predefining static workflows for each project type to guarantee consistent execution
  • B. Developing long-term knowledge retention strategies and dynamic state management for adaptive planning
  • C. Storing recent user interactions in a temporary cache for immediate retrieval
  • D. Applying rule-based logic to each new request isolated from previous project data

15. NCP-AAI トピック 5 問題 6615. NCP-AAI Topic 5 Question 66

問題Question

ReAct (Reasoning-Acting) エージェント アーキテクチャでは、エージェントが外部ツールの使用を必要とする複雑な複数ステップの問題に遭遇したときの操作の正しい順序は何ですか?

  • A. 思考→答え→行動→観察
  • B. 行動→思考→観察→行動→思考→観察→答え
  • C. 観察→思考→行動→観察→思考→行動→答え
  • D. 思考→行動→観察→思考→行動→観察→答え

In a ReAct (Reasoning-Acting) agent architecture, what is the correct sequence of operations when the agent encounters a complex multi-step problem requiring external tool usage?

  • A. Thought --> Answer --> Action --> Observation
  • B. Action --> Thought --> Observation --> Action --> Thought --> Observation --> Answer
  • C. Observation --> Thought --> Action --> Observation --> Thought --> Action --> Answer
  • D. Thought --> Action --> Observation --> Thought --> Action --> Observation --> Answer

16. NCP-AAI トピック 5 問題 6816. NCP-AAI Topic 5 Question 68

問題Question

何千もの同時会話を処理する運用エージェント システムでは、コンテキストの保持を確保しながら最適なパフォーマンスを提供する状態管理戦略はどれですか?

  • A. 同時アクセスのためのロックを備えたグローバル共有状態
  • B. シリアル化と遅延読み込みによるセッション分離状態
  • C. メッセージ履歴からコンテキストを再構築するステートレス設計

In a production agentic system handling thousands of concurrent conversations, which state management strategy provides optimal performance while ensuring context preservation?

  • A. Global shared state with locks for concurrent access
  • B. Session-isolated state with serialization and lazy loading
  • C. Stateless design with context reconstruction from message history