NVIDIA NCP-AAI Tool Use, Prompting, and Reasoning

Use for tool selection, function calling, prompt design, output structure, reasoning strategies, and model behavior during task execution.

試験Exams
NCP-AAI
問題数Questions
7
コメント数Comments
4
1 7

表示中 7 / 7 問

1. NCP-AAI トピック 1 問題 11. NCP-AAI Topic 1 Question 1

問題Question

数学的計算、Web 検索、および API 呼び出しを実行する必要があるエージェントのツール統合を設計する場合、最も拡張性と保守性の高いアプローチを提供するアーキテクチャ パターンはどれですか?

  • A. 各エージェント インスタンスの手動構成による外部ツール サービス
  • B. 標準化されたインターフェイスを備えたマイクロサービスベースのツール アーキテクチャ
  • C. さまざまなツールタイプに対応する条件付きロジックを備えたモノリシックツールハンドラー
  • D. メインエージェントコード内の埋め込みツール機能

When designing tool integration for an agent that needs to perform mathematical calculations, web searches, and API calls, which architecture pattern provides the most scalable and maintainable approach?

  • A. External tool services with manual configuration for each agent instance
  • B. Microservice-based tool architecture with standardized interfaces
  • C. Monolithic tool handler with conditional logic for different tool types
  • D. Embedded tool functions within the main agent code

2. NCP-AAI トピック 2 問題 132. NCP-AAI Topic 2 Question 13

問題Question

あなたは、ユーザーが外部 API を介して天気予報の最新情報を確認できるようにする仮想アシスタントを設計しています。テスト中、エージェントは頻繁に間違ったツールを呼び出し、エンドポイントに幻覚を与えたり、間違った形式を返したりすることがよくあります。プロンプトの構造がこれらの失敗の根本原因である可能性があると考えられます。
このエージェントでの一貫したツール呼び出しを最もよくサポートするプロンプト設計はどれですか?

  • A. エージェントの内部知識に頼ってツールの使用状況を推測する
  • B. 自然言語でツール名を含めますが、パラメータの例は含めません
  • C. 一般的なシステム手順のみを提供し、例はありません
  • D. 構造化されたプロンプト テンプレートと少数のツールの使用例を使用する

You are designing a virtual assistant that helps users check weather updates via external APIs. During testing, the agent frequently calls the incorrect tools, often hallucinating endpoints or returning incorrect formats. You suspect the prompt structure might be the root cause of these failures.
Which prompt design best supports consistent tool invocation in this agent?

  • A. Rely on the agent’s internal knowledge to infer tool usage
  • B. Include tool names in natural language but without parameter examples
  • C. Provide only a generic system instruction with no examples
  • D. Use structured prompt templates with few-shot tool usage examples

3. NCP-AAI トピック 2 問題 143. NCP-AAI Topic 2 Question 14

問題Question

あなたは LLM を使用して研究論文を自動的に要約しています。概要では重要な所見が省略されていることがよくあります。
要約が研究論文の中核となる洞察を正確に反映していることを保証する最善の方法は何でしょうか?

  • A. LLM に「論文を要約してください」と依頼します。
  • B. LLM に論文を「理解」して要約を作成するように依頼します。
  • C. LLM に概要を生成させ、すべての出力を手動で確認します。
  • D. LLM に「重要な調査結果を抽出する」よう依頼する。

You’re working with an LLM to automatically summarize research papers. The summaries often omit critical findings.
What’s the best way to ensure that the summaries accurately reflect the core insights of the research papers?

  • A. Asking the LLM to “summarize the paper.”
  • B. Asking the LLM to “understand” the paper to generate a summary.
  • C. Having the LLM generate the summaries and then manually review every output.
  • D. Asking the LLM to “extract the key findings.”

4. NCP-AAI トピック 2 問題 154. NCP-AAI Topic 2 Question 15

問題Question

複数のツール (電卓、Web 検索、API 呼び出し) から動的に選択する必要があるエージェントにツール オーケストレーションを実装する場合、最も信頼性の高い結果が得られる選択戦略はどれですか?

  • A. 再試行メカニズムと使用例を備えたランダムな動的ツール選択
  • B. 構造化されたツールの説明と使用例を含む LLM ベースのツールの選択
  • C. 事前定義されたツールマッピングと使用例によるルールベースの選択
  • D. マニュアル仕様と使用例を含む構成ベースのツール選択

When implementing tool orchestration for an agent that needs to dynamically select from multiple tools (calculator, web search, API calls), which selection strategy provides the most reliable results?

  • A. Random dynamic tool selection with retry mechanisms and usage examples
  • B. LLM-based tool selection with structured tool descriptions and usage examples
  • C. Rule-based selection with predefined tool mappings and usage examples
  • D. Configuration-based tool selection with manual specifications and usage examples

5. NCP-AAI トピック 2 問題 165. NCP-AAI Topic 2 Question 16

問題Question

エンジニアは、ユーザーに役立つサービスを提供する実用的な AI エージェント ソリューションを作成しました。ただし、ライブ テスト中、AI エージェントは一貫してタスクを実行しません。
この問題に役立つ可能性のある 2 つの解決策はどれですか? (2つお選びください。)

  • A. 不整合を避けるために、ツール出力のスキーマ検証とアサーションを削除します。
  • B. 決定性を避けるために、ランダム性 (温度など) を増やし、固定シードを削除します。
  • C. タスクをサブタスクに分割し、複数のエージェントで処理することがどのような場合に役立つかを特定します。
  • D. AI エージェントに与えられるプロンプトを調整します。目標を明確にする

An engineer has created a working AI agent solution providing helpful services to users. However, during live testing, the AI agent does not perform tasks consistently.
Which two potential solutions might help with this issue? (Choose two.)

  • A. Remove schema validations and assertions on tool outputs to avoid inconsistency.
  • B. Increase randomness (e.g., temperature) and remove fixed seeds to avoid determinism.
  • C. Identify where dividing the tasks into subtasks and handling them by multiple agents can help.
  • D. Refine the prompt given to the AI Agent; be clear on objectives

6. NCP-AAI トピック 3 問題 376. NCP-AAI Topic 3 Question 37

問題Question

エージェントが矛盾した矛盾したステートメントを生成しています。
エージェントの出力を向上させるにはどのアプローチが最も適していますか?

  • A. 反射神経を活用する
  • B. 生成されるプランの数を増やす
  • C. 分解優先計画の使用
  • D. プロンプトの長さを減らす

Your agent is generating inconsistent and contradictory statements.
Which approach would be most suitable to improve the agent’s output?

  • A. Employing Reflexion
  • B. Increasing the number of generated plans
  • C. Using Decomposition-First Planning
  • D. Decreasing the length of prompts

7. NCP-AAI トピック 5 問題 677. NCP-AAI Topic 5 Question 67

問題Question

推論タスクに小規模な言語モデルを使用する場合の、思考連鎖 (CoT) プロンプトの主な制限は何ですか?

  • A. CoT プロンプトにより、小規模モデルのエラー分析が簡素化され、各推論ステップでの間違いの特定と修正が容易になります。
  • B. CoT プロンプトにより段階的な出力が保証され、小規模なモデルでも複雑な問題を確実に解決できます。
  • C. CoT プロンプトには比較的大規模なモデルが必要です。モデルが小さいと、論理的に見えても実際には正しくない推論チェーンが生成され、パフォーマンスの低下につながる可能性があります。
  • D. CoT プロンプトにより、小規模言語モデルと大規模言語モデルの両方の出力の論理精度が一貫して向上します。

What is a key limitation of Chain-of-Thought (CoT) prompting when using smaller language models for reasoning tasks?

  • A. CoT prompting simplifies error analysis for small models, making it easy to identify and correct mistakes at each reasoning step.
  • B. CoT prompting ensures step-by-step outputs, enabling even small models to solve complex problems reliably.
  • C. CoT prompting requires relatively large models; smaller models may produce reasoning chains that appear logical but are actually incorrect, leading to poorer performance.
  • D. CoT prompting consistently improves the logical accuracy of outputs for both small and large language models.