NVIDIA NCP-AAI RAG, Retrieval, and Data Integration

Use for RAG architecture, embeddings, reranking, vector databases, schema interpretation, API/data ingestion, and retrieval quality.

試験Exams
NCP-AAI
問題数Questions
11
コメント数Comments
1
1 11

表示中 11 / 11 問

1. NCP-AAI トピック 6 問題 691. NCP-AAI Topic 6 Question 69

問題Question

ある企業は、大規模なドキュメント コレクションやクライアント データベースからリアルタイムで情報を取得する必要がある AI エージェントを構築しています。チームは、迅速かつ正確な取得を保証し、高いデータ品質を維持したいと考えています。
このようなエージェントの効率的な知識統合と効果的なデータ処理を最もよくサポートするアプローチはどれですか?

  • A. すべてのデータ クエリに特化した検索メカニズムが必要ないため、従来のリレーショナル データベースを使用する
  • B. データ品質チェックや拡張機能がすでに組み込まれているクライアント データ ソースを統合して、展開を迅速化します。
  • C. 推論中に外部の知識ソースに接続するのではなく、事前トレーニングされたモデルに依存する
  • D. 関連情報へのアクセスを高速化するために、ベクター データベースと組み合わせた検索拡張生成 (RAG) パイプラインを実装します。

A company is building an AI agent that must retrieve information from large document collections and client databases in real time. The team wants to ensure fast, accurate retrieval and maintain high data quality.
Which approach best supports efficient knowledge integration and effective data handling for such an agent?

  • A. Using traditional relational databases because they don’t need specialized retrieval mechanisms for all data queries
  • B. Integrating client data sources as they already incorporate data quality checks or augmentation to speed up deployment
  • C. Relying on pre-trained models instead of connecting to external knowledge sources during inference
  • D. Implementing retrieval-augmented generation (RAG) pipelines combined with vector databases to accelerate access to relevant information

2. NCP-AAI トピック 6 問題 702. NCP-AAI Topic 6 Question 70

問題Question

RAG Fusion は主に何を達成するために設計されていますか?

  • A. 取得したすべてのチャンクを保存するための個別の専用データベースを作成します。
  • B. 検索の必要性を最小限に抑え、LLM が内部の知識から直接応答を生成できるようにします。
  • C. 取得した複数のチャンクからの情報を、LLM によって生成された単一の応答にブレンドします。
  • D. 取得したすべてのチャンクを単一の言語に自動的に翻訳して統合します。

What is RAG Fusion primarily designed to achieve?

  • A. Creating a separate, dedicated database for storing all the retrieved chunks.
  • B. Minimizing the need for retrieval, allowing the LLM to generate responses directly from its internal knowledge.
  • C. Blending information from multiple retrieved chunks into a single response generated by the LLM.
  • D. Automatically translating and integrating all retrieved chunks into a single language.

3. NCP-AAI トピック 6 問題 713. NCP-AAI Topic 6 Question 71

問題Question

エージェントの主なタスクは、デバイス管理プラットフォーム API からデータを収集することです。この API は頻繁に JSON 形式でデータを返しますが、基礎となるスキーマは詳細なドキュメントなしで進化する可能性があります。
スキーマが変更される可能性があるにもかかわらず、エージェントがデータへの一貫したアクセスを維持するための最も効果的な戦略は何ですか?

  • A. 現在の API スキーマを継続的に監視して適用する JSON スキーマ バリデーターを構築します。
  • B. API 応答の構造を手動で検査し、変更が検出された場合にエージェントのコードを更新します。
  • C. API の履歴応答パターンに基づいて固定データ抽出メソッドを構築します。
  • D. API 応答構造の変化に適応できる柔軟なデータ マッピング レイヤーを構築します。

Your agent’s primary task is to collect data from a device management platform API. This API frequently returns data in JSON format, but the underlying schemas can evolve without detailed documentation.
What’s the most effective strategy for the agent to maintain consistent access to the data, despite potential schema changes?

  • A. Building a JSON schema validator that constantly monitors and enforces the current API schema.
  • B. Manually inspecting the API response’s structure and updating the agent’s code when a change is detected.
  • C. Building a fixed data extraction method based on the API’s historical response patterns.
  • D. Building a flexible data mapping layer that can adapt to changes in the API response structure.

4. NCP-AAI トピック 6 問題 724. NCP-AAI Topic 6 Question 72

問題Question

あなたは検索拡張生成 (RAG) パイプラインを改善しており、埋め込みモデルのプロパティを活用してソリューションを改善したいと考えています。
RAG システム内で、最初の取得後に取得したチャンクの再ランキングが重要なステップとなるのはなぜですか?

  • A. 再ランキングにより、最初の検索方法に関係なく、検索の精度が向上します。
  • B. 再ランキングの目的は、LLM によって生成される応答全体の長さを短縮することです。
  • C. 再ランキングにより、クエリの意味論的意図との関連性に基づいてチャンクに優先順位を付けることができます。
  • D. 再ランキングは主に、取得したチャンクの視覚的な表示を最適化することに焦点を当てます。

You are improving your Retrieval-Augmented Generation (RAG) pipeline, and you want to exploit the properties of the embedding model to improve the solutions.
Within a RAG system, why is reranking retrieved chunks a crucial step after initial retrieval?

  • A. Reranking improves retrieval accuracy, regardless of the initial retrieval method.
  • B. Reranking’s purpose is to reduce the overall length of the response generated by the LLM.
  • C. Reranking allows for prioritizing chunks based on relevance to the semantic intent of the query.
  • D. Reranking primarily focuses on optimizing the visual presentation of the retrieved chunks.

5. NCP-AAI トピック 6 問題 735. NCP-AAI Topic 6 Question 73

問題Question

RAG 導入では、取得フェーズにおけるパフォーマンスのボトルネック、特にベクトル データベースへのアクセスにかかる時間を特定しました。
RAG アーキテクチャを考慮した場合、次の最適化戦略のうち、マイクロサービスのベスト プラクティスと最も一致するものはどれですか?

  • A. 関連性に関係なく、取得マイクロサービスが最初に一致したチャンクをすぐに返す「キャッシュ アンド チェック」メカニズムを実装します。
  • B. Increase the size of the LLM model itself, because it will automatically accelerate the overall response time.
  • C. ベクトル データベースにクエリを実行し、関連するチャンクを返すことのみを担当する専用のサービスを導入します。
  • D. LLM プロンプトをより短く簡潔になるように最適化し、計算負荷を大幅に軽減します。

In your RAG deployment, you’ve identified a performance bottleneck in the retrieval phase – specifically, the time it takes to access the vector database.
Which of the following optimization strategies is most aligned with micro-service best practices, considering your RAG architecture?

  • A. Implement a “cache-and-check” mechanism where the retrieval microservice immediately returns the first matching chunk, regardless of relevance.
  • B. Increase the size of the LLM model itself, because it will automatically accelerate the overall response time.
  • C. Introduce a dedicated service responsible solely for querying the vector database and returning relevant chunks.
  • D. Optimize the LLM prompt to be shorter and more concise, significantly reducing the computational load.

6. NCP-AAI トピック 6 問題 746. NCP-AAI Topic 6 Question 74

問題Question

エージェントは、サービス管理 API を通じてタスクを管理するように設計されています。 API は詳細なイベント ログで応答しますが、これらのログにはメタデータと構造化データの両方が含まれます。
エージェントがこれらのログのデータを正しく解釈して処理できるようにするには、最も賢明なアプローチは何でしょうか?

  • A. Employ a specialized parser that adheres to the API’s documentation, to insure strict adherence to structured data.
  • B. エージェントが解析ロジックを動的に調整できるモジュール設計を採用しています。
  • C. 人間参加型のアプローチを使用し、各ログ エントリを手動で検査して解釈します。
  • D. タイプに関係なく、すべてのデータ フィールドを抽出する特殊なパーサーを採用します。

Your agent is designed to manage tasks through a service management API. The API responds with detailed event logs, but these logs contain both metadata and structured data.
To ensure the agent correctly interprets and processes the data from these logs, what’s the most prudent approach?

  • A. Employ a specialized parser that adheres to the API’s documentation, to insure strict adherence to structured data.
  • B. Employing a modular design that allows the agent to dynamically adjust its parsing logic.
  • C. Using a human-in-the-loop approach, manually inspecting and interpreting each log entry.
  • D. Employ a specialized parser that extracts all data fields, regardless of their type.

7. NCP-AAI トピック 6 問題 757. NCP-AAI Topic 6 Question 75

問題Question

配置された法務アシスタントは優れたパフォーマンスを発揮しますが、時折、間違った法的用語を繰り返します。
事実の信頼性を最も高める調整方法はどれですか?

  • A. 取得を静的なハードコーディングされたテキスト スニペットに置き換えます
  • B. より詳細なプロンプトを使用して、正しい定義を強化します
  • C. 出力のランダム性を高めて探索を改善する
  • D. 生成中に外部ツールを使用してファクトチェック手順を追加する

Your deployed legal assistant shows great performance but occasionally repeats incorrect legal terms.
Which tuning method best improves factual reliability?

  • A. Replace retrieval with static hard-coded text snippets
  • B. Use more verbose prompts to reinforce correct definitions
  • C. Increase output randomness to improve exploration
  • D. Add fact-checking steps using external tools during generation

8. NCP-AAI トピック 6 問題 768. NCP-AAI Topic 6 Question 76

問題Question

AI エンジニアは、RAG システム内でのデータ取得パフォーマンスを実験しています。
次の手法のうち、取得したチャンクの品質を向上させる可能性が最も高いのはどれですか?

  • A. 明確なキーワードと同義語を元のクエリに追加して、検索範囲を広げます。
  • B. LLM のコンテキスト ウィンドウ内に収まるように長いクエリを切り詰めます。
  • C. 単一の非常に具体的なキーワードを使用して、正確な一致を保証します。
  • D. 元のクエリを変更せずに LLM に直接フィードします。

An AI Engineer is experimenting with data retrieval performance within a RAG system.
Which of the following techniques is most likely to improve the quality of the retrieved chunks?

  • A. Adding clarifying keywords and synonyms to the original query to broaden the search.
  • B. Truncating long queries to fit within the LLM’s context window.
  • C. Using a single, highly specific keyword to guarantee a precise match.
  • D. Directly feeding the original query to the LLM without any modification.

9. NCP-AAI トピック 6 問題 779. NCP-AAI Topic 6 Question 77

問題Question

RAG Fusion を使用する RAG システムを構築しています。
取得した複数のチャンクからの情報を結合する方法を決定する場合、次のアプローチのうちどれが最も効果的ですか?

  • A. LLM に情報を提示する前に、他のチャンクと矛盾するとみなされるチャンクをフィルタリングして除外します。
  • B. LLM を使用して、各チャンク内の最も重要な文を自動的に識別し、それらを結合します。
  • C. 各チャンクから最も関連性の高い文を手動で選択し、LLM プロンプトに挿入します。
  • D. 取得したすべてのチャンクからのテキストを 1 つのブロックに連結して、応答を形成します。

You’re building a RAG system that uses RAG Fusion.
Which of the following approaches would be most effective in determining how to combine information from multiple retrieved chunks?

  • A. Filtering out chunks considered inconsistent with others before presenting information to the LLM.
  • B. Using the LLM to automatically identify the most important sentences within each chunk and combine them.
  • C. Manually selecting the most relevant sentences from each chunk and inserting them into the LLM prompt.
  • D. Concatenating the text from all retrieved chunks into a single block to form the response.

10. NCP-AAI トピック 6 問題 7810. NCP-AAI Topic 6 Question 78

問題Question

あなたは RAG (Retrieval-Augmented Generation) システムのアーキテクチャを設計しており、データの鮮度を確保し、待ち時間を最小限に抑えることに懸念を抱いています。
アーキテクチャを設計する際に最も重要な考慮事項は次のうちどれですか?

  • A. すべてのデータ取得と LLM インタラクションを処理する大規模なサービスを備えた統合アーキテクチャを採用します。これにより、一貫したパフォーマンスが保証され、デバッグが簡素化されます。
  • B. 同期のブロックレベルのアプローチを使用します。LLM はデータベースの更新を継続的に監視し、各プロンプトでデータセット全体を取得します。
  • C. すべてのデータに対して単一の集中データベースを実装し、LLM が最新の情報を取得するための同期ポーリング メカニズムで更新されます。
  • D. 個別のサービスがデータのインデックス作成、取得、LLM プロンプトを処理する、疎結合のイベント駆動型マイクロサービス アーキテクチャを使用します。

You are designing the architecture for a RAG (Retrieval-Augmented Generation) system, and you are concerned about ensuring data freshness and minimizing latency.
Which of the following is the most important consideration when designing the architecture?

  • A. Employing a consolidated architecture with a large service handling all data retrieval and LLM interaction. This ensures consistent performance and simplifies debugging.
  • B. Using a synchronous, block-level approach, where the LLM continuously monitors the database for updates and retrieves the entire dataset with each prompt.
  • C. Implementing a single, centralized database for all data, updated with a synchronous polling mechanism for the LLM to retrieve the latest information.
  • D. Use a loosely coupled, event-driven micro-service architecture where separate services handle data indexing, retrieval, and LLM prompting.

11. NCP-AAI トピック 6 問題 7911. NCP-AAI Topic 6 Question 79

問題Question

あなたは、ソーシャルメディアでのブランドの言及を監視するエージェントを開発しています。ソーシャル メディア プラットフォームの API は、ブランドが実際に言及されていたというさまざまな信頼度スコアでブランドに言及するデータを返しますが、これらのスコアは一貫して調整されていません。
これらの信頼性スコアの信頼性の低さを考慮すると、エージェントがメディアでのブランドの言及を確実に処理していることを保証する最も信頼できる方法は何でしょうか?

  • A. 基本的なキーワード検索でメンションをフィルタリングし、API データをファーストパス フィルターとして利用して、信頼スコアが非常に低いメンションを削除するアプローチを使用します。
  • B. 信頼度スコアに関係なく、すべての言及を同様に信頼できるものとして扱い、一貫性のないデータ処理ワークフローを適用するアプローチを使用します。
  • C. しきい値ベースのアプローチを使用し、信頼スコアが、適切に調整された API に使用される一般的なしきい値と一致する事前定義されたレベルを超えた場合にのみメンションを受け入れます。
  • D. エージェントのテキスト分析と API の信頼スコアを組み合わせたアプローチを使用し、メンションを特定する際にエージェントの評価をより重く評価します。

You’re developing an agent that monitors social media mentions of your brand. The social media platform’s API returns data mentioning your brand with varying confidence scores that the brand was actually being mentioned, but these scores aren’t consistently calibrated.
Considering the unreliability of these confidence scores, what’s the most reliable way for the agent to insure it is truly processing media mentions of the brand?

  • A. Using an approach that filters mentions with basic keyword search and removes those with exceptionally low confidence scores, relying on the API data as a first-pass filter.
  • B. Using an approach that treats all mentions as equally reliable, regardless of their confidence scores, and applies a uniform data processing workflow to minimize inconsistency.
  • C. Using a threshold-based approach, accepting mentions only if their confidence score exceeds a predefined level that aligns with typical thresholds used for well-calibrated APIs.
  • D. Using an approach that combines the agent’s text analysis with the API’s confidence score, weighing the agent’s assessment more heavily when identifying mentions.