diff --git a/Instructions/01-Explore-ai-studio.md b/Instructions/01-Explore-ai-studio.md index f8526a3..b07f38c 100644 --- a/Instructions/01-Explore-ai-studio.md +++ b/Instructions/01-Explore-ai-studio.md @@ -23,26 +23,19 @@ lab: プロジェクトをホストするには、Azure サブスクリプション内に Azure AI ハブが必要です。 このリソースは、プロジェクトの作成中に作成するか、事前にプロビジョニングすることができます (この演習ではこちらを行います)。 -1. **[管理]** セクションで、**[すべてのハブ]** を選択した後、**[+ 新しいハブ]** を選択します。 次の設定を使用して新しいハブを作成します。 +1. **[管理]** セクションで、**[すべてのリソース]** を選択し、**[+ 新しいハブ]** を選択します。 次の設定を使用して新しいハブを作成します。 - **ハブ名**:*一意の名前* - **[サブスクリプション]**:"*ご自身の Azure サブスクリプション*" - **[リソース グループ]**: "一意の名前で新しいリソース グループを作成するか、既存のものを選びます"** - - **[場所]**: *以下のいずれかのリージョンから**ランダム**に選択する*\* - - オーストラリア東部 - - カナダ東部 - - 米国東部 - - 米国東部 2 - - フランス中部 - - 東日本 - - 米国中北部 - - スウェーデン中部 - - スイス北部 - - 英国南部 + - **場所**: **[選択に関するヘルプ]** を選択し、次に [場所ヘルパー] ウィンドウで **gpt-35-turbo** を選択し、推奨されるリージョンを選択します\* - **Azure AI サービスまたは Azure OpenAI への接続**:新しい AI サービスを作成するか既存のものを使用するかを選択する** - **Azure AI 検索への接続**:接続をスキップする > \* Azure OpenAI リソースは、リージョンのクォータによってテナント レベルで制限されます。 一覧表示されているリージョンには、この演習で使用されるモデル タイプの既定のクォータが含まれています。 リージョンをランダムに選択すると、テナントを他のユーザーと共有するシナリオで、1 つのリージョンがクォータ制限に達するリスクが軽減されます。 演習の後半でクォータ制限に達した場合は、別のリージョンに別のリソースを作成する必要が生じる可能性があります。 +1. **[次へ]** を選択し、構成を確認します。 +1. **[作成]** を選択し、プロセスが完了するまで待ちます。 + Azure AI ハブが作成されると、次の画像のようになるはずです。 ![Azure AI Studio 内の Azure AI ハブの詳細のスクリーンショット。](./media/azure-ai-resource.png) @@ -76,16 +69,17 @@ Azure AI ハブは、1 つ以上の "プロジェクト" を定義できる共 プロジェクトを使って、生成 AI モデルに基づいた複雑な AI ソリューションを作成できます。 Azure AI Studio で使用できるすべての開発オプションを詳しく説明することはこの演習の範囲を超えていますが、プロジェクト内でモデルを操作するための基本的な方法をいくつか説明します。 1. プロジェクトの左側のペインの **[コンポーネント]** セクションで、**[デプロイ]** ページを選択します。 -1. **[デプロイ]** ページの **[モデル デプロイ]** タブで、**[+ デプロイの作成]** を選択します。 +1. **[デプロイ]** ページの **[モデル デプロイ]** タブで、**[+ モデルのデプロイ]** を選択します。 1. 一覧から **gpt-35-turbo** モデルを検索し、選択して確認します。 1. 以下の設定を使用してモデルをデプロイします。 - **デプロイ名**:"モデル デプロイの一意の名前"** - - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* - **デプロイの種類**:Standard - - **Azure OpenAI リソースに接続済み**:ハブの作成時に作成された既定の接続を選択する** + - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **AI リソース**: *以前に作成したリソースを選択します* - **1 分あたりのトークン数のレート制限 (1,000 単位)**:5,000 - - **コンテンツ フィルター**: 既定 - + - **コンテンツ フィルター**: DefaultV2 + - **動的クォータを有効にする**: 無効 + > **注**:TPM を減らすと、ご利用のサブスクリプション内で使用可能なクォータが過剰に消費されることを回避するのに役立ちます。 この演習で使用するデータには、5,000 TPM で十分です。 1. モデルがデプロイされたら、デプロイの概要ページで **[プレイグラウンドで開く]** を選択します。 diff --git a/Instructions/02-Explore-model-catalog.md b/Instructions/02-Explore-model-catalog.md index 67e8b7a..467e66e 100644 --- a/Instructions/02-Explore-model-catalog.md +++ b/Instructions/02-Explore-model-catalog.md @@ -18,22 +18,12 @@ Azure AI Studio のモデル カタログは、さまざまなモデルを試し 1. **[管理]** セクションで、**[すべてのリソース]** を選択し、**[+ 新しいハブ]** を選択します。 次の設定を使用して新しいハブを作成します。 - **ハブ名**:*一意の名前* - **[サブスクリプション]**:"*ご自身の Azure サブスクリプション*" - - **[リソース グループ]**: "一意の名前で新しいリソース グループを作成するか、既存のものを選びます"** - - **[場所]**: *以下のいずれかのリージョンから**ランダム**に選択する*\* - - オーストラリア東部 - - カナダ東部 - - 米国東部 - - 米国東部 2 - - フランス中部 - - 東日本 - - 米国中北部 - - スウェーデン中部 - - スイス北部 - - 英国南部 - - **Azure AI サービスまたは Azure OpenAI への接続**:新しい AI サービスを作成するか既存のものを使用するかを選択する** + - **[リソース グループ]**: "新しいリソース グループ"** + - **場所**: **[選択に関するヘルプ]** を選択し、次に [場所ヘルパー] ウィンドウで **gpt-35-turbo** を選択し、推奨されるリージョンを選択します\* + - **Azure AI サービスまたは Azure OpenAI への接続**:*新しい接続を作成する* - **Azure AI 検索への接続**:接続をスキップする - > \* Azure OpenAI リソースは、リージョンのクォータによってテナント レベルで制限されます。 一覧表示されているリージョンには、この演習で使用されるモデル タイプの既定のクォータが含まれています。 リージョンをランダムに選択すると、テナントを他のユーザーと共有するシナリオで、1 つのリージョンがクォータ制限に達するリスクが軽減されます。 演習の後半でクォータ制限に達した場合は、別のリージョンに別のリソースを作成する必要が生じる可能性があります。 + > \* Azure OpenAI リソースは、リージョンのクォータによってテナント レベルで制限されます。 場所ヘルパーに一覧表示されているリージョンには、この演習で使用されるモデル タイプの既定のクォータが含まれています。 リージョンをランダムに選択すると、1 つのリージョンがクォータ制限に達するリスクが軽減されます。 演習の後半でクォータ制限に達した場合は、別のリージョンに別のリソースを作成する必要が生じる可能性があります。 詳しくは、[リージョンごとのモデルの可用性](https://learn.microsoft.com/azure/ai-services/openai/concepts/models#gpt-35-turbo-model-availability)を参照してください Azure AI ハブが作成されると、次の画像のようになるはずです。 @@ -94,12 +84,13 @@ Azure OpenAI コレクションから、GPT-3.5 モデルと GPT-4 モデルを 1. 左側のメニューを使用して、**[開始]** セクションの **[モデル カタログ]** ページに移動します。 1. 次の設定を使用して、Azure AI によってキュレーションされた `gpt-35-turbo` モデルを検索してデプロイします。 - - **[デプロイ名]**: *モデル デプロイの一意の名前、GPT-3.5 モデルであることを示します* - - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **デプロイ名**:"モデル デプロイの一意の名前"** - **デプロイの種類**:Standard - - **Azure OpenAI リソースに接続済み**:ハブの作成時に作成された既定の接続を選択する** + - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **AI リソース**: *以前に作成したリソースを選択します* - **1 分あたりのトークン数のレート制限 (1,000 単位)**:5,000 - - **コンテンツ フィルター**: 既定 + - **コンテンツ フィルター**: DefaultV2 + - **動的クォータを有効にする**: 無効 ### [デプロイ] でモデルをデプロイする @@ -108,12 +99,13 @@ Azure OpenAI コレクションから、GPT-3.5 モデルと GPT-4 モデルを 1. 左側のメニューを使用して、**[コンポーネント]** セクションの **[デプロイ]** ページに移動します。 1. **[モデル デプロイ]** タブで、次の設定を使用して新しいデプロイを作成します。 - **[モデル]**: gpt-4 - - **[デプロイ名]**: *モデル デプロイの一意の名前、GPT-4 モデルであることを示します* - - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **デプロイ名**:"モデル デプロイの一意の名前"** - **デプロイの種類**:Standard - - **Azure OpenAI リソースに接続済み**:ハブの作成時に作成された既定の接続を選択する** + - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **AI リソース**: *以前に作成したリソースを選択します* - **1 分あたりのトークン数のレート制限 (1,000 単位)**:5,000 - - **コンテンツ フィルター**: 既定 + - **コンテンツ フィルター**: DefaultV2 + - **動的クォータを有効にする**: 無効 > **注**: モデル カタログのオプションとしてではなく、モデル ベンチマークが表示されているモデルがあることに気付いたかもしれません。 モデルの可用性は場所によって異なります。 場所は、デプロイするモデルを**場所ヘルパー**により指定し、デプロイできる場所の一覧を取得できる、AI ハブ レベルで指定されます。 @@ -132,11 +124,11 @@ Azure OpenAI コレクションから、GPT-3.5 モデルと GPT-4 モデルを You are an AI travel assistant that helps people plan their trips. Your objective is to offer support for travel-related inquiries, such as visa requirements, weather forecasts, local attractions, and cultural norms. ``` -1. **[変更の適用]**、**[チャットのクリア]** の順に選択します。 +1. **[保存]**、**[チャットのクリア]** の順に選択します。 1. チャット ウィンドウで、「`What can you do?`」というクエリを入力し、新しい応答を確認します。 前に受け取った回答とどう異なるかを確認します。 回答は旅行に限定されたものになりました。 1. 「`I'm planning a trip to London, what can I do there?`」と質問して会話を続けます。Copilot は旅行関連情報をたくさん提供します。 出力をさらに改善したい場合があるでしょう。 たとえば、回答をより簡潔にしたい場合があります。 1. メッセージの最後に「`Answer with a maximum of two sentences.`」を追加して、システム メッセージを更新します。 変更を適用し、チャットをクリアして、「`I'm planning a trip to London, what can I do there?`」という質問でもう一度チャットをテストします。Copilot が、質問に答えるだけはなく、会話を続けるようにもできます。 -1. メッセージの最後に「`End your answer with a follow-up question.`」を追加して、システム メッセージを更新します。 変更を適用し、チャットをクリアして、「`I'm planning a trip to London, what can I do there?`」という質問でもう一度チャットをテストします。 +1. メッセージの最後に「`End your answer with a follow-up question.`」を追加して、システム メッセージを更新します。 変更を保存し、チャットをクリアして、「`I'm planning a trip to London, what can I do there?`」という質問でもう一度チャットをテストします。 1. **[デプロイ]** を GPT-4 モデルに変更し、このセクションのすべての手順を繰り返します。 モデルの出力が異なる場合があることに注意してください。 1. 最後に、「`Who is the prime minister of the UK?`」という質問で両方のモデルをテストします。 この質問のパフォーマンスは、モデルの根拠性 (応答が事実について正確かどうか) に関連しています。 パフォーマンスは、モデル ベンチマークでの結論と関連していますか? diff --git a/Instructions/07-Evaluate-prompt-flow.md b/Instructions/07-Evaluate-prompt-flow.md index c1002a4..d3941d9 100644 --- a/Instructions/07-Evaluate-prompt-flow.md +++ b/Instructions/07-Evaluate-prompt-flow.md @@ -15,30 +15,18 @@ lab: 1. Web ブラウザーで [https://ai.azure.com](https://ai.azure.com) を開き、Azure の資格情報を使ってサインインします。 1. **[ホーム]** ページを選択してから、**[+ 新しいプロジェクト]** を選択します。 -1. **[新しいプロジェクトの作成]** ウィザードで、次の設定を使ってプロジェクトを作成します。 - - **プロジェクト名**:"プロジェクトの一意の名前"** - - **ハブ**:次の設定で新しいハブを作成します。** - - **ハブ名**:*一意の名前* - - **[サブスクリプション]**:"*ご自身の Azure サブスクリプション*" - - **[リソース グループ]**: "新しいリソース グループ"** - - **[場所]**: *以下のいずれかのリージョンから**ランダム**に選択する*\* - - オーストラリア東部 - - カナダ東部 - - 米国東部 - - 米国東部 2 - - フランス中部 - - 東日本 - - 米国中北部 - - スウェーデン中部 - - スイス北部 - - 英国南部 +1. **プロジェクトの作成**ウィザードで、プロジェクトの一意の名前を指定し、**[カスタマイズ]** を選択して次の設定を行います。 + - **ハブ名**:*一意の名前* + - **[サブスクリプション]**:"*ご自身の Azure サブスクリプション*" + - **[リソース グループ]**: "新しいリソース グループ"** + - **場所**: **[選択に関するヘルプ]** を選択し、次に [場所ヘルパー] ウィンドウで **gpt-35-turbo** を選択し、推奨されるリージョンを選択します\* - **Azure AI サービスまたは Azure OpenAI への接続**:*新しい接続を作成する* - **Azure AI 検索への接続**:接続をスキップする - > \* Azure OpenAI リソースは、リージョンのクォータによってテナント レベルで制限されます。 一覧表示されているリージョンには、この演習で使用されるモデル タイプの既定のクォータが含まれています。 リージョンをランダムに選択すると、1 つのリージョンがクォータ制限に達するリスクが軽減されます。 演習の後半でクォータ制限に達した場合は、別のリージョンに別のリソースを作成する必要が生じる可能性があります。 詳しくは、[リージョンごとのモデルの可用性](https://learn.microsoft.com/azure/ai-services/openai/concepts/models#gpt-35-turbo-model-availability)を参照してください + > \* Azure OpenAI リソースは、リージョンのクォータによってテナント レベルで制限されます。 場所ヘルパーに一覧表示されているリージョンには、この演習で使用されるモデル タイプの既定のクォータが含まれています。 リージョンをランダムに選択すると、1 つのリージョンがクォータ制限に達するリスクが軽減されます。 演習の後半でクォータ制限に達した場合は、別のリージョンに別のリソースを作成する必要が生じる可能性があります。 詳しくは、[リージョンごとのモデルの可用性](https://learn.microsoft.com/azure/ai-services/openai/concepts/models#gpt-35-turbo-model-availability)を参照してください -1. 構成を確認して、プロジェクトを作成します。 -1. プロジェクトが作成されるまで待ちます。 +1. **[次へ]** を選択し、構成を確認します。 +1. **[プロジェクトの作成]** を選択し、プロセスが完了するまで待ちます。 ## GPT モデルをデプロイする @@ -47,11 +35,12 @@ lab: 1. 左側のナビゲーション ウィンドウの **[コンポーネント]** で、**[デプロイ]** ページを選びます。 1. 次の設定で **gpt-35-turbo** モデルの新しいデプロイを作成します。 - **デプロイ名**:"モデル デプロイの一意の名前"** - - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* - **デプロイの種類**:Standard - - **Azure OpenAI リソースに接続済み**:既定の接続を選択します** + - **モデルのバージョン**: *Select the default version (既定のバージョンの選択)* + - **AI リソース**: *以前に作成したリソースを選択します* - **1 分あたりのトークン数のレート制限 (1,000 単位)**:5,000 - - **コンテンツ フィルター**: 既定 + - **コンテンツ フィルター**: DefaultV2 + - **動的クォータを有効にする**: 無効 1. モデルが展開されるまで待ちます。 展開の準備ができたら、**[プレイグラウンドで開く]** を選択します。 1. **システム メッセージ**を次のように変更します。 @@ -73,7 +62,7 @@ lab: 5. Encourage the user to ask follow-up questions for further assistance. ``` -1. **[変更の適用]** を選択します。 +1. **[保存]** を選択します。 1. チャット ウィンドウ内でクエリ「`What can you do?`」を入力して、言語モデルが想定どおりに動作していることを確認します。 これで、更新されたシステム メッセージを含むモデルが展開されたので、モデルを評価できます。 @@ -130,7 +119,7 @@ lab:

新しいプロンプト フローを作成するときにアクセス許可エラーが発生した場合は、次のトラブルシューティングを試してください。