Skip to content

Commit

Permalink
Copy Files From Source Repo (2024-06-25 03:31)
Browse files Browse the repository at this point in the history
  • Loading branch information
olprod committed Jun 25, 2024
1 parent 6fd30a4 commit a829250
Show file tree
Hide file tree
Showing 105 changed files with 1,023 additions and 133 deletions.
Binary file not shown.
Binary file not shown.
11 changes: 11 additions & 0 deletions Allfiles/Labs/00-Setup/VM-Setup.txt
Original file line number Diff line number Diff line change
@@ -0,0 +1,11 @@
## Machine requirements

In order to complete certain labs, you need access to a SQL Server instance to restore the sample database.

- Use SQL Server Management Studio (SSMS) to connect to "localhost"

Restore AdventureWorksDW2022.bak database to SQL Server localhost.

Install the most recent version of Power BI Desktop application.


6 changes: 6 additions & 0 deletions Allfiles/Labs/01/Assets/01-Snippets.txt
Original file line number Diff line number Diff line change
@@ -0,0 +1,6 @@
>> Use SQL to query tables
==================================================
SELECT Item, SUM(Quantity * UnitPrice) AS Revenue
FROM sales
GROUP BY Item
ORDER BY Revenue DESC;
11 changes: 7 additions & 4 deletions Instructions/Labs/01-lakehouse.md
Original file line number Diff line number Diff line change
Expand Up @@ -43,7 +43,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

## ファイルをアップロードする

Fabric には、Power Query に基づいてビジュアル ツールを使用して定義できるデータの外部ソースとデータ フロー (Gen 2) をコピーするパイプラインの組み込みサポートなど、レイクハウスにデータを読み込むための複数の方法が用意されています。 しかし、少量のデータを取り込む最も簡単な方法の 1 つは、ローカル コンピューター (または該当する場合はラボ VM) からファイルまたはフォルダーをアップロードすることです。
Fabric には、Power Query に基づいてビジュアル ツールを使用して定義できるデータを外部ソースとデータ フロー (Gen 2) からコピーするパイプラインの組み込みサポートなど、レイクハウスにデータを読み込むための複数の方法が用意されています。 しかし、少量のデータを取り込む最も簡単な方法の 1 つは、ローカル コンピューター (または該当する場合はラボ VM) からファイルまたはフォルダーをアップロードすることです。

1. `https://raw.githubusercontent.com/MicrosoftLearning/dp-data/main/sales.csv` から [sales.csv](https://raw.githubusercontent.com/MicrosoftLearning/dp-data/main/sales.csv) ファイルをダウンロードし、ローカル コンピューター (または該当する場合はラボ VM) に **sales.csv** として保存します。

Expand Down Expand Up @@ -98,6 +98,7 @@ Fabric には、Power Query に基づいてビジュアル ツールを使用し
GROUP BY Item
ORDER BY Revenue DESC;
```
> ****:ラボ VM を使っていて SQL クエリの入力に問題がある場合は、`https://github.com/MicrosoftLearning/mslearn-fabric/raw/main/Allfiles/Labs/01/Assets/01-Snippets.txt` から [01-Snippets.txt](https://github.com/MicrosoftLearning/mslearn-fabric/raw/main/Allfiles/Labs/01/Assets/01-Snippets.txt) ファイルをダウンロードして VM に保存できます。 その後、テキスト ファイルからクエリをコピーできます。

3. **[▷] (実行)** ボタンを使用してクエリを実行し、結果を表示します。これには、各製品の総収益が表示されるはずです。

Expand Down Expand Up @@ -134,9 +135,11 @@ Fabric には、Power Query に基づいてビジュアル ツールを使用し

1. [SQL エンドポイント] ページの下部にある **[モデル]** タブを選びます。セマンティック モデルのデータ モデル スキーマが表示されます。

![セマンティック モデルのスクリーンショット。](./Images/data-model.png)
![スクリーンショット 2024-04-29 155248](https://github.com/afelix-95/mslearn-fabric/assets/148110824/ba9bd67d-8968-4c46-ac7a-f96a9f697f4c)

> ****:この演習では、セマンティック モデルは 1 つのテーブルで構成されます。 実際のシナリオでは、レイクハウスに複数のテーブルを作成し、それぞれがモデルに含まれる可能性があります。 その後、モデル内のこれらのテーブル間のリレーションシップを定義できます。
> **1**: この演習では、セマンティック モデルは 1 つのテーブルで構成されます。 実際のシナリオでは、レイクハウスに複数のテーブルを作成し、それぞれがモデルに含まれる可能性があります。 その後、モデル内のこれらのテーブル間のリレーションシップを定義できます。

> **2**:ビュー `frequently_run_queries``long_running_queries``exec_sessions_history``exec_requests_history` は、ファブリックによって自動的に作成される `queryinsights` スキーマの一部です。 これは、SQL 分析エンドポイントでの履歴クエリ アクティビティの総合的なビューを提供する機能です。 この機能はこの演習の範囲外であるため、現時点ではこれらのビューは無視してください。

2. メニュー リボンで、 **[レポート]** タブを選択します。次に、 **[新しいレポート]** を選択します。 レポートをデザインできる新しいブラウザー タブが開きます。

Expand Down Expand Up @@ -169,4 +172,4 @@ Fabric には、Power Query に基づいてビジュアル ツールを使用し

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
8 changes: 4 additions & 4 deletions Instructions/Labs/02-analyze-spark.md
Original file line number Diff line number Diff line change
Expand Up @@ -270,11 +270,11 @@ Apache Spark でデータを操作するには、"ノートブック" を作成
> **注**: 一般に、*Parquet* 形式は、分析ストアへの追加の分析またはインジェストに使用するデータ ファイルに適しています。 Parquet は、ほとんどの大規模な Data Analytics システムでサポートされている非常に効率的な形式です。 実際、データ変換の要件が、単に別の形式 (CSV など) から Parquet にデータを変換することだけである場合があります。
2. セルを実行し、データが保存されたことを示すメッセージを待ちます。 次に、左側の **[レイクハウス]** ペインの **[ファイル]** ノードの **[...]** メニューで **[更新]** を選び、**transformed_orders** フォルダーを選んで、**orders** という名前の新しいフォルダーが含まれることを確認します。これには、1 つ以上の Parquet ファイルが含まれています。
2. セルを実行し、データが保存されたことを示すメッセージを待ちます。 次に、左側の **[レイクハウス]** ペインの **[ファイル]** ノードの **[...]** メニューで **[更新]** を選び、**transformed_data** フォルダーを選んで、**orders** という名前の新しいフォルダーが含まれることを確認します。これには、1 つ以上の Parquet ファイルが含まれています。
![Parquet ファイルを含むフォルダーのスクリーンショット。](./Images/saved-parquet.png)
3. 次のコードを含む新しいセルを追加して、**transformed_orders/orders** フォルダー内の Parquet ファイルから新しいデータフレームを読み込みます。
3. 次のコードを含む新しいセルを追加して、**transformed_data/orders** フォルダー内の Parquet ファイルから新しいデータフレームを読み込みます。
```Python
orders_df = spark.read.format("parquet").load("Files/transformed_data/orders")
Expand Down Expand Up @@ -358,7 +358,7 @@ PySpark コードが含まれているセルに SQL ステートメントを埋
GROUP BY YEAR(OrderDate)
ORDER BY OrderYear;
```
2. このセルを実行し、結果を確認します。 次の点に注意してください。
- セルの先頭にある `%%sql` 行 (*magic* と呼ばれます) は、このセル内でこのコードを実行するには、PySpark ではなく、Spark SQL 言語ランタイムを使用する必要があることを示しています。
- この SQL コードは、前に作成した **salesorder** テーブルを参照します。
Expand Down Expand Up @@ -587,4 +587,4 @@ PySpark コードが含まれているセルに SQL ステートメントを埋
1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
2 changes: 1 addition & 1 deletion Instructions/Labs/03-delta-lake.md
Original file line number Diff line number Diff line change
Expand Up @@ -324,4 +324,4 @@ Delta Lake では、"ストリーミング" データがサポートされてい

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
2 changes: 1 addition & 1 deletion Instructions/Labs/03b-medallion-lakehouse.md
Original file line number Diff line number Diff line change
Expand Up @@ -612,4 +612,4 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
16 changes: 9 additions & 7 deletions Instructions/Labs/04-ingest-pipeline.md
Original file line number Diff line number Diff line change
Expand Up @@ -39,7 +39,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

データを簡単に取り込むには、パイプラインで**データのコピー** アクティビティを使用して、データをソースから抽出し、レイクハウス内のファイルにコピーします。

1. レイクハウスの **[ホーム]** ページで **[新しいデータ パイプライン]** を選択し**Ingest Sales Data** という名前の新しいデータ パイプラインを作成します。
1. ご自分のレイクハウスの **[ホーム]** ページで**[データの取得]****[新しいデータ パイプライン]** の順に選択し**Ingest Sales Data** という名前の新しいデータ パイプラインを作成します。
2. **データのコピー** ウィザードが自動的に開かない場合は、パイプライン エディター ページで **[データのコピー]** を選択します。
3. **データのコピー** ウィザードの **[データ ソースの選択]** ページにある **[データ ソース]** セクションで、 **[汎用プロトコル]** タブを選択し、 **[HTTP]** を選択します。

Expand All @@ -49,8 +49,9 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ
- **URL**: `https://raw.githubusercontent.com/MicrosoftLearning/dp-data/main/sales.csv`
- **接続**: 新しい接続の作成
- **接続名**: "一意の名前を指定します"**
- **認証の種類**: Basic ("ユーザー名とパスワードは空白のままにしておきます")**
5. **[次へ]** を選択します。 次に、次の設定が選択されていることを確認します。
- **データ ゲートウェイ**: (なし)
- **認証の種類**: 匿名
5. [**次へ**] を選択します。 次に、次の設定が選択されていることを確認します。
- **相対 URL**: *空白のまま*
- **要求メソッド**:GET
- **追加ヘッダー** :*空白のまま*
Expand All @@ -64,7 +65,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ
- **最初の行をヘッダーとして使用**: 選択
- **圧縮の種類**: なし
7. **[データのプレビュー]** を選択すると、取り込まれたデータのサンプルが表示されます。 次に、データ プレビューを閉じて、 **[次へ]** を選択します。
8. **[データのコピー先の選択]** ページで、既存のレイクハウスを選択します。 **[次へ]** を選択します。
8. **[データ変換先に接続]** ページで、既存のレイクハウスを選択します。 **[次へ]** を選択します。
9. データのコピー先オプションを次のように設定し、 **[次へ]** を選択します。
- **ルート フォルダー**: Files
- **フォルダーのパス名**: new_data
Expand Down Expand Up @@ -148,8 +149,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ
- **全般**:
- **名前**: Delete old files
- **ソース**
- **データ ストアの種類**: ワークスペース
- **ワークスペース データ ストア**: "お使いのレイクハウス"**
- **[接続]**:"自分のレイクハウス"**
- **ファイル パスの種類**: ワイルドカード ファイル パス
- **フォルダー パス**: Files / **new_data**
- **ワイルドカード ファイル名**: *.csv
Expand Down Expand Up @@ -181,6 +181,8 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

![データフロー アクティビティを含むパイプラインのスクリーンショット。](./Images/pipeline-run.png)

> 注: エラー メッセージ "Spark SQL クエリはレイクハウスのコンテキストでのみ使用できます。** 次の手順に進むには、レイクハウスをアタッチしてください" を受け取る場合:ノートブックを開き、左ペインで作成したレイクハウスを選び、**[すべてのレイクハウスの削除]** を選び、再度追加します。 パイプライン デザイナーに戻り、**[▷ 実行]** を選びます。

8. ポータルの左端にあるハブ メニュー バーで、お使いのレイクハウスを選択します。
9. **エクスプローラー** ペインで、**Tables** を展開し、**new_sales** テーブルを選択して、それに含まれるデータのプレビューを表示します。 このテーブルは、パイプラインによって実行されたときにノートブックによって作成されました。

Expand All @@ -194,4 +196,4 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
5 changes: 2 additions & 3 deletions Instructions/Labs/05-dataflows-gen2.md
Original file line number Diff line number Diff line change
Expand Up @@ -93,7 +93,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

6. **[発行]** を選択してデータフローを発行します。 次に、ワークスペースにデータフロー **Dataflow 1** が作成されるまで待ちます。

7. 発行されたら、ワークスペース内のデータフローを右クリックし、 **[プロパティ]** を選択して、データフローの名前を変更できます。
7. 発行されたら、ワークスペース内のデータフローの隣にある省略記号 **(...)** をクリックし、**[プロパティ]** を選択して、データフローの名前を変更できます。

## パイプラインにデータフローを追加する

Expand Down Expand Up @@ -136,5 +136,4 @@ Microsoft Fabric でのデータフローの調査が完了したら、この演
1. ブラウザーで Microsoft Fabric に移動します。
1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示します。
1. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
1. **[その他]** セクションで、 **[このワークスペースの削除]** を選択します。
1. 変更を Power BI Desktop に保存しないでください。既に保存されている場合は、.pbix ファイルを削除してください。
1. **[全般]** セクションで、**[このワークスペースの削除]** を選択します。
2 changes: 1 addition & 1 deletion Instructions/Labs/06-data-warehouse.md
Original file line number Diff line number Diff line change
Expand Up @@ -243,4 +243,4 @@ SQL コードを記述する代わりに、グラフィカル クエリ デザ

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示してください。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
4 changes: 2 additions & 2 deletions Instructions/Labs/06a-data-warehouse-load.md
Original file line number Diff line number Diff line change
Expand Up @@ -29,7 +29,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

1. **Synapse Data Engineering** のホーム ページで、任意の名前を指定して新しい**レイクハウス**を作成します。

1 分ほどすると、新しい空のレイクハウスが作成されます。 分析のために、データ レイクハウスにいくつかのデータを取り込む必要があります。 これを行うには複数の方法がありますが、この演習では、CVS ファイルをローカル コンピューター (または、該当する場合はラボ VM) にダウンロードし、レイクハウスにアップロードします。
1 分ほどすると、新しい空のレイクハウスが作成されます。 分析のために、データ レイクハウスにいくつかのデータを取り込む必要があります。 これを行うには複数の方法がありますが、この演習では、CSV ファイルをローカル コンピューター (または、該当する場合はラボ VM) にダウンロードし、レイクハウスにアップロードします。

1. この演習用のファイルを `https://github.com/MicrosoftLearning/dp-data/raw/main/sales.csv` からダウンロードします。

Expand Down Expand Up @@ -249,4 +249,4 @@ Sales データのファクト テーブルとディメンションを作成し

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示してください。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
2 changes: 1 addition & 1 deletion Instructions/Labs/06b-data-warehouse-query.md
Original file line number Diff line number Diff line change
Expand Up @@ -184,4 +184,4 @@ SQL クエリ エディターでは、IntelliSense、コード補完、構文の

1. 左側のバーで、ワークスペースのアイコンを選択して、それに含まれるすべての項目を表示してください。
2. ツール バーの **[...]** メニューで、 **[ワークスペースの設定]** を選択してください。
3. **[その他]** セクションで、 **[このワークスペースの削除]** を選択してください
3. **[全般]** セクションで、**[このワークスペースの削除]** を選択します
Loading

0 comments on commit a829250

Please sign in to comment.