Skip to content

Commit

Permalink
Copy Files From Source Repo (2024-03-08 17:40)
Browse files Browse the repository at this point in the history
  • Loading branch information
olprod committed Mar 9, 2024
1 parent 81f0037 commit 0db1281
Show file tree
Hide file tree
Showing 8 changed files with 34 additions and 21 deletions.
16 changes: 6 additions & 10 deletions Instructions/Labs/03-delta-lake.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,13 +10,13 @@ Microsoft Fabric のレイクハウスは、Apache Spark のオープンソー

この演習の所要時間は約 **40** 分です

> ****:この演習を完了するには、Microsoft の"学校" または "職場" アカウントが必要です。**** お持ちでない場合は、[Microsoft Office 365 E3 以降の試用版にサインアップ](https://www.microsoft.com/microsoft-365/business/compare-more-office-365-for-business-plans)できます。
> ****:この演習を完了するには、Microsoft の "学校" または "職場" アカウントが必要です。**** お持ちでない場合は、[Microsoft Office 365 E3 以降の試用版にサインアップ](https://www.microsoft.com/microsoft-365/business/compare-more-office-365-for-business-plans)できます。
## ワークスペースの作成

Fabric でデータを操作する前に、Fabric 試用版を有効にしてワークスペースを作成してください。

1. [Microsoft Fabric ホーム ページ](https://app.fabric.microsoft.com) (`https://app.fabric.microsoft.com`) で、**[Synapse Data Engineering]** を選択します。
1. [Microsoft Fabric ホーム ページ](https://app.fabric.microsoft.com)で、**Synapse Data Engineering** を選択します。
2. 左側のメニュー バーで、 **[ワークスペース]** を選択します (アイコンは 🗇 に似ています)。
3. 任意の名前で新しいワークスペースを作成し、Fabric 容量を含むライセンス モード ("試用版"、*Premium*、または *Fabric*) を選択します。**
4. 開いた新しいワークスペースは空のはずです。
Expand All @@ -31,7 +31,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

1 分ほど経つと、新しい空のレイクハウスが表示されます。 分析のために、データ レイクハウスにいくつかのデータを取り込む必要があります。 これを行うには複数の方法がありますが、この演習では、テキスト ファイルをローカル コンピューター (または、該当する場合はラボ VM) にダウンロードし、レイクハウスにアップロードするだけです。

1. `https://github.com/MicrosoftLearning/dp-data/raw/main/products.csv` からこの演習用の[データ ファイル](https://github.com/MicrosoftLearning/dp-data/raw/main/products.csv)をダウンロードし、ローカル コンピューター (または、該当する場合はラボ VM) に **products.csv** として保存します。
1. この演習用のデータ ファイルを `https://github.com/MicrosoftLearning/dp-data/raw/main/products.csv` からダウンロードし、ローカル コンピューター (または、該当する場合はラボ VM) に **products.csv** として保存します。

1. レイクハウスを含む Web ブラウザー タブに戻り、**エクスプローラー** ペインの **Files** フォルダーの **[...]** メニューで、 **[新しいサブフォルダー]** を選択し、**products** という名前のフォルダーを作成します。

Expand Down Expand Up @@ -82,17 +82,13 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

"マネージド" テーブルは、スキーマ メタデータとデータ ファイルの両方が Fabric によって管理されるテーブルです。** このテーブルのデータ ファイルは、**Tables** フォルダーに作成されます。

1. 最初のコード セルから返された結果の下で、**[+ コード]** アイコンを使用して、新しいコード セルを追加します (まだない場合)。

> **ヒント**: **[+ コード]** アイコンを表示するには、マウスを現在のセルの出力のすぐ下の左側に移動します。 または、メニュー バーの **[編集]** タブで、**[+ コード セルの追加]** を選択します。

2. 新しいセルに次のコードを入力して実行します。
1. 最初のコード セルから返された結果の下にある **[+ コード]** ボタンを使用して、新しいコード セルを追加します (まだない場合)。 新しいセルに次のコードを入力して実行します。

```python
df.write.format("delta").saveAsTable("managed_products")
```

3. **レイクハウス エクスプローラー** ペインで、**Tables** フォルダーの **[...]** メニューにある **[更新]** を選択します。 次に、**Tables** ノードを展開し、**managed_products** テーブルが作成されていることを確認します。
2. **レイクハウス エクスプローラー** ペインで、**Tables** フォルダーの **[...]** メニューにある **[更新]** を選択します。 次に、**Tables** ノードを展開し、**managed_products** テーブルが作成されていることを確認します。

### "外部" テーブルを作成する**

Expand Down Expand Up @@ -223,7 +219,7 @@ Fabric でデータを操作する前に、Fabric 試用版を有効にしてワ

## ストリーミング データにデルタ テーブルを使用する

Delta Lake では、"ストリーミング" データがサポートされています。 デルタ テーブルは、Spark 構造化ストリーミング API を使用して作成されたデータ ストリームの "シンク" または "ソース" に指定できます。** ** この例では、モノのインターネット (IoT) のシミュレーション シナリオで、一部のストリーミング データのシンクにデルタ テーブルを使用します。
Delta Lake では、ストリーミング データがサポートされています。 デルタ テーブルは、Spark 構造化ストリーミング API を使用して作成されたデータ ストリームの "シンク" または "ソース" に指定できます。** ** この例では、モノのインターネット (IoT) のシミュレーション シナリオで、一部のストリーミング データのシンクにデルタ テーブルを使用します。

1. ノートブックに新しいコード セルを追加します。 この新しいセルに次のコードを追加して実行します。

Expand Down
39 changes: 28 additions & 11 deletions Instructions/Labs/07-real-time-analytics.md
Original file line number Diff line number Diff line change
Expand Up @@ -42,17 +42,34 @@ Kusto クエリ言語 (KQL) は、KQL データベースで定義されている
3. 新しいデータベースが作成されたら、 **[ローカル ファイル]** からデータを取得するオプションを選択します。 次に、ウィザードを使用し、次のオプションを選択して新しいテーブルにデータをインポートします。
- **[宛先]** :
- **[データベース]** : *作成したデータベースが既に選択されています*
- **[テーブル]** : **sales** *という名前の新しいテーブルを作成します。*
- **ソース**:
- **ソースの種類**: ファイル
- **[ファイルのアップロード]** : *前にダウンロードしたファイルをドラッグまたは参照します*
- **[スキーマ]**:
- **圧縮の種類**: 非圧縮
- **データ形式**: CSV
- **[最初のレコードを無視する]** : *選択済み*
- **[マッピング名]** : sales_mapping
- **概要**:
- *テーブルのプレビューを確認し、ウィザードを閉じます。*
- **Table**:[新しいテーブル] の左側にある + 記号をクリックして、**sales** "という新しいテーブルを作成します"。********

![新しいテーブル ウィザードの手順 1](./Images/import-wizard-local-file-1.png?raw=true)

- 同じウィンドウに **[ファイルをここにドラッグ] または [ファイルの参照]** ハイパーリンクが表示されます。

![新しいテーブル ウィザードの手順 2](./Images/import-wizard-local-file-2.png?raw=true)

- **sales.csv** を参照するか画面にドラッグし、[状態] ボックスが緑色のチェック ボックスに変わるまで待ち、**[次へ]** を選びます

![新しいテーブル ウィザードの手順 3](./Images/import-wizard-local-file-3.png?raw=true)

- この画面で、列見出しが 1 行目にあり、システムによって検出されていますが、エラーが発生しないように、これらの行の上にあるスライダー **[1 行目は列ヘッダーです]** を動かす必要があります。

![新しいテーブル ウィザードの手順 4](./Images/import-wizard-local-file-4.png?raw=true)

- このスライダーを選び、すべてが適切に表示されたら、パネルの右下にある **[完了]** ボタンを選びます。

![新しいテーブル ウィザードの手順 5](./Images/import-wizard-local-file-5.png?raw=true)

- 概要画面で以下のような手順が完了するまで待ちます。
- テーブル (sales) を作成する
- マッピングを作成する (sales_mapping)
- データ キュー
- インジェスト
- **[閉じる]** ボタンを選びます

![新しいテーブル ウィザードの手順 6](./Images/import-wizard-local-file-6.png?raw=true)

> ****: この例では、ごく少量の静的データをファイルからインポートしました。この演習の目的のためにはそれで十分です。 実際には、Kusto を使用してもっと大量のデータ (Azure Event Hubs のようなストリーミング ソースからのデータなど) を分析できます。
Expand Down
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.

0 comments on commit 0db1281

Please sign in to comment.