🕌

【Microsoft Fabric】SSMSでSQL 分析エンドポイントへアクセスする方法

2024/08/12に公開

前提

  • SSMSをinstall済みであること

https://learn.microsoft.com/ja-jp/sql/ssms/download-sql-server-management-studio-ssms?view=sql-server-ver16

  • kaggleのアカウントを登録していること

流れ

  1. Lakehouseを作り、titanicのデータをimportする
  2. SQL分析エンドポイントを用意する
  3. SSMSからSQL分析エンドポイントへアクセスする

Lakehouseを作り、titanicのデータをimportする

以下の記事の手順に沿って、importまで行ってください。

https://zenn.dev/headwaters/articles/90be9058404160

SQL分析エンドポイントを用意する

  1. Files > train.csv>データの読み込み>Spark をクリックし、コードを実行する

  2. 以下のコードを実行し、Table形式で保存する
df.write.mode("overwrite").format("delta").save("Tables/titanic")
  1. 以下のコードを実行し、データを確認する
df = spark.sql("SELECT * FROM zenn.titanic LIMIT 1000")
display(df)


4. ワークスペースを開く
5. 該当のレイクハウス > SQL分析エンドポイントの・・・ をクリックする

6. SQL接続文字列をコピーする をクリックする

7. コピー をクリックする

SSMSからSQL分析エンドポイントへアクセスする

  1. SSMSを開く
  2. 以下のパラメータを入力し、接続 をクリックする
  • サーバーの種類(T):データベースエンジン
  • サーバー名:SQL分析エンドポイント
  • 認証(A):Azure Active Directory-MFAで汎用
  • ユーザー名:メールアドレス
  1. 作成したTableが確認できることを確認
ヘッドウォータース

Discussion