Python研修報告
1. 報告書概要
本研修報告書では、「現役シリコンバレーエンジニアが教えるPython入門!」を受講し、習得した内容を以下の学習ポイントごとに整理・展開します。
- Python の基礎知識
- Python の書き方
- データ解析
- データベース
- ネットワーク
- 暗号化
- 並列化
- テスト
- インフラ自動化
- キューイングシステム
- 非同期処理
各セクションでは、学習した概念の要点や実装例、応用のヒントなどを含め、実務に活かせるレベルで解説します。
2. 使用教材
-
講座名:現役シリコンバレーエンジニアが教えるPython入門!
-
プラットフォーム:Udemy
-
講師:シリコンバレーで活躍するエンジニア
-
カリキュラム概要:
- Python の基礎文法から始まり、応用編としてデータ解析、データベース操作、ネットワークプログラミング、暗号化、並列/非同期処理、テスト、インフラ自動化、キューイングシステムの構築など、幅広いトピックを網羅。
3. 学習背景と目的
-
背景:
- Python の学習は独学で断片的な知識に留まっていたため、体系的に基礎から応用まで幅広く学び直したいと考えていた。
- 現在の業務(バックエンド開発や社内ツールの自動化)において、Python の利用頻度が高まっていたため、実践的なスキルを身につけることを目的とした。
-
目的:
- Python の基礎的な文法や標準ライブラリの使い方を復習し、正しいコードスタイルを習得する。
- データ解析やデータベース連携、ネットワーク通信といった実務によくあるユースケースを自力で実装できるスキルを獲得する。
- セキュリティ(暗号化)、パフォーマンス(並列化、非同期処理)、品質保証(テスト)、運用自動化(インフラ自動化、キューイング)など、エンタープライズ用途に求められる知識を身につける。
4. 学習内容の展開
4.1 Python の基礎知識
-
データ型と演算子
- 数値型(
int
,float
)、文字列型(str
)、リスト(list
)、タプル(tuple
)、辞書(dict
)、集合(set
)など、主要なビルトイン型を整理。 - 型変換(キャスト)や文字列フォーマット(f文字列、
format()
)、算術演算子、比較演算子、論理演算子、ビット演算子の基礎を学習。
- 数値型(
-
制御構文
-
if
/elif
/else
による分岐、for
/while
による繰り返し処理、break
/continue
の使い分け。 - リスト内包表記や辞書内包表記を用いた簡潔なコレクション操作。
-
-
関数定義とスコープ
-
def
による関数定義、引数の位置指定・キーワード引数、デフォルト引数、可変長引数(*args
,**kwargs
)の使い方。 - ローカルスコープとグローバルスコープの違い、
nonlocal
とglobal
の概念。
-
-
モジュールとパッケージ
-
import
を使った標準ライブラリや外部ライブラリの読み込み方法。 - 自作モジュールの作成と、複数ファイルをまとめるパッケージ構造(
__init__.py
)の理解。
-
-
ファイル操作
- テキストファイルやバイナリファイルの読み書き、
with open(...) as f:
でリソースを安全に扱う方法。 - CSV や JSON の入出力に関する標準ライブラリ(
csv
,json
)の活用。
- テキストファイルやバイナリファイルの読み書き、
実務メモ
- データ型を意識して扱うことで、型エラーによるバグを減らせる。
- リスト内包表記を活用するとコードが短く保守性も上がるが、可読性を損なわないよう適度な分割も重要。
4.2 Python の書き方
-
PEP8 スタイルガイド
- インデントはスペース4つ、変数名はスネークケース(例:
user_name
)、クラス名はキャメルケース(例:UserManager
)。 - 行長は79文字程度に抑える、関数間は空行2行、クラス間は空行2行など、読みやすいコードレイアウト。
- インデントはスペース4つ、変数名はスネークケース(例:
-
関数・クラス設計のベストプラクティス
- 単一責任の原則(Single Responsibility Principle)に従い、1つの関数/クラスは単一の役割を持たせる。
- ドキュメンテーション文字列(docstring)を用いた関数・クラスの説明、引数・戻り値の型・意味を明記。
-
型ヒント(Type Hinting)
-
Python 3.5 以降で導入された型ヒントを用いて、静的解析ツール(
mypy
など)と連携しやすくする方法を学習。 -
例:
def add_numbers(a: int, b: int) -> int: """2つの整数を受け取り、その和を返す""" return a + b
-
-
リント・フォーマッタの活用
-
flake8
,pylint
によるコード品質チェック、black
やautopep8
による自動整形で一貫したスタイルを維持。
-
実務メモ
- 型ヒントを積極的に書くことで、チーム開発時に誤った引数渡しを早期に検出できる。
- CI(継続的インテグレーション)パイプラインにリント・フォーマッタを組み込むことで、コードレビュー前に自動でスタイルを統一できる。
4.3 データ解析
-
主要ライブラリの使い方
-
NumPy
:多次元配列(ndarray
)の扱い、ベクトル演算、線形代数関連の関数を利用した高速演算。 -
pandas
:DataFrame
/Series
を用いた表形式データの読み込み・加工・集計。CSV や Excel、SQL からのデータ取り込み例。 -
matplotlib
:データ可視化の基本、折れ線グラフ、棒グラフ、散布図、ヒストグラムなどを描く方法。
- データ読み込み:
pandas.read_csv()
やpandas.read_excel()
、あるいはSQLAlchemy
+pandas.read_sql_query()
でデータを DataFrame に取り込む。 - 前処理(データクレンジング):欠損値の補完・削除、外れ値の検出、型変換など。
- 集計・統計量算出:
groupby()
,pivot_table()
, 統計関数(平均、中央値、標準偏差など)を活用。 - 可視化:分析結果をわかりやすく示すため、
matplotlib
でグラフを作成。 - 結果のインサイト抽出:分析結果をビジネス的に解釈し、次のアクションにつなげる。
-
-
応用例
- 売上データを元に月次・年間のトレンドを可視化し、ピークタイムや季節変動を把握。
- ログデータを集計し、障害発生率やリクエスト分布を解析してボトルネックを特定する。
実務メモ
- 大規模データを扱う場合、
dask
やPySpark
などを検討することも有効。- インメモリでの解析が難しい場合は、先に SQL 上で集計を済ませ、必要なデータのみを Python に読み込むことで効率化できる。
4.4 データベース
4.4.1 MySQL
-
概要
- RDBMS の代表格で、多くのWebアプリケーションや業務システムで採用されている。スケールや可用性の観点からレプリケーションや複製もサポートされる。
-
Python からの接続
-
主なドライバとして
mysql-connector-python
(公式)、PyMySQL
(純Python 実装)、mysqlclient
(C拡張)などがある。 -
インストール例:
pip install mysql-connector-python
-
接続例(
mysql-connector-python
):import mysql.connector conn = mysql.connector.connect( host="localhost", user="your_user", password="your_password", database="your_database", port=3306 ) cursor = conn.cursor(dictionary=True) # INSERT 例 sql_insert = "INSERT INTO users (name, email) VALUES (%s, %s)" cursor.execute(sql_insert, ("Alice", "alice@example.com")) conn.commit() # SELECT 例 cursor.execute("SELECT id, name, email FROM users WHERE active = %s", (1,)) for row in cursor.fetchall(): print(row["id"], row["name"], row["email"]) cursor.close() conn.close()
-
-
特徴・運用上のポイント
- トランザクション:デフォルトで InnoDB ストレージエンジンを使うことで、ACID 準拠のトランザクション管理が可能。
- 接続プール:
mysql.connector.pooling
を使ったプール化で、高負荷時も接続数を制御できる。 - バックアップ/リストア:
mysqldump
コマンドや Python でのSELECT … INTO OUTFILE
を活用して定期的にダンプ取得を行う。
4.4.2 SQLite
-
概要
- 組み込み型の軽量データベースで、ファイル1つで完結する。開発環境や小規模アプリケーションでよく利用される。
-
Python 標準ライブラリによる利用
-
標準モジュール
sqlite3
を使えば追加インストール不要で利用できる。 -
接続例:
import sqlite3 # データベースファイル new_db.sqlite がなければ自動生成される conn = sqlite3.connect("new_db.sqlite") cursor = conn.cursor() # テーブル作成 cursor.execute(""" CREATE TABLE IF NOT EXISTS products ( id INTEGER PRIMARY KEY AUTOINCREMENT, name TEXT NOT NULL, price REAL ) """) # INSERT 例 cursor.execute("INSERT INTO products (name, price) VALUES (?, ?)", ("Widget", 19.99)) conn.commit() # SELECT 例 cursor.execute("SELECT id, name, price FROM products") for row in cursor.fetchall(): print(row) cursor.close() conn.close()
-
-
特徴・運用上のポイント
- 同時書き込み:デフォルトではシングルユーザー向けで、複数プロセスから同時書き込みを行うとロック競合が発生しやすい。小規模用途かテスト用途に限定する。
- トランザクション:自動コミットモードを無効化し、明示的に
BEGIN
/COMMIT
を使うことで複数操作をまとめて原子性を担保可能。 - バックアップ:SQLite ファイルをそのままコピーするだけでバックアップ完了。
4.4.3 DBM(dbm モジュール)
-
概要
- Python 標準ライブラリの一部で、キーとバイト列値の対応を保存するシンプルなキー・バリュー永続化ストア。
- UNIX の
dbm
,gdbm
,ndbm
などをバックエンドに使った実装がある(dbm.gnu
,dbm.ndbm
)。
-
Python 標準モジュールによる利用
-
例:
import dbm # new_dbm.db ファイルを使った dbm オープン with dbm.open("new_dbm", "c") as db: # データ保存(キー・値はバイト列 or utf-8 エンコード文字列) db[b"user:1001"] = b"Alice" db["user:1002"] = "Bob".encode("utf-8") # データ取得 print(db[b"user:1001"].decode("utf-8")) # => "Alice" # キー一覧 for key in db.keys(): print(key, db[key])
-
-
特徴・運用上のポイント
- 全文検索や複雑なクエリはできない。あくまで単純なキー・バリュー保存用途に限定。
- 高速だが、値全体をメモリにロードするわけではないので、大きなデータを扱うときは設計に注意が必要。
- ファイル形式はプラットフォーム依存になる場合があるため、異なる OS 間でファイルをやり取りする際は注意が必要。
4.4.4 MongoDB
-
概要
- ドキュメント指向 NoSQL データベースで、JSON 形式ライクな BSON ドキュメントをそのまま保存できる。スキーマレス設計が可能で、可変なドキュメント構造に柔軟に対応。
- レプリケーションやシャーディングによる水平スケーリングが容易。
-
Python からの接続
-
ライブラリ:
pymongo
-
インストール:
pip install pymongo
-
接続例:
from pymongo import MongoClient client = MongoClient("mongodb://localhost:27017/") db = client["mydatabase"] collection = db["users"] # ドキュメント挿入(INSERT) user_doc = {"_id": 1001, "name": "Carol", "email": "carol@example.com", "roles": ["admin", "editor"]} collection.insert_one(user_doc) # 複数挿入 docs = [ {"_id": 1002, "name": "Dave", "email": "dave@example.com"}, {"_id": 1003, "name": "Eve", "email": "eve@example.com"} ] collection.insert_many(docs) # ドキュメント取得(FIND) for doc in collection.find({"roles": {"$in": ["admin"]}}): print(doc) # 更新(UPDATE) collection.update_one({"_id": 1001}, {"$set": {"email": "carol@newdomain.com"}}) # 削除(DELETE) collection.delete_one({"_id": 1003}) client.close()
-
-
特徴・運用上のポイント
- スキーマレスのため、ドキュメントの構造が分散しやすい。共通のルール(バリデーションやスキーマ設計)をアプリケーションレイヤーや MongoDB のスキーマバリデーション機能で統制するとよい。
- インデックス:検索クエリに合わせて適切なフィールドにインデックスを貼ることで高速検索を実現。複合インデックスや部分インデックスも活用。
- レプリカセット構成やシャード構成を組むことで可用性とスケーラビリティを確保できる。
4.4.5 HBase
-
概要
- Apache HBase は Hadoop 上の列指向分散データベースで、大量データを扱う場合に強みを発揮する。HDFS 上にストレージを持ち、ビッグデータ解析や時系列データ保存などに利用される。
-
Python からの接続
-
代表的ライブラリ:
happybase
(Thrift ベース) -
前提:HBase サービスが起動しており、Thrift サーバーも有効化されている必要がある(例:
hbase thrift start
)。 -
インストール:
pip install happybase
-
接続例:
import happybase # localhost:9090 で Thrift サーバーが稼働している想定 connection = happybase.Connection(host="localhost", port=9090) table_name = "metrics" # テーブル作成 families = { "cf1": dict(max_versions=3), "cf2": dict() # 列ファミリー cf2 を作成 } connection.create_table(table_name, families) table = connection.table(table_name) # データ挿入(PUT) row_key = b"row1" table.put(row_key, {b"cf1:count": b"100", b"cf2:status": b"active"}) # データ取得(GET) row = table.row(row_key) print(row) # {b"cf1:count": b"100", b"cf2:status": b"active"} # スキャン(SCAN) for key, data in table.scan(limit=10): print(key, data) # テーブル削除 connection.disable_table(table_name) connection.delete_table(table_name) connection.close()
-
-
特徴・運用上のポイント
- 列指向ストレージのため、一部の列だけをスキャンする場合に効率的。特に時系列ログやメトリクスデータのように、同じ行キーに対して複数バージョンを持たせたい場合に有効。
- セルのバージョニング機能により、過去データを保持できる。必要なバージョン数は列ファミリー定義で制御可能。
- クラスタ構成:ノード追加によるスケーリングが可能だが、ZooKeeper の設定やリージョン分割設計など、運用設計の難易度は高め。
4.4.6 Neo4j
-
概要
- グラフデータベースで、ノード(点)とリレーションシップ(辺)を直感的に扱える。ソーシャルネットワーク分析、経路探索、レコメンデーションエンジンなどに強みがある。
- Cypher クエリ言語を使って、グラフパターンマッチングを直感的に記述できる。
-
Python からの接続
-
公式ドライバ:
neo4j-driver
(Bolt プロトコル対応) -
インストール:
pip install neo4j
-
接続例:
from neo4j import GraphDatabase uri = "bolt://localhost:7687" user = "neo4j" password = "your_password" driver = GraphDatabase.driver(uri, auth=(user, password)) def create_person(tx, name, age): tx.run("CREATE (p:Person {name: $name, age: $age})", name=name, age=age) def find_person(tx, name): result = tx.run("MATCH (p:Person {name: $name}) RETURN p.name AS name, p.age AS age", name=name) return [(record["name"], record["age"]) for record in result] with driver.session() as session: # ノード作成 session.write_transaction(create_person, "Alice", 30) session.write_transaction(create_person, "Bob", 25) # 関係作成 session.run(""" MATCH (a:Person {name: 'Alice'}), (b:Person {name: 'Bob'}) CREATE (a)-[:FRIENDS_WITH]->(b) """) # ノード検索 persons = session.read_transaction(find_person, "Alice") print(persons) # [("Alice", 30)] driver.close()
-
-
特徴・運用上のポイント
- グラフモデリング:テーブル設計ではなく、エンティティをノード、リレーションをエッジで表現する。データ構造の設計が従来のリレーショナル DB とは異なるため、最初にドメインモデルをしっかり整理する必要がある。
- インデックス:ラベルとプロパティに対してインデックスを作成し、検索性能を担保する。
- クラスタリング:Enterprise Edition ではクラスタ構成による高可用性と水平スケーリングが可能。
4.4.7 総括と実務への活用イメージ
-
関係データ(MySQL, SQLite)
- 標準的な RDBMS でのテーブル関連操作は、データに整合性を求める場合に有効。バックエンド API のユーザー管理やトランザクションが必要なシステムに向く。
- 開発・テスト用途ではファイル1つで完結する SQLite、運用環境ではスケーラビリティや複数同時接続を想定した MySQL を使い分ける。
-
軽量キー・バリュー(DBM)
- 小規模なキャッシュやセッションストア、一時的なデータ保持に利用。プロトタイプや簡易ツールで素早く導入可能。
-
NoSQL(MongoDB, HBase)
- 非構造化/半構造化データや大量時系列データの保存・検索に強み。ログ解析基盤や IoT データ収集、柔軟なスキーマ運用が求められる場合に活用する。
- 特に HBase は Hadoop エコシステムとの連携が前提となるため、ビッグデータ基盤構築時の選択肢となる。
-
グラフデータベース(Neo4j)
- エンティティ間の複雑な関係性をモデル化しやすく、また Cypher によるクエリ記述が直感的。SNS のフォロワー・フォロー関係やレコメンデーションエンジンなど、ドメインに合うケースで導入を検討する。
4.5 ネットワーク
-
HTTP リクエスト
-
requests
ライブラリを使った GET/POST リクエストの送信、レスポンスの解析(ステータスコード、ヘッダー、JSON ボディ)。 - タイムアウト設定やリトライ機能を自力で実装する方法(
requests.Session()
+requests.adapters.HTTPAdapter
)。
-
-
API サーバ構築
- 軽量フレームワーク
Flask
の基本的な使い方:ルーティング、リクエストパラメータ取得、レスポンス返却。 -
FastAPI
の導入:型ヒントを活用したバリデーション、自動生成されるドキュメント(Swagger UI)による開発効率向上。
- 軽量フレームワーク
-
ソケット通信
- 標準ライブラリ
socket
を使った TCP サーバ/クライアントの実装例。 - 非同期ソケット(
asyncio
と組み合わせたasyncio.start_server
)による高負荷向けサーバ構築の概要。
- 標準ライブラリ
-
REST API の設計原則
- エンドポイントの設計(リソース指向、CRUD に対応する HTTP メソッド)、ステータスコードの使い分け。
- 認証・認可(Token ベース、OAuth2)や TLS(HTTPS)の基本的な導入方法。
実務メモ
- 大規模サービスでは API Gateway や Load Balancer の前段にマイクロサービスを配置し、各サービスはコンテナ化してスケールさせる。
- ソケット通信が必要なリアルタイム機能(チャット、IoT デバイス連携など)は、
WebSocket
ライブラリやSocket.IO
の Python 実装を検討。
4.6 暗号化
-
対称鍵暗号
-
cryptography
ライブラリを使った AES 暗号化/復号の基本。ブロックモード(CBC、GCM)や初期化ベクトル(IV)の扱い。 - パスワードのハッシュ化:
bcrypt
を使った安全なハッシュ生成と照合手順。
-
-
公開鍵暗号
- RSA 暗号の基本原理と、
cryptography.hazmat.primitives.asymmetric.rsa
モジュールによる鍵ペア生成、暗号化、復号の流れ。 - 秘密鍵の保護方法(ファイル暗号化、パーミッション制御)。
- RSA 暗号の基本原理と、
-
SSL/TLS の利用
- HTTPS 通信を行う際に必要となるサーバ証明書の発行(例:Let's Encrypt)と Python サーバ(Flask/FastAPI)への組み込み。
- クライアント検証や相互 TLS 認証の概要。
-
実践的ユースケース
- Web アプリケーションにおいて、ユーザー認証情報をデータベースに保存する際は必ずハッシュ化し、平文で保存しない。
- 外部 API と機密情報をやり取りする場合、トークンは短期間で使い捨てるか、リフレッシュトークンを導入してセキュリティを高める。
実務メモ
- 機密鍵やシークレットはソースコード管理システムに絶対に含めず、Vault や KMS(Key Management Service)で安全に管理すること。
- 暗号化アルゴリズムは定期的に見直し、脆弱性が指摘されたものは速やかにバージョンアップを行う。
4.7 並列化
-
マルチスレッド
- 標準ライブラリ
threading
を使ったスレッド生成、共有リソース保護のためのロック(Lock
,RLock
)や条件変数(Condition
)の使い方。 - GIL(Global Interpreter Lock)の存在と、CPU バウンドな処理ではスレッド化してもパフォーマンスが伸びにくい理由を理解。
- 標準ライブラリ
-
マルチプロセス
-
multiprocessing
モジュールを使ったプロセス生成(Process
)、プロセス間通信(Queue
,Pipe
)、共有メモリ(Value
,Array
)の使い方。 -
Pool
を活用したワーカープールによる並列タスク実行。
-
-
並列処理ライブラリ
-
concurrent.futures
:ThreadPoolExecutor
,ProcessPoolExecutor
によるシンプルな並列タスク実装例。 -
joblib
: 機械学習の学習/推論パイプラインでよく使われる並列処理ライブラリの概要。
-
-
実務的注意点
- 大量の並列プロセスを生成するとメモリ消費が激しくなるため、適切なプールサイズやバッチ処理を考慮する。
- マルチプロセス間でのデータ受け渡しはシリアライズ(pickle)を伴うため、データ構造の設計にも工夫が必要。
実務メモ
- CPU バウンドな処理はマルチプロセスで、I/O バウンド(ファイル・ネットワーク待ちなど)の処理はマルチスレッドまたは非同期処理(後述)で実装するのが一般的。
- 並列化のオーバーヘッド(プロセス/スレッド生成コスト、通信コスト)を考慮し、小さすぎるタスクを無駄に並列化しないよう注意する。
4.8 テスト
-
ユニットテスト
- 標準ライブラリ
unittest
を使ったテストケース作成、アサーション(assertEqual
,assertRaises
など)の使い方。 -
pytest
を利用したシンプルかつ柔軟なテストフレームワークの導入と、テストフィクスチャ(@pytest.fixture
)の活用例。
- 標準ライブラリ
-
モックとスタブ
-
unittest.mock
を用いて外部 API 呼び出しやデータベースアクセスをエミュレートし、テストを独立して実行できる環境を構築。 - モックオブジェクトの作り方、
patch()
デコレータ/コンテキストマネージャの使い方。
-
-
カバレッジ測定
-
coverage.py
を使ってテストカバレッジを測定し、網羅率を可視化。カバレッジレポートから不足しているテストを発見し、補完する。
-
-
CI 連携
- GitHub Actions や GitLab CI、Jenkins などにテストジョブを組み込み、プルリクエストごとに自動テストとカバレッジレポート生成を行う。
実務メモ
- テストは必ずグリーン(成功)→ リファクタリング → テスト(リファクタリング後も緑を保つ)というサイクル(TDD の流れ)を意識すると、品質を高く維持しやすい。
- モックを多用しすぎるとテストが複雑化するため、適切に分離テスト(ユニットテスト)と統合テスト(インテグレーションテスト)を使い分ける。
4.9 インフラ自動化
-
Vagrant と VirtualBox
-
概要:
- Vagrant は仮想マシンの登場から破棄までをコードで管理できるツールで、VirtualBox をはじめとした各種プロバイダー(Hyper-V、VMware など)を利用して開発環境を手軽に構築可能。
- VirtualBox は Oracle が提供する無料の仮想化ソフトウェアで、Vagrant のデフォルトプロバイダーとして広く使われる。
-
インストールと基本操作:
- VirtualBox を公式サイトからインストール。
- Vagrant を公式サイトからダウンロードしてインストール。
- ターミナルで
vagrant --version
とvboxmanage --version
を確認し、両者が使えることを確認。
-
Vagrantfile の書き方:
# -*- mode: ruby -*- # vi: set ft=ruby : Vagrant.configure("2") do |config| # ベースとなるBoxを指定(例: ubuntu/focal64) config.vm.box = "ubuntu/focal64" # ネットワーク設定(プライベートネットワーク) config.vm.network "private_network", ip: "192.168.33.10" # プロビジョニングに Ansible や Shell スクリプトを指定可能 config.vm.provision "shell", inline: <<-SHELL apt-get update -y apt-get install -y python3 python3-pip SHELL # メモリや CPU 数の指定も可能 config.vm.provider "virtualbox" do |vb| vb.memory = "2048" vb.cpus = 2 end end
-
vagrant init
で空の Vagrantfile が作成される。 -
config.vm.box
にはあらかじめ登録済み/ダウンロード済みの Box 名(例:hashicorp/bionic64
など)を記載。 -
config.vm.provision
により、仮想マシン起動時に自動実行するスクリプトや他のプロビジョナー(Ansible、Chef、Puppet など)を設定できる。
-
-
実践的ワークフロー:
- リポジトリに Vagrantfile をコミットし、チームメンバー全員が同じ開発環境を素早く再現可能にする。
-
vagrant up
で仮想マシンを立ち上げ、vagrant ssh
で中に入って開発作業を実施。 - 開発環境が不要になったら
vagrant halt
またはvagrant destroy
で停止/破棄。必要に応じて Box のバージョンアップやプロビジョナーを更新。
-
-
Fabric
-
概要:
- Fabric は Python 製の SSH 自動化ツールで、リモートサーバーへのコマンド実行やファイル転送をスクリプト化できる。
- 単純なデプロイ手順やサーバ設定を、ローカルの Python スクリプト(fabfile)にまとめて実行することで、一貫性のある操作が可能。
-
インストールと基本構成:
-
仮想環境を作成し、
pip install fabric
で導入。 -
プロジェクト直下に
fabfile.py
を作成し、以下のようにタスクを定義:from fabric import Connection, task @task def deploy(c): # c は Connection オブジェクト c.run("sudo apt-get update -y") c.put("local_app.tar.gz", "/tmp/") with c.cd("/tmp"): c.run("tar xzf local_app.tar.gz") c.run("sudo systemctl restart myapp.service")
-
実行例:
fab -H user@server.example.com deploy
-
-
SSH 鍵の設定:
- Fabric はデフォルトでローカルの
~/.ssh/id_rsa
を使って接続する。別の鍵を使う場合は、Connection("user@host", connect_kwargs={"key_filename": "/path/to/key"})
のように指定。 - 複数ホストを対象にする場合、
fab -H host1,host2 deploy
のようにカンマ区切りでホストを渡せる。
- Fabric はデフォルトでローカルの
-
実務的ワークフロー:
- Ansible や Terraform の前段階として、Fabric で簡易的にサーバーセットアップをスクリプト化し、CLI から同一手順を何度も実行できるようにする。
- デプロイ時に必ず同じ手順を実行できるため、「本番」で動かす際も本番用の fabfile を作成し、一度テストサーバーで動作を確認してから本番へ適用する。
- 複雑なワークフロー(マイグレーション実行 → サービス停止 → 新コード配置 → サービス再起動)は、複数のタスクに分割して順番に実行。
-
-
Ansible
-
概要:
- Ansible はエージェントレスの構成管理ツールで、YAML ベースの Playbook によって複数サーバーの状態を同時に管理できる。SSH 接続だけで動作するため、サーバー側にエージェントをインストールする必要がない。
-
インストールと基本構造:
-
ローカルや管理用サーバーに
pip install ansible
または OS のパッケージマネージャで導入。 -
インベントリファイル(例:
hosts.ini
)で対象ホストを定義:[webservers] web1.example.com web2.example.com ansible_user=deploy [dbservers] db1.example.com
-
Playbook の例(
site.yml
):--- - hosts: webservers become: yes vars: app_dir: /var/www/myapp tasks: - name: システムパッケージを更新 apt: update_cache: yes upgrade: dist - name: Python3 と pip をインストール apt: name: - python3 - python3-pip state: present - name: アプリケーションコードを配置 copy: src: ./dist/myapp/ dest: "{{ app_dir }}/" owner: www-data group: www-data mode: "0755" - name: サービスを再起動 systemd: name: myapp state: restarted
-
実行例:
ansible-playbook -i hosts.ini site.yml
-
-
役割(Role)と再利用性:
- 1つの Role をディレクトリ単位でまとめ、
tasks/
,handlers/
,templates/
,vars/
などを構成することで、プレイブック間で設定を共有できる。 - 例:
roles/nginx/
の中にdefaults/main.yml
でデフォルト変数を定義し、tasks/main.yml
でパッケージインストールや設定ファイル配布、handlers/main.yml
でサービス再起動を記述。
- 1つの Role をディレクトリ単位でまとめ、
-
実務的ワークフロー:
- 開発環境・ステージング環境・本番環境のインベントリを分け、それぞれに合わせた変数を設定。Playbook は共通化し、環境ごとに挙動を切り分ける。
- 定期的に Playbook を実行する仕組み(CI/CD パイプラインや Jenkins などのジョブ)を構築し、変更があった場合は自動的にプロビジョニングを行う。
- 役割ベースの Role をチームで共有ライブラリ化し、社内共通の標準構成をライブラリ化してコードレビューやテストを行ったうえで再利用する。
-
実務メモ
- Vagrant は主に開発/テスト環境向けに使うのが一般的で、本番サーバーへの適用はなるべく Ansible などの構成管理ツールに移行する。
- Fabric で複雑になってきたら、一度 Ansible や Terraform に段階的に移行検討すると管理コストを下げられる。
- Ansible の実行結果(成功/失敗、変更箇所)をログに残し、必ずバージョン管理された Playbook を使い続けることで、構成の再現性を担保する。
5. まとめと今後の展望
- 基礎力の底上げ:Python の文法や標準的な書き方を体系的に復習し、業務で即活用できるレベルに到達した。
- 応用スキルの獲得:データ解析からネットワーク、暗号化、非同期処理まで幅広いトピックを一通り体験でき、今後のプロジェクトで活用できる具体例を持てた。
- 実践的なコード品質:PEP8 に沿ったコーディング、テスト自動化、インフラ自動化までを一貫して学ぶことで、エンタープライズレベルの開発フローを理解できた。
Discussion