🏠
Raspberry Pi で『家にAIを住ませる』プロジェクト始めます
こんにちは、つばさです。
製造業で計測・制御系エンジニアをしながら、AI駆動開発を学んでいます。
今日から 自宅に AI を住ませるプロジェクト を始めることにしました。
🎯 なぜ「家にAIを住ませる」のか?
仕事では、プラントの生産性やコストを最適化することを日々考えています。
一方で、家庭に目を向けると、意外なほど“面倒”や“非効率”が残っています。
- 子どものテレビ視聴時間が、気づくと伸びてしまう
- 生活習慣をサポートしたいが、親が声をかけ続けるのは大変
- 「家電が勝手に連携してくれたら…」と思うシーンが多い
- 「ここ自動だったらいいのに」という小さなストレスが散らばっている
市販のIoT機器は増えていますが、
家庭ごとに最適解はまったく違います。
だからこそ、
自分の家に本当に合う AI × IoT を “自作する” という挑戦を始めました。
🧠 第一弾:TV視聴を“自動で”見守るAI
最初のテーマは、
「TVの前に誰がどれだけ座っていたか」を自動記録するAI。
使う技術はざっくりこんな感じ:
- Raspberry Pi
- USBカメラ
- OpenCV
- 顔検出(HOG / MediaPipe など検証中)
- 時刻ログ
- 後々は個人識別(face_recognition)も導入予定
最終的には、
「今日の TV 視聴時間は XX 分です」
「見ていたのは Mio が 80%、Yu が 20% です」
のようなレポートを自動生成するのが目標です。
🔍 顔検出まわりの技術選定
いままさに、
HOG / CNN / MediaPipe / YOLO / face_recognition
などを検証しているところです。
- 推論速度
- 角度耐性
- 誤検出の傾向
- Raspberry Pi での安定性
「家庭で動かすAIならではの難しさ」を日々感じています。
ここは別記事で詳しくまとめます。
🏗️ 現在の構成(MVP)
- Raspberry Pi 4(64bit)
- Python 3.13 + venv
- USB Webカメラ(UGREEN)
- MJPG-streamer(ブラウザから映像確認)
- OpenCV(画像処理)
- NumPy(画像配列処理)
- dlib + face_recognition(個人識別候補)
- MediaPipe(顔向き推定候補)
すでに カメラ映像の取得・顔キャプチャ・モデル周りは動きました。
🚧 苦戦ポイント(リアル)
実際に“家庭でAIを動かす”と、いろいろ沼があります。
- Raspberry Pi は相性問題が多い
- NumPyのバージョンが噛み合わず dlib が落ちる
- Webカメラがノイズを吐くと認識が不安定になる
- 複数モデルを同時に動かすと熱暴走しがち
これらも含めて、経験を記事として残していきます。
🔮 今後やりたいこと
- TV視聴時間の自動ログ化
- 部屋ごとの「行動センシングAI」
- 音声 → LLM でリアルタイム助言
- 家族ごとの行動プロファイル生成
- Home Assistant との連携
- 最終的には 「家庭版 AI エージェント」 へ
家そのものが賢くなる
そんな未来を自宅で先に体験してみたい。
✍️ 最後に
このプロジェクトは、
「AI × IoT × 家庭Hack」をテーマに、
技術的にも生活的にも学びが多い取り組みです。
同じように家庭を未来化したい方の参考になれば嬉しいです。
次回は
『HOG / CNN / MediaPipe / YOLO の比較』
について書きます。
ではまた!
Discussion