🏠

Raspberry Pi で『家にAIを住ませる』プロジェクト始めます

に公開

こんにちは、つばさです。
製造業で計測・制御系エンジニアをしながら、AI駆動開発を学んでいます。

今日から 自宅に AI を住ませるプロジェクト を始めることにしました。


🎯 なぜ「家にAIを住ませる」のか?

仕事では、プラントの生産性やコストを最適化することを日々考えています。
一方で、家庭に目を向けると、意外なほど“面倒”や“非効率”が残っています。

  • 子どものテレビ視聴時間が、気づくと伸びてしまう
  • 生活習慣をサポートしたいが、親が声をかけ続けるのは大変
  • 「家電が勝手に連携してくれたら…」と思うシーンが多い
  • 「ここ自動だったらいいのに」という小さなストレスが散らばっている

市販のIoT機器は増えていますが、
家庭ごとに最適解はまったく違います。

だからこそ、
自分の家に本当に合う AI × IoT を “自作する” という挑戦を始めました。


🧠 第一弾:TV視聴を“自動で”見守るAI

最初のテーマは、
「TVの前に誰がどれだけ座っていたか」を自動記録するAI。

使う技術はざっくりこんな感じ:

  • Raspberry Pi
  • USBカメラ
  • OpenCV
  • 顔検出(HOG / MediaPipe など検証中)
  • 時刻ログ
  • 後々は個人識別(face_recognition)も導入予定

最終的には、

「今日の TV 視聴時間は XX 分です」
「見ていたのは Mio が 80%、Yu が 20% です」

のようなレポートを自動生成するのが目標です。


🔍 顔検出まわりの技術選定

いままさに、
HOG / CNN / MediaPipe / YOLO / face_recognition
などを検証しているところです。

  • 推論速度
  • 角度耐性
  • 誤検出の傾向
  • Raspberry Pi での安定性

「家庭で動かすAIならではの難しさ」を日々感じています。

ここは別記事で詳しくまとめます。


🏗️ 現在の構成(MVP)

  • Raspberry Pi 4(64bit)
  • Python 3.13 + venv
  • USB Webカメラ(UGREEN)
  • MJPG-streamer(ブラウザから映像確認)
  • OpenCV(画像処理)
  • NumPy(画像配列処理)
  • dlib + face_recognition(個人識別候補)
  • MediaPipe(顔向き推定候補)

すでに カメラ映像の取得・顔キャプチャ・モデル周りは動きました。


🚧 苦戦ポイント(リアル)

実際に“家庭でAIを動かす”と、いろいろ沼があります。

  • Raspberry Pi は相性問題が多い
  • NumPyのバージョンが噛み合わず dlib が落ちる
  • Webカメラがノイズを吐くと認識が不安定になる
  • 複数モデルを同時に動かすと熱暴走しがち

これらも含めて、経験を記事として残していきます。


🔮 今後やりたいこと

  • TV視聴時間の自動ログ化
  • 部屋ごとの「行動センシングAI」
  • 音声 → LLM でリアルタイム助言
  • 家族ごとの行動プロファイル生成
  • Home Assistant との連携
  • 最終的には 「家庭版 AI エージェント」

家そのものが賢くなる
そんな未来を自宅で先に体験してみたい。


✍️ 最後に

このプロジェクトは、
「AI × IoT × 家庭Hack」をテーマに、
技術的にも生活的にも学びが多い取り組みです。

同じように家庭を未来化したい方の参考になれば嬉しいです。

次回は
『HOG / CNN / MediaPipe / YOLO の比較』
について書きます。

ではまた!

Discussion