📝

技育展2021体験記

2021/10/13に公開

はじめに

手前味噌ながら、技育展2021の開発スキル支援部門で優秀賞を受賞しました。今回は、この技育展に参加した体験談みたいなのを書こうと思います。

技育展について

まずは、技育展って何って方のために、技育展の公式サイト↓です。
https://talent.supporterz.jp/geekten/2021/

見て分かる通り賞金が出ます。スマホアプリ、AI・機械学習といった感じでいくつかテーマが分かれていて、テーマごとに賞金が出ます。2021年の場合は、1テーマは15チームから成っていて、優秀賞10万円、最優秀賞30万円でした(はじめてのアウトプットはちょっと違う)。

僕はこの中の開発/スキル支援部門で申し込みました。

全体の流れ

  1. 事前審査/事前審査結果通知
  2. 顔合わせ
  3. 仕上げ開発
  4. プレゼン
  5. 展示
  6. 結果発表

っていう流れで技育展は進みます。基本的に、要所々々でzoomで話をするんですが、事務連絡とかちょっとしたことはslackでした。

この中で重要だった事前審査、仕上げ開発、プレゼン、結果発表について書いていきたいと思います。

事前審査

技育展は事前審査があります。ただ、事前審査で受かるのは6~8割らしいので、そこまで難しくはないと思います。自分が申し込んだときの文章を載せておきます。この文章は、にゃにゃんさんのnote(2020年の技育展)を参考にしました。
https://note.com/nyanyan_cubetech/n/n1973018eb035

作品の概要(100文字程度)
画像認識で指の骨格を認識することで動くマウスを作りました。画像認識によるマウスは以前からあったと思いますが、webカメラを下に向けることで、実体がないように見えるマウスは世界初だと思われます。

作品のアピールポイント(100−200文字程度)
このマウスによって、机の上の省スペース化を図られるだけでなく、指が触れるところの材質を工夫することで、トラックパッドを超える入力インターフェイスになるかもしれないと思っています。なぜなら、手の上にカメラを設置できればどこでもトラックパッドになるし(最近はスマホをwebカメラにできる)、絵を書くときはマウスだとやりづらい、トラックパッドだと常にクリックした状態で線を動かすのでやりづらいという欠点を克服できるからです。

使用技術(100−200文字程度)
使用言語はPython。骨格認識モジュールのMesiapipeと、マウスカーソルを動かすpynputモジュール、数値計算モジュールのNumpyを使用。ただ、マウスを使うときに毎回ターミナルでpythonを実行するのは疲れるので、applescriptで実行可能アプリケーションにした。

(今気づきましたが、骨格認識モジュールMesiapipeになっちゃってます。正しくは、Mediapipeです。)

その他、作品に関してアピールポイント
さらに、ノートパソコンに付属しているフロントカメラを使用してジェスチャー的にマウスを動かせたり、カメラの置き方を工夫すれば(普通にパソコンの前に座った状態で人の後ろの方にwebカメラを置く)、普通のディスプレイをタッチディスプレイ化できたりします。

項目は他にも、自分の個人情報や登壇希望テーマ、GitHubリポジトリ、デモ動画があったりします。

技育展に申し込むものは、技育展以外で発表したもの、卒業研究とかサポーターズのハッカソンの流用とか、何でもオッケーらしいです。

結果発表は、メールで通知されます。たしかこのときに、slackに参加したと思います。

仕上げ開発

サポーター企業の方と1h程度の面談をして、プロダクトに関する相談をします。僕は、これが非常に良かったです。企業の方は、結構技術力が高い印象でした。また、相談も親身に乗っていただきました。

相談と言っても、形はだいたいできていたので、それを使ってもらって改善点を洗い出すといった感じでしたが、かなり重要な改善点を見つけられました。具体的には、特定のキーを押してNonMouseのアクティベートをするをいう機能です。これによって、プレゼンで「タイピングとの相性がいい」を言うことができました。

プレゼン

3分で自分の作品のプレゼンをするのですが、自分はあがり症なので前もって録音・録画しておいたものを再生するだけにしてました。全部録音してるのは自分だけ(おそらく)だったので、技育展の方にこれは大丈夫なのかと聞いておけばよかったかもしれません。

実際にプレゼンで流したプレゼンの録音・録画は以下で見られます。
https://youtu.be/OmP_AZBY0ck

実際に展示され、プレゼンでも使用したGoogleスライドはこちらです。
https://docs.google.com/presentation/d/1RTEBs5shZ-gEGy9Mb-4jt4aR9_JdHwWjdEr1K_LRnpQ/edit#slide=id.p

今回、プレゼン一週間前まで帰省していたり、3日前でひどい頭痛になったりでプレゼン作成に2, 3日しか割けませんでした。正直、もう少し煮詰めたかったです。「実体のないマウスを作りました」がZennのweekly top articleの4番目に載ったことや、より詳細なデモ、GyroMoueBLEのこと(後述)など、付け足したほうがよかったことがたくさんありました。

結果発表

10/9(土)が結果発表でした。誰でも、自分の作ったものが一番であるように僕も自分の作品に自身を持っていました。なので、優秀賞として呼ばれたとき、嬉しさと同時に、最優秀賞じゃないのかという悔しさも有りました。まあ、大会なのでこういうことはつきものです。

優秀賞と最優秀賞はトロフィーと賞金がもらえるらしいです。まだ、どっちももらってないので((o(´∀`)o))ワクワクです。

全体を通して

最初は躊躇していたんですが、実際に参加してみると最高のイベントでした。

参加費がマイナスのイベントと思ってもらえばいいと思います。参加するだけで、ノベルティや参加費5000円もらえます。そして、自分の製作物の相談まで受けてくれます。正直、意味がわかりません。
https://twitter.com/takeyamaaaaa/status/1438078446190534664?s=20

作品が出来上がっている人は、失うものなにもないので絶対応募したほうが良いです!!

僕は来年も絶対出ます!!

自分の作品

最後に、今回の技育展で自分の発表したものの詳細を載せておきます。

https://github.com/takeyamayuki/NonMouse

https://zenn.dev/ninzin/articles/94b05fdb9edf53

経緯

このマウスは、今まで自分が一番しっくりくるマウスに出会えなかったのと、コンピュータに対する新しい入力インターフェイスを開発したいという気持ちから生まれたものでした。

実は、プレゼンでは全く触れていないですが、NonMouseを作る前にも別のマウスを作っていました。
https://github.com/takeyamayuki/GyroMouseBLE

これは、簡単に言うと、ジャイロセンサでマウスカーソルを動かすというものです。そして、bluetoothで動かします。

アイディアが出たときはめちゃくちゃいいと思いましたが、出来上がってみるとそれはWiiリモコンでした。操作感が全く持ってWiiリモコンと同じなんです。これだと、さきほど言ってた新しい入力インターフェイスをみたさないのでうーんとなっていました。

このもやもやをずっと持ちながら過ごしているうちに、MediaPipeというものに出会い、NonMouseを作る運びになったわけです。

Discussion